You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
也就是说并不能和osmium一样直接读巨型文件(也不是干这个的)除非自己写xml parser(那性能也是比不过osmium的,卷这个没意思)总之xml的dom内存是剩不下的,而且这才是大头,逃不掉,dom解不出来的,filter也别想读(不过回头可以比较一下waifu对象和element tree 对象,全树到底谁占内存更大)
The text was updated successfully, but these errors were encountered:
For example:
here is a complete dump of a city (55555n, 333w, 11r)
filter: [building=*]
在load前过滤
不会向Waifu对象添加被过滤掉的元素
直接meow的话只会显示 3333n,111w,9r(建筑)
可行的实现方法有:
直接在命令行-m启动的时候加--filter str
或者map=waifu()或者map.read()的时候加filter
在load后过滤
直接map.read后自动meow,发现有55555n,333w,11r
但是map.filter() 传入building=*然后返回一个map2
对map2进行meow发现有3333n,111w,9r
比较和讨论
afterload比较方便随时一步一步处理数据,接近人的思维,适合筛选和分析
beforeload不进内存适合处理大文件,类似osmium
但是到底还是得lxml解析以后,只是parse完丢弃,del掉,不会压入element_dict
也就是说并不能和osmium一样直接读巨型文件(也不是干这个的)除非自己写xml parser(那性能也是比不过osmium的,卷这个没意思)总之xml的dom内存是剩不下的,而且这才是大头,逃不掉,dom解不出来的,filter也别想读(不过回头可以比较一下waifu对象和element tree 对象,全树到底谁占内存更大)
The text was updated successfully, but these errors were encountered: