我试图使用以下代码获取mongo数据库中存在的一些ID:
client = MongoClient('xx.xx.xx.xx', xxx) db = client.test_database db = client['...'] collection = db.test_collection collection = db["..."] for cursor in collection.find({ "$and" : [{ "followers" : { "$gt" : 2000 } }, { "followers" : { "$lt" : 3000 } }, { "list_followers" : { "$exists" : False } }] }): print cursor['screenname'] print cursor['_id']['uid'] id = cursor['_id']['uid']
但是,过了一会儿,我收到这个错误:
pymongo.errors.CursorNotFound:游标id'...'在服务器上无效.
我发现这篇文章提到了这个问题.然而,我不清楚采取哪种解决方案.可以使用find().batch_size(30)
吗?上面的命令到底是做什么的?我可以使用所有数据库ID batch_size
吗?
使用no_cursor_timeout=True
这样:
cursor=db.images.find({}, {'id':1, 'image_path':1, '_id':0}, no_cursor_timeout=True) for i in cursor: # ..... # ..... cursor.close() # use this or cursor keeps waiting so ur resources are used up
您收到此错误是因为光标在服务器上超时(10分钟不活动后).
从pymongo文档:
如果MongoDB中的游标已经打开了很长时间而没有对它们执行任何操作,则它们可以在服务器上超时.这可能导致在尝试迭代游标时引发CursorNotFound异常.
当您调用该collection.find
方法时,它会查询一个集合并将光标返回给文档.要获取文档,请迭代光标.迭代游标时,驱动程序实际上是向MongoDB服务器发出请求以从服务器获取更多数据.每个请求中返回的数据量由batch_size()
方法设置.
从文档:
限制一批中返回的文档数量.每批需要往返服务器.可以对其进行调整以优化性能并限制数据传输.
将batch_size设置为较低的值将帮助您解决超时错误错误,但它会增加您访问MongoDB服务器以获取所有文档的次数.
默认批量大小:
对于大多数查询,第一批返回101个文档或只有足够的文档超过1兆字节.批量大小不会超过最大BSON文档大小(16 MB).
没有通用的"正确"批量大小.您应该使用不同的值进行测试,看看您的用例的适当值是什么,即您可以在10分钟的窗口中处理多少文档.
最后的手段将是你设置的no_cursor_timeout=True
.但是,在完成数据处理后,您需要确保光标已关闭.