我在java应用程序中使用了spring data mongodb框架来持久化mongodb中的应用程序数据。在我的java模型类中,我有两个字段。
1)带有@Id注释的字段objId。2)字段id
关于映射到保存的mongodb文档中的_id键,哪个会优先,或者我会得到多个映射的错误。我使用的是spring data mongo 1.6.1。我知道我可以测试这个,但是我没有本地环境设置。
mongodb
{'id':'a'}
{'id':'b'}
{'id':'c'}
{'id':'d'}
......
python
pool = ['a','b','c']
for element in pool:
mongodb.remove({'id':element})
就像这样的情况。
我有一个清单,作为身份列表。
我想把每一个都从mongodb中删除。
有比一个接一个做更好的方法吗?
我正在尝试从mongo数据库中读取一些文档,并在spark中解析模式。到目前为止,我已经成功地从mongo读取并使用由case类定义的模式将结果mongoRDD转换为DataFrame,但是有一种情况是,mongo集合有一个包含多个数据类型的字段(字符串数组和嵌套对象数组)。到目前为止,我只是将字段解析为一个字符串,然后使用spark的from_json()来解析新模式中的嵌套对象,但是我发现当一个字段不符合模式时,它返回模式中所有字段的null -而不仅仅是不符合的字段。是否有一种方法来解析这一点,以便只有与模式不匹配的字段才会返回null?
//creating mongo test da
我试图使用Kafka连接MongoDB连接器向MongoDB编写一些文档。我成功地设置了所需的所有组件并启动了连接器,但是当我使用Kafka -avro-控制台-生产者向Kafka发送消息时,Kafka connector给了我以下错误:
org.apache.kafka.connect.errors.DataException: Error: `operationType` field is doc is missing.
我尝试将这个字段添加到消息中,但是kafka要求我包含一个documentKey字段。看起来,除了在我的模式中定义的有效负载之外,我还需要包括一些额外的字段,但是我找不到