db.getCollection("td_product").find({ "_id": {"$eq" : 1789104208254820352} }) 改成能查出来的语句
时间: 2024-05-24 07:07:44 浏览: 14
如果 `db.getCollection("td_product").find({"_id": {"$eq" : 1789104208254820352}})` 查询结果为空,那么您可以尝试使用以下语句来查询:
```
db.getCollection("td_product").find({"_id": ObjectId("1789104208254820352")})
```
其中 `ObjectId` 是 MongoDB 中的一个特殊数据类型,可以将其作为 `_id` 字段的值来查询。如果您仍然无法查询到结果,请检查 `_id` 字段是否正确,或者尝试使用其他条件来查询。如果有其他问题,请随时提出。
相关问题
MongoOperations 实现 db.getCollection("goods_type").find({"islam" : true})
MongoOperations 是 Spring Data MongoDB 提供的操作 MongoDB 数据库的 API 接口,可以通过它来实现 MongoDB 的操作。要实现 db.getCollection("goods_type").find({"islam" : true}) 的查询操作,可以使用 MongoOperations 的 find 方法,示例代码如下:
```java
Query query = new Query();
query.addCriteria(Criteria.where("islam").is(true));
List<GoodsType> goodsTypes = mongoOperations.find(query, GoodsType.class, "goods_type");
```
其中,Query 对象用于构建查询条件,Criteria.where("islam").is(true) 表示查询 islma 字段值为 true 的文档。mongoOperations.find(query, GoodsType.class, "goods_type") 用于执行查询操作,其中 GoodsType.class 表示查询结果映射为 GoodsType 类型的对象,"goods_type" 表示查询的集合名称为 goods_type。最终,将查询结果封装为 List<GoodsType> 类型的 goodsTypes 对象返回。
MongoOperations 实现 db.getCollection("goods_type").find({ $or : [{"_id" : { $nin : ["044", "045"] }}, {"typeName" : { $not : /.*猪.*/i }}] })
MongoOperations 是 Spring Data MongoDB 提供的操作 MongoDB 的 API,可以通过它来实现 MongoDB 的各种操作。
对于你提供的 MongoDB 查询语句,可以使用 MongoOperations 的 Criteria API 来实现,具体代码如下:
```java
import org.springframework.data.mongodb.core.MongoOperations;
import org.springframework.data.mongodb.core.query.Criteria;
import org.springframework.data.mongodb.core.query.Query;
...
MongoOperations mongoOps = ...; // 初始化 MongoOperations
Criteria criteria = new Criteria()
.orOperator(
Criteria.where("_id").nin("044", "045"),
Criteria.where("typeName").not().regex(".*猪.*", "i")
);
Query query = new Query(criteria);
List<GoodsType> goodsTypes = mongoOps.find(query, GoodsType.class, "goods_type");
```
其中,`GoodsType` 是你要查询的集合中文档对应的 Java 类型,`"goods_type"` 是集合名。
这样就可以通过 MongoOperations 来查询 MongoDB 中的数据了。