info = ModelEntiy.query.filter(and_(ModelEntiy.model_name.like("%" + value + "%"), ModelEntiy.status == 1)).all()中value参数为空的时候,搜索条件是否会自动过滤当前条件
时间: 2024-04-10 22:34:14 浏览: 12
在上述代码中,如果`value`参数为空,那么`ModelEntiy.model_name.like("%" + value + "%")`这个条件将被解析为`ModelEntiy.model_name.like("%%")`,即匹配任意字符的条件。因此,如果`value`参数为空,搜索条件不会自动过滤掉当前条件。
如果你想要在`value`参数为空的情况下过滤掉这个条件,你可以添加一个条件判断。修改后的代码如下所示:
```python
if value:
info = ModelEntiy.query.filter(and_(ModelEntiy.model_name.like("%" + value + "%"), ModelEntiy.status == 1)).all()
else:
info = ModelEntiy.query.filter(ModelEntiy.status == 1).all()
```
这样,如果`value`参数为空,就只使用`ModelEntiy.status == 1`这个条件进行查询,否则将加上`ModelEntiy.model_name.like("%" + value + "%")`这个条件。
相关问题
举例调用下面的方法 : class MultiHeadAttention(tf.keras.layers.Layer): def __init__(self, d_model, num_heads): super(MultiHeadAttention, self).__init__() self.num_heads = num_heads self.d_model = d_model assert d_model % self.num_heads == 0 self.depth = d_model // self.num_heads self.query_dense = tf.keras.layers.Dense(units=d_model) self.key_dense = tf.keras.layers.Dense(units=d_model) self.value_dense = tf.keras.layers.Dense(units=d_model) self.dense = tf.keras.layers.Dense(units=d_model)
假设你已经定义了一个名为 `model` 的神经网络模型,其中包含了 `MultiHeadAttention` 层,你可以使用下面的方法来调用这个层:
```
import tensorflow as tf
# 定义模型
class MyModel(tf.keras.Model):
def __init__(self):
super(MyModel, self).__init__()
self.multi_head_attention = MultiHeadAttention(d_model=64, num_heads=8)
def call(self, inputs):
# 调用 MultiHeadAttention 层
x = self.multi_head_attention(inputs)
return x
# 初始化模型
model = MyModel()
# 输入数据
inputs = tf.random.normal(shape=(32, 10, 64))
# 调用模型
outputs = model(inputs)
# 输出结果
print(outputs.shape)
```
在上面的代码中,我们首先定义了一个名为 `MyModel` 的神经网络模型,并在其中实例化了一个 `MultiHeadAttention` 层。然后,我们创建了一个 `model` 对象,该对象是 `MyModel` 的实例。接着,我们使用 `tf.random.normal()` 方法生成了一个形状为 `(32, 10, 64)` 的张量作为输入数据,然后将其传递给模型的 `call()` 方法,得到了模型的输出结果。最后,我们打印出了输出结果的形状。
query1 := a.Ts.Table("business_settlement_profit as a"). Select(`ifnull(sum(CASE WHEN b.asid=a.link_id and a.user_type=? then b.sum_order_amt else 0 end),0) as sum_pay_amt, ifnull(sum(CASE WHEN b.asid=a.link_id and a.user_type=? then 1 else 0 end),0) as order_sum, ifnull(sum(CASE WHEN a.stmt_status=1 THEN a.profit ELSE 0 END), 0.00) as sum_profit, ifnull(sum(CASE WHEN a.stmt_status=0 and b.asid=a.link_id and a.user_type=? THEN a.pay_amt+b.sum_order_amt ELSE 0 END), 0.00) as ret_pay_amt`, model.USER_TYPE_SUPPLIER_AGENT, model.USER_TYPE_SUPPLIER_AGENT, model.USER_TYPE_SUPPLIER_AGENT). Joins("inner join business_settlement as b on a.bsid=b.bsid"). Where("a.link_id=? and a.user_type=?", a.Token.LinkId, a.Token.UserType)
这段代码是一个查询语句,使用了GORM库的链式调用方法。它从名为`business_settlement_profit`的表中选择了一些字段,并根据特定条件进行了一些计算。以下是对代码的解释:
```go
query1 := a.Ts.Table("business_settlement_profit as a").
Select(`ifnull(sum(CASE WHEN b.asid=a.link_id and a.user_type=? then b.sum_order_amt else 0 end),0) as sum_pay_amt,
ifnull(sum(CASE WHEN b.asid=a.link_id and a.user_type=? then 1 else 0 end),0) as order_sum,
ifnull(sum(CASE WHEN a.stmt_status=1 THEN a.profit ELSE 0 END), 0.00) as sum_profit,
ifnull(sum(CASE WHEN a.stmt_status=0 and b.asid=a.link_id and a.user_type=? THEN a.pay_amt+b.sum_order_amt ELSE 0 END), 0.00) as ret_pay_amt`,
model.USER_TYPE_SUPPLIER_AGENT, model.USER_TYPE_SUPPLIER_AGENT, model.USER_TYPE_SUPPLIER_AGENT).
Joins("inner join business_settlement as b on a.bsid=b.bsid").
Where("a.link_id=? and a.user_type=?", a.Token.LinkId, a.Token.UserType)
```
在这段代码中,`query1`是一个GORM库的查询构造器对象。它使用了链式调用的方式来构建一个复杂的查询语句。下面是对每一部分的解释:
1. `a.Ts.Table("business_settlement_profit as a")`:从名为`business_settlement_profit`的表中选择数据,并将其别名为`a`。
2. `Select(...)`:选择了一些字段,并使用`SUM`和`CASE WHEN`等表达式进行计算。这些计算结果将被赋予别名,如`sum_pay_amt`、`order_sum`等。
3. `Joins("inner join business_settlement as b on a.bsid=b.bsid")`:使用内连接将`business_settlement_profit`表与`business_settlement`表进行关联,关联条件是它们的`bsid`字段相等。
4. `Where("a.link_id=? and a.user_type=?", a.Token.LinkId, a.Token.UserType)`:设置查询的条件,即`link_id`等于`a.Token.LinkId`并且`user_type`等于`a.Token.UserType`。
根据你的需求,你可以根据这个示例进行修改和扩展来构建你自己的查询语句。
相关推荐
![rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)