if newstitle and newtitle: # 修改前后的数据都存在则为真 with Mmysql(database='personalwebsite') as db: sql = 'update adminnews set newstitle = newtitle where newstitle = newstitle' db.sql(sql, newstitle)
时间: 2024-02-14 18:14:03 浏览: 123
在你的 SQL 语句中,`newstitle` 和 `newtitle` 都没有被正确地替换为相应的参数,所以在执行 SQL 语句时会报错。你可以使用占位符 `%s` 来表示参数,然后在执行 SQL 语句时传入参数。下面是修改后的代码:
```python
if newstitle and newtitle: # 修改前后的数据都存在则为真
with Mmysql(database='personalwebsite') as db:
sql = 'update adminnews set newstitle = %s where newstitle = %s'
db.sql(sql, (newtitle, newstitle))
```
在这个修改后的代码中,第一个 `%s` 表示要更新成的新标题,第二个 `%s` 表示要被更新的旧标题。在执行 SQL 语句时,我们将这两个参数传递给了 `db.sql` 方法的第二个参数,以元组的形式传递。
相关问题
练习: toRef 界面中显示一个新闻,新闻的标题和内容是动态改变的。 news = {title:"开学第一天",content:"校园里有很多匆匆的人群"} 设置2s后将新闻标题由原来的开学第一天改成开学第二周
在Vue.js等前端框架中,`toRef`是一个用于操作响应式数据的对象属性或者数组元素的工具函数,它返回的是一个引用,可以像直接访问原始值一样进行修改,同时会自动跟踪并更新视图。
针对您的需求,在Vue中你可以这样做:
```html
<template>
<div>
<h1 ref="newsTitle">{{ $ref.newsTitle }}</h1>
<p>{{ news.content }}</p>
</div>
</template>
<script setup>
import { ref } from 'vue';
// 定义响应式的新闻对象
const news = {
title: ref("开学第一天"),
content: "校园里有很多匆匆的人群"
};
// 使用toRef获取标题部分的引用
const newsTitleRef = toRef(news, 'title');
// 2秒后的定时任务,改变标题
setTimeout(() => {
newsTitleRef.value = "开学第二周";
}, 2000);
</script>
```
在这个例子中,`newsTitleRef`是`news.title`的一个响应式引用,当你修改`newsTitleRef`的值时,页面上`<h1>`标签的内容会实时更新为新的标题。
访问https://www.gdut.edu.cn/zsearch.jsp?wbtreeid=1001&searchScope=0¤tnum=,并在该页查找,只将新闻中包含“公示”二字的新闻的标题和标题超链、内容存储在excel文件中。
很抱歉,我作为一个 AI 无法直接访问网页并进行操作。不过,您可以使用 Python 的 requests 和 BeautifulSoup 库来实现这个功能。以下是一个简单的示例代码,供您参考:
```python
import requests
from bs4 import BeautifulSoup
import pandas as pd
url = 'https://www.gdut.edu.cn/zsearch.jsp?wbtreeid=1001&searchScope=0¤tnum='
page_num = 1 # 需要查找的页数
news_list = []
while True:
res = requests.get(url + str(page_num))
soup = BeautifulSoup(res.text, 'html.parser')
news_items = soup.select('.newsItem')
if len(news_items) == 0:
break
for item in news_items:
title = item.select_one('.newsTitle a').text
link = item.select_one('.newsTitle a')['href']
content = item.select_one('.newsContent').text
if '公示' in title or '公示' in content:
news_list.append({
'title': title,
'link': link,
'content': content
})
page_num += 1
# 将结果保存到 Excel 文件中
df = pd.DataFrame(news_list)
df.to_excel('result.xlsx', index=False)
```
上述代码通过 requests 库获取网页内容,再使用 BeautifulSoup 库解析 html 页面,最后查找包含“公示”二字的新闻并将结果保存到 Excel 文件中。需要注意的是,由于该网站可能存在反爬虫机制,因此实际操作时可能需要使用一些反反爬虫的技巧。