import requests from lxml import etree import pyodbc import json conn=pyodbc.connect( 'DRIVER={ODBC Driver 11 for SQL Server};SERVER=三金0926;database=toothpaste;UID=sa;PWD=1234',autocommit=True) cursor=conn.cursor() data=[] for i in range(1,50): url=f"https://api.m.jd.com/?appid=item-v3&functionId=pc_club_productPageComments&client=pc&clientVersion=1.0.0&t=1689045906400&loginType=3&uuid=122270672.16886999380511187091192.1688699938.1689041601.1689045824.3&productId=6455155&score=0&sortType=5&page={i}&pageSize=10&isShadowSku=0&fold=1&bbtf=&shield=" h={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36 Edg/114.0.1823.67'} response=requests.get(url=url,headers=h) questionList=json.loads(response.text) for i in questionList['comments']: id=i['id'] content=i['content'] score=i['score'] creationTime=i['creationTime'] days=i['days'] data.append([id,content,score,creationTime,days]) cursor.executemany("insert into toothpaste1 values(?,?,?,?,?)",data) cursor.close() conn.close() print(data)
时间: 2024-04-11 16:29:49 浏览: 161
这段代码看起来是在使用Python进行数据爬取和存储。它使用了requests库发送HTTP请求,lxml库解析HTML,pyodbc库连接和操作SQL Server数据库。
具体来说,它首先建立了与SQL Server数据库的连接,然后使用循环从JD.com的API接口中获取商品评论数据。每次获取到的数据都会被解析并保存到data列表中。最后,使用cursor.executemany()方法将data列表中的数据批量插入到数据库表toothpaste1中。
请注意,这段代码是从JD.com的API接口获取商品评论数据,并将其存储到SQL Server数据库中。你可以根据自己的需求进行相应的修改和调整。
阅读全文
相关推荐













