没有合适的资源?快使用搜索试试~ 我知道了~
首页Python利用Django如何写restful api接口详解
Python利用Django如何写restful api接口详解
1.8k 浏览量
更新于2023-05-26
评论 1
收藏 680KB PDF 举报
主要给大家介绍了关于Python利用Django如何写restful api接口的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
资源详情
资源评论
资源推荐

Python利用利用Django如何写如何写restful api接口详解接口详解
主要给大家介绍了关于Python利用Django如何写restful api接口的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有
一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
前言前言
用Python如何写一个接口呢,首先得要有数据,可以用我们在网站上爬的数据,在上一篇文章中写了如何用Python爬虫,有兴趣的可以看
看://www.jb51.net/article/141661.htm
大量的数据保存到数据库比较方便。我用的pymsql,pymsql是Python中操作MySQL的模块,其使用方法和MySQLdb几乎相同。但目前在python3.x
中,PyMySQL取代了MySQLdb。
1.连接数据库连接数据库
# 连接数据库,需指定charset否则可能会报错
db = pymysql.connect(host="localhost", user="root", password="123", db="mysql", charset="utf8mb4")
cursor = db.cursor() # 创建一个游标对象
2.创建数据库创建数据库
cursor.execute("DROP TABLE IF EXISTS meizi_meizis") # 如果表存在则删除
# 创建表sql语句
createTab = """create table meizi_meizis(
id int primary key auto_increment,
mid varchar(10) not null,
title varchar(50),
picname varchar(10),
page_url varchar(50),
img_url varchar(50)
);"""
cursor.execute(createTab) # 执行创建数据表操作
3.爬取数据爬取数据
def html(self, href, title):
lists = []
meiziid = href.split('/')[-1]
html = self.request(href)
max_span = BeautifulSoup(html.text, 'lxml').find('div', class_='pagenavi').find_all('span')[-2].get_text()
for page in range(1, int(max_span) + 1):
meizi = {}
page_url = href + '/' + str(page)
img_html = self.request(page_url)
img_url = BeautifulSoup(img_html.text, 'lxml').find('div', class_='main-image').find('img')['src']
picname = img_url[-9:-4]
meizi['meiziid'] = meiziid
meizi['title'] = title
meizi['picname'] = picname
meizi['page_url'] = page_url
meizi['img_url'] = img_url
lists.append(meizi) # 保存到返回数组中
return lists
4.保存到数据库保存到数据库
def all_url(self, url):
html = self.request(url)
all_a = BeautifulSoup(html.text, 'lxml').find('div', class_='all').find_all('a')
for index, a in enumerate(all_a):
title = a.get_text()
href = a['href']
lists = self.html(href, title)
for i in lists:
# print(i['meiziid'], i['title'], i['picname'], i['page_url'], i['img_url'])
# 插入数据到数据库sql语句,%s用作字符串占位
sql = "INSERT INTO `meizi_meizis`(`mid`,`title`,`picname`,`page_url`,`img_url`) VALUES(%s,%s,%s,%s,%s)"
try:
cursor.execute(sql, (i['meiziid'], i['title'], i['picname'], i['page_url'], i['img_url']))
db.commit()
print(i[0] + " is success")
except:
db.rollback()
db.close() # 关闭数据库
5.创建创建Web工程工程
运行我们的爬虫,很快数据库表里就有数据了。
















安全验证
文档复制为VIP权益,开通VIP直接复制

评论0