这个结果输出的可以保存到csv中吗import base64 import urllib import requests import json API_KEY = "GQchk1EqMwsI51DnVLzE6Hsh" SECRET_KEY = "9M4X60ginE4QYmDLZLhw8edP1Nt91g6z" def main(image_path): url = "https://aip.baidubce.com/rest/2.0/face/v3/detect?access_token=" + get_access_token() # image 可以通过 get_file_content_as_base64("C:\fakepath\LIU.jpg",False) 方法获取 image = get_file_content_as_base64(image_path,False) payload = json.dumps({ "image": image, "image_type": "BASE64", "face_field": "emotion" }) headers = { 'Content-Type': 'application/json' } response = requests.request("POST", url, headers=headers, data=payload) print(response.text) return response.text def get_file_content_as_base64(path, urlencoded=False): """ 获取文件base64编码 :param path: 文件路径 :param urlencoded: 是否对结果进行urlencoded :return: base64编码信息 """ with open(path, "rb") as f: content = base64.b64encode(f.read()).decode("utf8") if urlencoded: content = urllib.parse.quote_plus(content) return content def get_access_token(): """ 使用 AK,SK 生成鉴权签名(Access Token) :return: access_token,或是None(如果错误) """ url = "https://aip.baidubce.com/oauth/2.0/token" params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY} return str(requests.post(url, params=params).json().get("access_token"))
时间: 2024-04-26 13:24:03 浏览: 172
可以的,你可以把结果保存为csv文件。可以使用Python内置的csv模块来完成这个操作。具体的实现方法如下:
```python
import csv
result = main("image.jpg") # 调用主函数获取结果
# 将结果转换成字典列表
result_dict = json.loads(result)["result"]["face_list"]
output_list = []
for item in result_dict:
output_list.append({
"face_token": item["face_token"],
"emotion": item["emotion"]["type"]
})
# 将结果保存为csv文件
with open("output.csv", "w", newline="") as f:
writer = csv.DictWriter(f, fieldnames=["face_token", "emotion"])
writer.writeheader()
writer.writerows(output_list)
```
这个代码会将结果保存到output.csv文件中,文件的格式为:
```
face_token,emotion
face_token_1,happy
face_token_2,neutral
...
```
相关问题
import requests from bs4 import BeautifulSoup import xlwt import time import urllib3 import requests import json
这段代码主要是导入了requests库、BeautifulSoup库、xlwt库、urllib3库和json库。其中requests库是一个基于HTTP协议的Python库,可以用来发送HTTP请求和处理HTTP响应;BeautifulSoup库是一个HTML/XML的解析器,可以用来解析HTML/XML文档;xlwt库是一个Python库,可以用来写Excel文件;urllib3库是一个Python库,可以用来处理HTTP请求和响应;json库是一个Python库,可以用来处理JSON数据。这些库在爬虫开发中非常常用。
另外,这段代码中有重复导入requests库,可以将其中一个删除。
以下是修改后的代码:
```python
import requests
from bs4 import BeautifulSoup
import xlwt
import time
import urllib3
import json
```
阅读全文