res = re.findall(r'[(](.*?)[)]', lis3)
时间: 2024-04-22 07:27:15 浏览: 21
这是一个使用Python中re模块的正则表达式,用来从字符串lis3中提取中文括号中的内容。具体来说,这个正则表达式使用了非贪婪模式,匹配一个左括号"(",然后匹配任意数量的非右括号字符,直到匹配到一个右括号")",最后将这个括号中的内容作为一个匹配结果返回给变量res。这个正则表达式适用于lis3中包含多个中文括号的情况,可以将所有括号中的内容都提取出来。
相关问题
优化代码import os import re import pandas as pd from pandas import DataFrame lst1=[] lst2=[] path1 = r'D:\C-cn' path2 = r'D:\C-en' files1 = os.listdir(path1) files2 = os.listdir(path2) lst1=[] lst2=[] reg1=re.compile(r"[^。?!…]*[。?!……]") reg2=re.compile(r'.*\.[\n ]') df1 = [] df2 = [] for i in range(0,39): domain=os.path.abspath(r'D:\C-cn') file1=os.path.join(domain,files1[i]) fn = open(str(file1),encoding='gbk') f1 = fn.readlines() #print(f1) for line in f1: line=line.rstrip('\n') if "。" not in line: lst1.append(line) else: lis=reg1.findall(line) for j in lis: lst1.append(j) data1=DataFrame({"Chinese":lst1}) df1.append(data1) df1 = pd.concat(df1) df1.to_excel("Chinese.xlsx",index="false") for i in range(0,39): domains=os.path.abspath(r'D:\C-en') file2=os.path.join(domains,files2[i]) ft = open(str(file2),encoding='gbk') f2 = ft.readlines() print(f2) for line in f2: if "." not in line: line=line.rstrip("\n") lst2.append(line) else: liss=line.split(". ") for j in liss: j=j+"." lst2.append(j) data2=DataFrame({"English":lst2}) df2.append(data2) df2 = pd.concat(df2)# 合并所有数据 df2.to_excel("English.xlsx",index="false")
这段代码可以进行一些优化,包括:
1. 将重复的代码封装成函数,避免重复代码。
2. 不需要在每次迭代时都重新初始化 `lst1` 和 `lst2` 列表,可以将其初始化放在循环外面。
3. 在使用 `pandas` 库时,最好使用 `read_csv()` 函数和 `to_csv()` 函数,而不是 `DataFrame()` 和 `to_excel()` 函数。
下面是优化后的代码:
```python
import os
import re
import pandas as pd
def get_sentences(file_path, regex):
with open(file_path, encoding='gbk') as f:
lines = f.readlines()
sentences = []
for line in lines:
line = line.rstrip('\n')
if "。" not in line:
sentences.append(line)
else:
lis = regex.findall(line)
for j in lis:
sentences.append(j)
return sentences
def get_english_sentences(file_path):
with open(file_path, encoding='gbk') as f:
lines = f.readlines()
sentences = []
for line in lines:
if "." not in line:
line = line.rstrip("\n")
sentences.append(line)
else:
liss = line.split(". ")
for j in liss:
j = j + "."
sentences.append(j)
return sentences
path1 = r'D:\C-cn'
path2 = r'D:\C-en'
files1 = os.listdir(path1)
files2 = os.listdir(path2)
reg1 = re.compile(r"[^。?!…]*[。?!……]")
reg2 = re.compile(r'.*\.[\n ]')
lst1 = []
for i in range(0, 39):
file1 = os.path.join(path1, files1[i])
lst1 += get_sentences(file1, reg1)
lst2 = []
for i in range(0, 39):
file2 = os.path.join(path2, files2[i])
lst2 += get_english_sentences(file2)
df1 = pd.DataFrame({"Chinese": lst1})
df1.to_csv("Chinese.csv", index=False)
df2 = pd.DataFrame({"English": lst2})
df2.to_csv("English.csv", index=False)
```
这里将中文和英文的句子分别存储到了 `Chinese.csv` 和 `English.csv` 文件中,以便后续的处理和分析。
import requests from bs4 import BeautifulSoup import csv sku = [] for i in range(1, 10): print(i) res = requests.get('https://list.jd.com/list.html?cat=9987,653,655&page='+str(i)+'&sort=sort_rank_asc&trans=1&JL=6_0_0&ms=10#J_main') html = res.text soup = BeautifulSoup(html, 'html.parser') items = soup.find_all(class_="gl-item") print(i) for item in items: data = item.find(class_='gl-i-wrap j-sku-item') sku.append(data['data-sku']) length = len(sku) for i in range(length): print(i) res = requests.get('https://item.jd.com/'+str(sku[i])+'.html') html = res.text soup = BeautifulSoup(html, 'html.parser') item = soup.find_all(class_="parameter2 p-parameter-list")[0] lis = item.find_all('li') with open("/Users/liulingzhi/Desktop/recipe.csv", "a") as csv_file: writer = csv.writer(csv_file) columns = [] # 先写入columns_name for li in lis: columns.append(li.text) writer.writerow(columns)
上上述上述代码上述代码是上述代码是一个上述代码是一个Python上述代码是一个Python程序上述代码是一个Python程序,上述代码是一个Python程序,引上述代码是一个Python程序,引用上述代码是一个Python程序,引用了上述代码是一个Python程序,引用了requests上述代码是一个Python程序,引用了requests、上述代码是一个Python程序,引用了requests、Beautiful上述代码是一个Python程序,引用了requests、BeautifulSoup上述代码是一个Python程序,引用了requests、BeautifulSoup和上述代码是一个Python程序,引用了requests、BeautifulSoup和csv上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用Beautiful上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存储上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存储到上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存储到一个上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存储到一个列表上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存储到一个列表中上述代码是一个Python程序,引用了requests、BeautifulSoup和csv库,以获取京东网站中某类商品的SKU编号。通过循环请求链接,将页面HTML源码返回并使用BeautifulSoup解析。逐一提取出所有SKU编号,存储到一个列表中。