python爬取div标签 class为bet-main bet-main-bg中的table标签class为bet-tb bet-bt-dg中的tbody标签,在找tr标签里面的td标签,打印出每个tr标签里的td中的a标签文本
时间: 2023-02-28 07:54:13 浏览: 159
您可以使用 Python 的第三方库 BeautifulSoup 来实现爬取。下面是一个简单的代码示例:
```
from bs4 import BeautifulSoup
html = """
<div class="bet-main bet-main-bg">
<table class="bet-tb bet-bt-dg">
<tbody>
<tr>
<td><a href="#">文本1</a></td>
<td><a href="#">文本2</a></td>
</tr>
<tr>
<td><a href="#">文本3</a></td>
<td><a href="#">文本4</a></td>
</tr>
</tbody>
</table>
</div>
"""
soup = BeautifulSoup(html, 'html.parser')
table = soup.find('table', {'class': 'bet-tb bet-bt-dg'})
tbody = table.find('tbody')
for tr in tbody.find_all('tr'):
for td in tr.find_all('td'):
a = td.find('a')
print(a.text)
```
这段代码会打印出每个 `tr` 标签内的 `td` 标签中的 `a` 标签文本。
相关问题
python爬取网页中<div class="share-container"中src中的内容
在Python中,你可以使用`requests`库获取网页内容,然后使用`BeautifulSoup`解析HTML文档并提取特定CSS选择器匹配到的数据。例如,如果你想要爬取`<div class="share-container">`中`src`属性的链接,可以这样做:
```python
import requests
from bs4 import BeautifulSoup
def extract_share_container_links(url):
response = requests.get(url)
if response.status_code == 200:
soup = BeautifulSoup(response.text, 'html.parser')
share_container = soup.select_one('.share-container') # 使用CSS选择器选取元素
if share_container:
src_attribute = share_container['src'] # 提取src属性值
return src_attribute
else:
print("未找到.share-container元素")
return None
else:
print(f"请求失败,状态码:{response.status_code}")
# 示例使用
target_url = "http://example.com" # 目标网页地址
link = extract_share_container_links(target_url)
if link:
print(f"找到的src链接是: {link}")
else:
print("没有找到分享容器内的链接")
python爬取网页中 <div class="share-container">中src中的内容
在Python中,你可以使用一些流行的网络爬虫库如BeautifulSoup、Scrapy或者requests配合HTML解析来抓取网页中`<div class="share-container">`标签内的`src`属性内容。这里简单提供一个基本的示例:
首先,确保安装了必要的库:
```bash
pip install beautifulsoup4 requests
```
然后编写一个脚本:
```python
import requests
from bs4 import BeautifulSoup
def get_share_content(url):
# 发送HTTP请求获取网页内容
response = requests.get(url)
# 检查请求是否成功
if response.status_code == 200:
# 使用BeautifulSoup解析HTML
soup = BeautifulSoup(response.text, 'html.parser')
# 找到class为"share-container"的div元素
share_container = soup.find('div', {'class': 'share-container'})
# 如果找到该元素,提取并返回src属性的内容
if share_container:
src_attribute = share_container['src']
return src_attribute
else:
print("分享容器未找到")
return None
else:
print(f"请求失败,状态码:{response.status_code}")
return None
# 示例URL
url = "https://www.example.com"
content = get_share_content(url)
if content is not None:
print(f"src内容为: {content}")
else:
阅读全文