<?php $pdf_content = "pdf文件的二进制内容"; $pdf_name = "pdf文件的名称"; $pdf_link = '<a href="data:application/pdf;base64,' . base64_encode($pdf_content) . '" target="_blank">' . $pdf_name . '</a><br>'; echo $pdf_link; ?>右键选择在新窗口打开是正常的,但左键单击可以跳转到新窗口,但是个空白窗口
时间: 2024-03-17 19:45:11 浏览: 79
这种情况通常是因为浏览器的安全设置导致的。你可以尝试使用以下方法来解决这个问题:
1. 将 target 属性设置为 "_self",这样就可以在当前窗口中打开 PDF 文件。
2. 如果你想在新窗口中打开 PDF 文件,并且希望避免空白窗口的问题,可以尝试添加 JavaScript 代码来打开新窗口并加载 PDF 文件,例如:
```
<a href="#" onclick="window.open('data:application/pdf;base64,<?php echo base64_encode($pdf_content); ?>', '_blank')">打开 PDF 文件</a>
```
这个方法将在新窗口中打开 PDF 文件,并且使用 JavaScript 加载 PDF 文件,避免了空白窗口的问题。
相关问题
在一个<?php ?>代码块中插入<a href="data:application/pdf;base64,<?php echo base64_encode($pdf_content); ?>" target="_blank"><?php echo $pdf_name; ?></a><br>的正确方式
正确的方式是将整个HTML代码作为字符串插入到PHP代码块中,然后使用echo语句输出该字符串。具体代码如下:
```
<?php
$pdf_content = "pdf文件的二进制内容";
$pdf_name = "pdf文件的名称";
$pdf_link = '<a href="data:application/pdf;base64,' . base64_encode($pdf_content) . '" target="_blank">' . $pdf_name . '</a><br>';
echo $pdf_link;
?>
```
注意,上述代码中的$pdf_content和$pdf_name需要替换成实际的PDF文件内容和名称。
https://blog.csdn.net/eric3012?type=blog 用Python抓包拿到他的所有文章并保存为pdf文件怎么写代码
以下是一个可能的Python代码,它使用requests和BeautifulSoup库来抓取CSDN博客网站的所有文章,并使用pdfkit库将其保存为PDF文件。
首先,我们需要安装所需的库,命令为:
```
pip install requests beautifulsoup4 pdfkit
```
接下来,我们可以使用以下代码,将该博主的所有文章保存为一个PDF文件:
```python
import os
import requests
import pdfkit
from bs4 import BeautifulSoup
# 设置请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'
}
# 指定博主的主页
blog_url = 'https://blog.csdn.net/eric3012'
# 发送GET请求并获取博客主页内容
response = requests.get(blog_url, headers=headers)
soup = BeautifulSoup(response.text, 'html.parser')
# 获取博客列表中的所有文章链接
post_links = soup.find_all('a', class_='title')
post_urls = [link['href'] for link in post_links]
# 将所有文章链接保存为一个PDF文件
pdf_name = 'eric3012_blog.pdf'
pdfkit.from_url(post_urls, pdf_name)
print('保存成功:', pdf_name)
```
使用上述代码,我们首先发送一个GET请求来获取博客主页的HTML内容。然后我们使用BeautifulSoup库来解析HTML内容,从中获取所有文章的链接。然后我们使用pdfkit库将这些链接转换为一个PDF文件,并将其保存到本地。
由于pdfkit需要调用操作系统的wkhtmltopdf库,因此在使用此代码之前,请确保已在您的计算机上安装了该库。在Windows上,您可以从该链接下载并安装wkhtmltopdf二进制文件:https://wkhtmltopdf.org/downloads.html
此外,请注意,pdfkit可能无法正确处理某些复杂的文章布局,这会导致PDF输出出现问题。在这种情况下,您可能需要手动调整文章布局或寻找其他PDF生成工具。
阅读全文