java爬虫保存到记事本上
时间: 2024-10-08 16:19:21 浏览: 9
在Java中使用爬虫获取网页内容并保存到记事本(文本文件)上,通常可以采用`java.io.FileWriter`或者第三方库如`Jsoup`来进行操作。下面是一个基本的例子,使用`HttpURLConnection`从网络获取HTML,并使用`FileWriter`将数据写入记事本:
```java
import java.io.*;
import java.net.HttpURLConnection;
import java.net.URL;
public class WebScraper {
public static void main(String[] args) {
String url = "http://example.com"; // 替换为你想爬取的网址
try {
URL obj = new URL(url);
HttpURLConnection con = (HttpURLConnection) obj.openConnection();
// 设置请求方法
con.setRequestMethod("GET");
// 获取连接输入流
BufferedReader in = new BufferedReader(new InputStreamReader(con.getInputStream()));
// 创建文件对象并准备写入
String inputLine;
File file = new File("output.txt"); // 记事本文件路径
FileWriter writer = new FileWriter(file);
// 写入每一行内容
while ((inputLine = in.readLine()) != null) {
writer.write(inputLine + "\n"); // 加上换行符
}
// 关闭流
in.close();
writer.close();
System.out.println("Data saved to the text file successfully.");
} catch (IOException e) {
e.printStackTrace();
}
}
}
```
在这个例子中,你需要替换`url`变量为你想要爬取的网站地址。运行程序后,爬取的数据会被保存到名为`output.txt`的记事本文件中。