Java编程艺术:互联网时代的革新与应用

需积分: 1 0 下载量 72 浏览量 更新于2024-10-06 收藏 921KB DOC 举报
Java编程艺术第一章深入探讨了Java语言在编程领域的独特地位和历史背景。作为一门由James Gosling等人在90年代初开发的语言,Java的设计初衷是为了应对互联网时代的挑战,它的"一次编写,到处运行"(Write Once, Run Anywhere,简称WORA)理念使其成为跨平台编程的典范。这一设计理念的提出,标志着编程进入了Java时代,与之前的单机时代形成了鲜明对比。 在Java之前,程序员主要关注的是在特定操作系统上运行的代码,而现在,他们必须考虑分布式网络环境下的编程,这要求程序员具备更广阔的视野,理解并适应"网络即计算机"的概念。Java不仅适用于Web应用,还广泛应用于移动设备、企业级应用和云计算等领域,显示出了强大的适应性和灵活性。 本章通过一系列实例,展示了Java的网络无关性,即其代码能够在各种平台上运行,无需对底层硬件或操作系统做任何修改。这些示例强调了Java语法的简洁性和设计原则,使得复杂网络编程任务得以简化。此外,书中还讲解了Java API的使用,这些库类为开发者提供了丰富的工具,用于处理网络通信、数据处理等任务。 值得注意的是,Java的发展虽然受到了互联网的推动,但它并不仅仅局限于网络编程。Java作为一门通用编程语言,拥有众多特性,如垃圾回收机制、面向对象设计、异常处理等,使其能够胜任多种编程任务。尽管有时可能会受到网络性能的限制,但这并未削弱其在技术革新中的角色。比如,Java的一些设计理念和技术,如多线程和集合框架,对后续的编程语言如C#产生了深远影响。 Java编程艺术第一章为我们揭示了Java语言是如何从一个为互联网服务的小型问题解决方案,发展成为推动编程技术进步的重要力量。无论是对于Java初学者还是经验丰富的开发者,理解和掌握Java的功能及其实用性,都是进入现代IT领域不可或缺的基础。

import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] #一级页面中获取的数据(二级页面地址)存放于此列表 self.chapter_list=[] #二级页面中获取的数据(三级页面地址和章节名)存放于此列表 def get_url(url): while True: try: res=requests.get(url) if res.status_code==200: res.encoding =res.apparent_encoding print("页面获取成功") return res.text else: print("页面返回异常",res.status_code) except: print("页面获取错误") def get_book_list(self.url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url+i for i in self.bbok_list] self.book_list.remove('http://10.1.88.252:7000/庆余年') print(book_list) def get_chapter_list(self,url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((a["href"],a.text.replace("\n",""))) def get_content(self.chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text print(content) path = os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8") as f: f.write(content) def main(): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_liat(book) for chapter in chapter_list: self.get_content(chapter) book_s = book_spider("http://10.1.88.252:7000") book_s.main()这是一段爬虫代码,找出里面的错误并改正

2023-06-02 上传

帮我把一下代码设置一个合理请求头,并加入一个延时import requests import os from bs4 import BeautifulSoup class NovelDownloader: def __init__(self, root_url): self.root_url = root_url self.book_list = [] self.chapter_list = [] def get_url(self, url): while True: try: res = requests.get(url) if res.status_code == 200: print("页面获取成功!") return res.text else: print("页面返回异常!", res.status_code) except: print("页面获取错误!") def get_book_list(self): res = self.get_url(self.root_url) html = BeautifulSoup(res, "html.parser") a_list = html.find_all("a", {"class": "name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url + i for i in self.book_list] self.book_list.remove('http://www.biquge5200.cc/') def get_chapter_list(self, url): res = self.get_url(url) html = BeautifulSoup(res, "html.parser") a_list = html.find_all("a", {"class": "chapter"}) for a in a_list: self.chapter_list.append((a["href"], a.text.replace("\n", ""))) def get_content(self, chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res, "html.parser") content = html.find("div", {"id": "content"}).text print(content) path = os.path.join(book_name, chapter[1]) with open(path, "w", encoding="utf8") as f: f.write(content) def main(self): self.get_book_list() for book in self.book_list: self.get_chapter_list(book) for chapter in self.chapter_list: self.get_content(chapter) if __name__ == '__main__': root_url = "http://www.biquge5200.cc/" nd = NovelDownloader(root_url) nd.main()

2023-06-02 上传

import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] #一级页面中获取的数据(二级页面地址)存放在此列表 self.chapter_list=[] #二级页面中获取的数据(三级页面网址和章节名称)存放此列表 def get_url(self,url): while True: try: res=requests.get(url) if res.status_code==200: #返回http请求状态码 200为正常 res.encoding = res.apparent_encoding #页面编码方式使用页面声明的编码方式 print("页面获取成功!") return res.text else: print("页面返回异常!",res.status_code) except: print("页面获取错误!") def get_book_list(self,url): res =self.get_url(url) html=BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list=[self.root_url+i for i in self.book_list] self.book_list.remove("http://10.1.88.252:7000/庆余年") def get_chapter_list(self,url): res =self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((a["href"],a.text.replace("\n",""))) def get_content(self,chapter): url =self.root_url +chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res =self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text print(content) path=os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8")as f: f.write(content) def main(self): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_list(book) for chapter in self.chapter_list: self.get_content(chapter) book_s= book_spider("http://10.1.88.252:7000") book_s.main()代码解读

2023-06-02 上传