CSS+DIV+HTML网页布局秘籍与40个实例

版权申诉
0 下载量 128 浏览量 更新于2024-10-26 收藏 206KB RAR 举报
资源摘要信息:"CSS+DIV+HTML网页布局的相关知识" 1. HTML、CSS和DIV的基础知识 HTML(HyperText Markup Language)是一种用于创建网页的标准标记语言。HTML能够通过标签来描述网页的结构和内容,比如标题、段落、图片等。 CSS(Cascading Style Sheets)是一种用于描述网页呈现样式的语言。它能够控制网页的布局、字体、颜色、背景等元素的样式。 DIV元素是HTML文档流中的一个通用容器,可用于布局和组织内容。通过CSS的样式设置,DIV可以定义为页面的各个部分,如头部、导航栏、内容区、侧边栏、页脚等。 2. 网页布局的设计原则 网页布局的设计应遵循可用性、可访问性、兼容性和响应性的原则。布局需要考虑到不同设备和浏览器的兼容,以及不同屏幕尺寸的适应性。 3. 网页布局的常用方法 网页布局常见的方法有表格布局、浮动布局、定位布局、弹性盒模型(Flexbox)、网格布局(Grid)等。表格布局较为陈旧,而Flexbox和Grid是现代CSS布局中推荐使用的两种方法,它们提供了更加强大和灵活的布局能力。 4. CSS布局技术 - 浮动(Float)布局技术:通过设置元素的float属性实现布局,常用于实现图文混排效果。 - 清除浮动(Clear):解决浮动导致的高度塌陷问题。 - 定位(Position)布局技术:通过设置元素的position属性来控制其在页面中的位置。 - 盒模型(Box Model):理解元素的内边距、边框、外边距和内容的实际尺寸对于布局至关重要。 - Flexbox布局:可以轻松创建水平或垂直对齐的容器和项目,对于复杂布局尤其有用。 - CSS Grid布局:提供了一种更加直观和强大的二维布局系统,使得创建复杂的网页布局变得更加简单。 5. 网页布局实例 网页布局实例是通过具体的代码示例来展示如何使用HTML和CSS进行网页布局的。实例40例中可能包含了从简单的单列布局到复杂的响应式设计等多种不同的布局方式。 6. 网站开发的参考 网页布局实例对网站开发人员来说是很好的参考。它能够提供实际操作中的解决方案和布局灵感,帮助开发人员更快地构建出满足需求的网站。 7. 压缩包子文件的文件名称列表解析 ***.txt:可能是提供下载资源的网站地址或其他相关信息的文本文件。 - 网页布局实例40例:这个压缩文件中可能包含了40个不同的网页布局HTML和CSS文件,提供给用户直接学习和参考。 总结来说,CSS+DIV+HTML是网页开发的三大核心技术,它们共同作用于网页的布局和设计。通过本资源,开发者可以学习到如何设计出既美观又实用的网页布局,以及如何使用最新的CSS技术来实现各种布局效果。网页布局实例40例为开发者提供了一个实际操作的平台,有助于提高开发效率和设计水平。
131 浏览量
162 浏览量

import requests import random import parsel visited_urls = set() # 保存已经访问过的链接 page = 1 while True: # 循环爬取 url = f'https://travel.qunar.com/travelbook/list.htm?page={page}&order=hot_heat' html_data = requests.get(url).text selector = parsel.Selector(html_data) lis = selector.css('.list_item h2 a::attr(href)').getall() # 遍历当前页面中的所有链接 for li in lis: detail_url = 'https://travel.qunar.com' + li if detail_url in visited_urls: # 如果链接已经访问过,则跳过 continue visited_urls.add(detail_url) # 将链接加入集合中 detail_html = requests.get(detail_url).text time.sleep(random.randint(3, 5)) detail_selector = parsel.Selector(detail_html) title = detail_selector.css('.b_crumb_cont *:nth-child(3)::text').get() comment = detail_selector.css('.title.white::text').get() view_count = detail_selector.css('.view_count::text').get() date = detail_selector.css('#js_mainleft > div.b_foreword > ul > li.f_item.when > p > span.data::text').get() days = detail_selector.css('#js_mainleft > div.b_foreword > ul > li.f_item.howlong > p > span.data::text').get() money = detail_selector.css('#js_mainleft > div.b_foreword > ul > li.f_item.howmuch > p > span.data::text').get() character = detail_selector.css('#js_mainleft > div.b_foreword > ul > li.f_item.who > p > span.data::text').get() play_list = detail_selector.css('#js_mainleft > div.b_foreword > ul > li.f_item.how > p > span.data > span::text').getall() for play in play_list: print(play) print(title, comment, view_count, date, days, money, character, play_list, detail_url) time.sleep(random.randint(3, 5)) # 判断是否需要继续爬取 if len(lis) == 0 or page >= 20: break page += 1这段代码怎么将爬取出来的所有数据保存到csv文件

144 浏览量