博客
关于我
Python 爬取起点的小说(非vip)
阅读量:357 次
发布时间:2019-03-04

本文共 1978 字,大约阅读时间需要 6 分钟。

Python 爬取小说章节(非VIP)- 以《冒牌大英雄》为例

本文将介绍如何使用Python编写一个爬取小说章节的脚本。以《冒牌大英雄》为例,讲述从非VIP章节爬取小说内容的实现方法。通过本地存储每个章节的内容,生成HTML格式的文件。

技术选型

本次实现使用了以下技术和工具:

  • 第三方库requests,用于发送HTTP请求,抓取网页内容
  • 正则表达式:用于解析网页源代码,提取章节链接
  • 文件存储:将爬取到的内容存储为本地文件
  • 爬取流程

    完整的爬取流程如下:

  • 获取起始网址的网页源代码
  • 从源代码中提取章节链接
  • 循环处理每个章节链接
    • 提取每个章节的标题
    • 提取每个章节的内容
    • 保存为本地文件
  • 文件命名规则
    • 文件名由标题加时间戳组成
    • 保存格式为HTML文件
  • 实现细节

    1. 获取起始网址的网页源代码

    使用requests库发送HTTP GET请求,获取起始网址的网页源代码。同时,设置合理的请求头信息,避免被网站反爬机制拦截。

    import requestsimport reurl = 'https://book.qidian.com/info/131957'headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36',    'accept-encoding': 'gzip, deflate, sdch, br',    'accept-language': 'zh-CN,zh;q=0.8'}response = requests.get(url, headers=headers)response.encoding = 'utf-8'response_text = response.text

    2. 提取章节链接

    网页源代码中通常嵌入了章节链接,可以通过正则表达式提取。常见的提取方式包括:

    • 查找特定的a标签
    • 查找特定的li列表
    • 使用动态加载的内容(如data-rid属性)
    pat = r'
  • 'links = re.findall(pat, response_text)

    3. 循环处理每个章节链接

    对于每个找到的章节链接,重复以下步骤:

  • 发送HTTP GET请求,获取章节网页的内容
  • 提取标题和内容
  • 保存为本地文件
  • for link in links:    # 发送请求获取章节内容    chapter_url = 'https://book.qidian.com' + link    chapter_response = requests.get(chapter_url, headers=headers)    chapter_response.encoding = 'utf-8'    chapter_text = chapter_response.text        # 提取标题和内容    title_pat = r'

    (.*?)

    ' content_pat = r'(?<=
    ).*?(?=<\/content>)' title = re.search(title_pat, chapter_text).group(1) content = re.search(content_pat, chapter_text).group(0) # 保存文件 filename = f'"{title}"_{int(time.time())}.html' with open(filename, 'w', encoding='utf-8') as f: f.write(f'

    {title}

    {content}')

    4. 文件命名规则

    为确保每个文件唯一,可以在标题中添加时间戳。这样即使同一标题的章节多次爬取,也能生成不同的文件名。

    import timefilename = f'"{title}"_{int(time.time())}.html'

    注意事项

  • 反爬机制:部分网站会通过检测代理IP或请求频率来限制爬取行为。可通过设置代理IP池或模拟真实用户行为来规避。
  • 网络限制:部分网站会限制爬虫的并发请求量。可以通过requests库的timeout参数设置请求超时。
  • 内容变更:网站内容可能会定期更新,导致爬取的内容与实际页面有差异。建议定期检查和更新爬虫规则。
  • 通过以上方法,可以轻松实现爬取小说章节的需求。整个流程从获取源代码到存储本地文件,都可以通过Python脚本实现,满足批量处理和自动化的需求。

    转载地址:http://kokr.baihongyu.com/

    你可能感兴趣的文章
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
    查看>>
    NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
    查看>>
    NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
    查看>>
    NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
    查看>>
    NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
    查看>>
    NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
    查看>>
    NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
    查看>>
    NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
    查看>>
    NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
    查看>>
    NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
    查看>>
    NIH发布包含10600张CT图像数据库 为AI算法测试铺路
    查看>>
    Nim教程【十二】
    查看>>