网站首页 > 博客文章 正文
功能:
自动爬取某网站,并且将该网站的文本数据存储到本地。
基本实现步骤:
1)自动爬取网站,获得网站数据;
2)数据存储到本地。
遇到问题及解决办法:
1)自动爬取,暂时水平不够高,采用的伪爬取方法即找到网页网址的规律;
2)关于文本的处理,输出成想要的格式
正题方法:
1)网页分为静态网页(存粹的html格式的)、动态网页(使用AJAX),即动态加载网页的数据不一定出现按外html中等。
本文爬取的网页是动态网页,采用的方法是浏览器渲染引擎(渲染引擎的职责就是渲染,即在浏览器窗口中显示所请求的内容。这是每一个浏览器的核心部分,所以渲染引擎也称为浏览器内核)。因而需要安装selenium库,
FireFox浏览器,下载getodriver。selenium库使用方法:https://blog.csdn.net/weixin_36279318/article/details/79475388
访问网址url:https://www.biqukan.com/2_2757/1107517.html,鬼吹灯的链接。
需要爬取内容:标题、文本。
标题的元素特征:div,class = “content”或h1
文本元素特征:div,id = “content” class = “showtxt”
2)通过BeautifulSoup,安装模块后,获得soup对象,按照上面的元素属性,调用方法find_all()或find可以所以符合上述元素特征的元素列表。(https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/#find-all)
3)根据BeautifulSoup手册上的,get_text()方法获得tag标签的文本内容,因为获取的文本内容存在空格,采用的笨方法
用strip()方法去除空格,返回列表,并用字符串+方法将列表的字符串拼接,完成文本提取工作
4)下面按照顺序依次爬取所有章节文本数据。
源代码如下:
from selenium import webdriver
from selenium.webdriver.firefox.firefox_binary import FirefoxBinary
from bs4 import BeautifulSoup
import time
import sys
import re
caps = webdriver.DesiredCapabilities().FIREFOX
caps["marionette"] = False
binary = FirefoxBinary(r'D:\Anaconda3\Scripts\firefox.exe')
driver = webdriver.Firefox(firefox_binary = binary,capabilities=caps)
Debug =1
MaxTextNum = 100
def singlePageGet(driver,url):
'''
函数说明:单页提取数据
:return:单页标题、文本
'''
driver.get(url)
webData = driver.page_source
soup = BeautifulSoup(webData,'lxml')
titlesList = (soup.find_all('h1'))
textsList = soup.find_all('div',class_ = "showtxt")
if textsList:
#print(titlesList,textsList)
titles = titlesList[0].get_text().split()
texts = textsList[0].get_text().strip().split()
finalText = ''
finalTitle = ''
for text in texts:
finalText = finalText + text
for title in titles:
finalTitle = finalTitle + title
return finalTitle,finalText
else :
return
def writeToFile(title,content):
fileName = '鬼吹灯.txt'
with open(fileName,'a+',encoding='utf-8') as f:
f.write(title)
f.write('\n')
f.write(content)
f.write('\n\n')
#8035
urlsAccess = ['https://www.biqukan.com/2_2757/{}.html'.format(value) for value in range(1108307,1108346,1)]
#1108346 117517
numing = 0
for url in urlsAccess:
if singlePageGet(driver,url):
titles,texts = singlePageGet(driver,url)
if titles:
writeToFile(titles,texts)
time.sleep(2)
numing = numing + 1
print('下载进度:%4.2f'%(numing/len(urlsAccess)))
else :
numing = numing + 1
print('下载完成')
Python交流,提供技术服务,共同讨论,欢迎各路萌新和大神加入,群号;601020339
猜你喜欢
- 2024-09-27 蚂蚁SEO的网络蜘蛛如何应用(seo蜘蛛是什么意思)
- 2024-09-27 10《Python 原生爬虫教程》BeatifulSoup 的使用
- 2024-09-27 Python代码片段——第三方库自动安装
- 2024-09-27 「Github一周热点32期」本周最火的5个开源项目
- 2024-09-27 python爬虫CSS 选择器-BeautifulSoup4
- 2024-09-27 一篇文章搞定Python爬虫BeautifulSoup解析库
- 2024-09-27 python爬虫07 | 有了BeautifulSoup,妈妈不担心我的正则表达式
- 2024-09-27 使用 Python 的 Requests 和 BeautifulSoup 库爬取网站视频
- 2024-09-27 Python爬虫利器(1)Beautiful Soup
- 2024-09-27 企业外部数据治理:利用Beautiful Soup高效提取数据
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- ifneq (61)
- 字符串长度在线 (61)
- messagesource (56)
- aspose.pdf破解版 (56)
- promise.race (63)
- 2019cad序列号和密钥激活码 (62)
- window.performance (66)
- qt删除文件夹 (72)
- mysqlcaching_sha2_password (64)
- ubuntu升级gcc (58)
- nacos启动失败 (64)
- ssh-add (70)
- jwt漏洞 (58)
- macos14下载 (58)
- yarnnode (62)
- abstractqueuedsynchronizer (64)
- source~/.bashrc没有那个文件或目录 (65)
- springboot整合activiti工作流 (70)
- jmeter插件下载 (61)
- 抓包分析 (60)
- idea创建mavenweb项目 (65)
- vue回到顶部 (57)
- qcombobox样式表 (68)
- tomcatundertow (58)
- pastemac (61)
本文暂时没有评论,来添加一个吧(●'◡'●)