网站首页 > 博客文章 正文
在Python中,我们可以使用多种的请求库来实现网页图片的爬取和下载,下面我们就来介绍如何使用BeautifulSoup来完成网络图片的下载
安装库
可以通过如下的操作步骤来完成
pip install requests beautifulsoup4
安装完成之后下面我们就来看看如何爬取并保存图片吧!
爬取并保存图片
第一步、引入相应的依赖库
import os
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
由于这里需要对图片进行本地的保存操作,所以需要用到os操作库
第二步、请求并获取图片路径
response = requests.get(url)
response.raise_for_status()
# 解析网页内容
soup = BeautifulSoup(response.text, 'html.parser')
print(soup)
# 找到所有的图片链接
img_tags = soup.find_all('img')
print("获取到图片地址长度 %d", len(img_tags))
第三步、遍历并下载图片
# 遍历每个图片链接
for img in img_tags:
# 获取图片的完整URL
img_url = img.get('src')
print(img_url)
# 判断图片链接是否是以HTTP或者是HTTPS开头的
if not img_url.startswith(('http://', 'https://')):
img_url = urljoin(url, img_url)
# 下载图片并保存到本地
img_response = requests.get(img_url, stream=True)
img_response.raise_for_status()
# 生成图片的文件名
img_filename = os.path.join(output_dir, img_url.split('/')[-1])
# 将图片内容写入文件
with open(img_filename, 'wb') as f:
for chunk in img_response.iter_content(1024):
f.write(chunk)
完整代码
import os
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
def download_images(url, output_dir):
print("开始创建输出目录")
# 创建输出目录,如果不存在的话
if not os.path.exists(output_dir):
os.makedirs(output_dir)
print("目录创建成功")
# 发送HTTP请求
response = requests.get(url)
response.raise_for_status()
# 解析网页内容
soup = BeautifulSoup(response.text, 'html.parser')
print(soup)
# 找到所有的图片链接
img_tags = soup.find_all('img')
print("获取到图片地址长度 %d", len(img_tags))
# 遍历每个图片链接
for img in img_tags:
# 获取图片的完整URL
img_url = img.get('src')
print(img_url)
# 判断图片链接是否是以HTTP或者是HTTPS开头的
if not img_url.startswith(('http://', 'https://')):
img_url = urljoin(url, img_url)
# 下载图片并保存到本地
img_response = requests.get(img_url, stream=True)
img_response.raise_for_status()
# 生成图片的文件名
img_filename = os.path.join(output_dir, img_url.split('/')[-1])
# 将图片内容写入文件
with open(img_filename, 'wb') as f:
for chunk in img_response.iter_content(1024):
f.write(chunk)
url = 'https://www.hao123.com/' # 替换为你要爬取的网页URL
output_dir = 'images' # 图片将保存到这个目录
download_images(url, output_dir)
总结
此外,这个代码没有处理可能出现的各种错误,例如网络错误、HTTP错误等。在实际使用中,你可能需要添加更多的错误处理代码来确保程序的稳定性。
猜你喜欢
- 2024-12-18 轻松解析数据!你不可不知的Python宝藏库——parser模块
- 2024-12-18 基于Google Gemini的网页抓取 谷歌怎么抓取网页里的图片
- 2024-12-18 使用Python抓取欧洲足球联赛数据 python 竞彩
- 2024-12-18 网络爬虫——从网站中提取有用的数据
- 2024-12-18 网上售卖几百一月的微信机器,Python几十行代码就能搞定
- 2024-12-18 一个Python编写的小说下载器 用python写小说
- 2024-12-18 LangChainV0.2-进阶教程:构建一个RAG应用
- 2024-12-18 Python应用短文,如何自制一个简易的网络爬虫
- 2024-12-18 机器学习第五发:BS教你如何解析网页,规整数据?
- 2024-12-18 python3的bs4模块的安装、介绍 python中bs4模块
你 发表评论:
欢迎- 367℃用AI Agent治理微服务的复杂性问题|QCon
- 358℃初次使用IntelliJ IDEA新建Maven项目
- 356℃手把手教程「JavaWeb」优雅的SpringMvc+Mybatis整合之路
- 351℃Maven技术方案最全手册(mavena)
- 348℃安利Touch Bar 专属应用,让闲置的Touch Bar活跃起来!
- 346℃InfoQ 2024 年趋势报告:架构篇(infoq+2024+年趋势报告:架构篇分析)
- 345℃IntelliJ IDEA 2018版本和2022版本创建 Maven 项目对比
- 342℃从头搭建 IntelliJ IDEA 环境(intellij idea建包)
- 最近发表
- 标签列表
-
- powershellfor (55)
- messagesource (56)
- aspose.pdf破解版 (56)
- promise.race (63)
- 2019cad序列号和密钥激活码 (62)
- window.performance (66)
- qt删除文件夹 (72)
- mysqlcaching_sha2_password (64)
- ubuntu升级gcc (58)
- nacos启动失败 (64)
- ssh-add (70)
- jwt漏洞 (58)
- macos14下载 (58)
- yarnnode (62)
- abstractqueuedsynchronizer (64)
- source~/.bashrc没有那个文件或目录 (65)
- springboot整合activiti工作流 (70)
- jmeter插件下载 (61)
- 抓包分析 (60)
- idea创建mavenweb项目 (65)
- vue回到顶部 (57)
- qcombobox样式表 (68)
- vue数组concat (56)
- tomcatundertow (58)
- pastemac (61)
本文暂时没有评论,来添加一个吧(●'◡'●)