前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >利用爬虫爬取图片并保存

利用爬虫爬取图片并保存

作者头像
算法与编程之美
发布2023-08-22 14:36:21
2210
发布2023-08-22 14:36:21
举报

1 问题

在工作中,有时会遇到需要相当多的图片资源,可是如何才能在短时间内获得大量的图片资源呢?

2 方法

我们知道,网页中每一张图片都是一个连接,所以我们提出利用爬虫爬取网页图片并下载保存下来。

首先通过网络搜索找到需要的图片集,将其中图片链接复制然后编入爬虫代码,随后利用open()、iter_content()、write()等函数将图片下载并保存下来,同时还要确定图片保存的路径以便于查找图片。

  1. 找到需要的图片的网页链接;
  2. 利用爬虫根据网页爬取图片;
  3. 将图片下载并保存;

通过实验、实践等证明提出的方法是有效的,是能够解决开头提出的问题。

代码清单 1

import requestsdef get_pictures(web,path): headers={'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36'} re=requests.get(web,headers=headers) print(re.status_code) with open(path, 'wb') as f: for chunk in re.iter_content(chunk_size=128): f.write(chunk)web='https://static.nowcoder.com/fe/file/oss/1655700469353QRQEI.jpg'path='数据分析.jpg'get_pictures(web,path)

3 结语

针对如何短时间内获取大量图片的问题,提出使用爬虫、open()函数、iter_content()函数、write()函数等方法将图片下载并保存,通过实验,证明该方法是有效的。其中对于正则表达式的书写方法还不够熟练,对于函数open()、iter_content()、write()的使用还存在很多未知,由于知识和技术上存在问题以上代码只能获取一张图片,我们相信通过不断地学习与练习,我们能进一步优化方法,最终达成目的。

本文参与?腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-08-09,如有侵权请联系?cloudcommunity@tencent.com 删除

本文分享自 算法与编程之美 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com