如何用Python做爬虫?

我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧其实你很厉害的,右键查看页面源代码。我们可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看...
如何用Python做爬虫?
在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。
我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧其实你很厉害的,右键查看页面源代码。
我们可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如何使用python来实现这样一个功能。
具体步骤
获取整个页面数据首先我们可以先获取要下载图片的整个页面信息。
getjpg.py
#coding=utf-8import urllibdef getHtml(url):
page = urllib.urlopen(url)
html = page.read() return htmlhtml = getHtml("http://tieba.baidu.com/p/2738151262")print html
Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。首先,我们定义了一个getHtml()函数:
urllib.urlopen()方法用于打开一个URL地址。
read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。
2.筛选页面中想要的数据
Python 提供了非常强大的正则表达式,我们需要先要了解一点python 正则表达式的知识才行。
http://www.cnblogs.com/fnng/archive/2013/05/20/3089816.html
假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

修改代码如下:
import reimport urllibdef getHtml(url):
page = urllib.urlopen(url)
html = page.read() return htmldef getImg(html):reg = r'src="(.+?\.jpg)" pic_ext'imgre = re.compile(reg)imglist = re.findall(imgre,html) return imglist html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)
我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:
re.compile() 可以把正则表达式编译成一个正则表达式对象.
re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。
运行脚本将得到整个页面中包含图片的URL地址。
3.将页面筛选的数据保存到本地
把筛选的图片地址通过for循环遍历并保存到本地,代码如下:
#coding=utf-8import urllibimport redef getHtml(url):
page = urllib.urlopen(url)
html = page.read() return htmldef getImg(html):reg = r'src="(.+?\.jpg)" pic_ext'imgre = re.compile(reg)imglist = re.findall(imgre,html)x = 0 for imgurl in imglist:urllib.urlretrieve(imgurl,'%s.jpg' % x)x+=1html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)
这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。
通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。
程序运行完成,将在目录下看到下载到本地的文件。

2018-01-05
Python作为一种解释型的胶水语言,上手简单、入门容易,标准库齐全,还有丰富的各种开源库,语言本身提供了很多提高开发效率的语法糖,开发效率高,总之“人生苦短,快用Python”(Life is short, you need Python!)。在Web网站开发,科学计算,数据挖掘/分析,人工智能等很多领域广泛使用。
开发环境配置,Python3.5.2,Scrapy1.2.1,使用pip安装scrapy,命令:pip3 install Scrapy,此命令在Mac下会自动安装Scrapy的依赖包,安装过程中如果出现网络超时,多试几次。2021-08-12
mengvlog 阅读 8 次 更新于 2025-07-19 21:19:36 我来答关注问题0
  • 本地文件:最常见的方式是将解析后的数据保存到本地文件中,如CSV、JSON、TXT等格式。数据库:对于大规模的数据存储,可以考虑使用数据库(如MySQL、MongoDB等)来存储和管理数据。运行Python爬虫的具体步骤:编写爬虫脚本:根据目标网站的结构和需求,编写Python脚本,实现上述步骤中的功能。设置环境:确保P...

  •  翡希信息咨询 从0到1学习Python爬虫-使用Chrome浏览器进行抓包!

    从0到1学习Python爬虫,使用Chrome浏览器进行抓包的步骤如下:打开Chrome浏览器并进入开发者工具:打开Chrome浏览器,输入你想要抓包的网站地址。按下F12键,即可打开Chrome的开发者工具。定位到Network面板:在开发者工具中,有多个面板可供选择。为了进行抓包,你需要定位到Network面板。Network面板用于显示请求...

  •  翡希信息咨询 用python做爬虫下载视频

    使用Python进行爬虫下载视频,可以按照以下步骤进行:一、准备阶段 确保合法性:在开始之前,确保目标网站允许爬虫抓取其内容,并遵守网站的robots.txt规则。安装所需库:确保已安装requests和BeautifulSoup库。可以使用pip install requests beautifulsoup4进行安装。二、模拟登录 对于需要登录才能访问的视频页面,使...

  •  文暄生活科普 Python爬虫必备 | Requests库快速上手 用法整理~

    Python爬虫中Requests库快速上手用法如下:安装Requests库:可以使用pip命令进行安装,命令为pip install requests。主要请求方法:GET请求:使用requests.get方法,其中params用于传递URL参数。POST请求:使用requests.post方法,data参数接受字典类型的数据。请求设置:超时设置:可以通过设置timeout参数来防止请求过...

  • python爬虫,需要安装必要的库、抓取网页数据、解析HTML、存储数据、循环抓取。1、安装必要的库 为了编写爬虫,你需要安装一些Python库,例如requests、BeautifulSoup和lxml等。你可以使用pip install命令来安装这些库。2、抓取网页数据 主要通过requests库发送HTTP请求,获取网页响应的HTML内容。3、解析HTML 使用...

檬味博客在线解答立即免费咨询

代码相关话题

Copyright © 2023 WWW.MENGVLOG.COM - 檬味博客
返回顶部