python爬虫抓取百度首页的实现方法
となりのトトロ
简介:传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。本期的Python教程为大家介绍了python爬虫抓取百度首页的实现方法,下面就看看如何使用python来实现这样一个功能。

? 1 import urllib 2 def downURL(url,filename): 3 try: 4 fp=urllib.urlopen(url) 5 except: 6 print('download error') 7 return 0 8 op=open(filename,'wb') 9 while 1: 10 s=fp.read() 11 if not s: 12 break 13 op.write(s) 14 fp.close() 15 op.close() 16 return 1 17 downURL("http://www.baidu.com","C:url.txt") 总结:如果是你初次接触学习Python这门语言,有时间不妨参考一些实例教程,花费少少的时间带你走入Python的大门,掌握更多地Python设计技巧,以上即是关于Python抓取百度首页的实现方法,大家可以参考学习,希望对大家学习Python程序设计有帮助,实现不同功能。更多的python视频教程或其他视频教程可以登录课课家官网查询:http://www.kokojia.com/list/203.html
你的回复
回复请先 登录 , 或 注册
19570 人聚集在这个小组
加入小组
相关内容推荐
最新讨论 ( 更多 )
- 这510页的《Python爬虫开发与项目实战》,看完直接膜拜 (大橙)
- 当把这本书《算法导论》学透,年薪50万可能都有点低 (豆包)
- 学编程的小白应该看看的 (豆友269226133)
- 寻找独立开发搭子 (Leo)
- 95后程序媛一枚,想带几个徒弟教他Python爬虫,java,web前端... (晚晚程序媛)