求大神指导:用python的urllib.urlopen读取网页源码的问题

我之前遇到过类似的问题,现在也没解决。现象和你的差不多,就是在浏览器里边可以正常访问目标网址,在python解释器或者脚本中访问会超时。最终怀疑是windows浏览器设置相关的问题,楼主可以试试完整的urlopen方式:try:url = "http://api.themoviedb.org/3/search/person?api_key=API-KEY&query=...
求大神指导:用python的urllib.urlopen读取网页源码的问题
我之前遇到过类似的问题,现在也没解决。现象和你的差不多,就是在浏览器里边可以正常访问目标网址,在python解释器或者脚本中访问会超时。最终怀疑是windows浏览器设置相关的问题,楼主可以试试完整的urlopen方式:

try:
url = "http://api.themoviedb.org/3/search/person?api_key=API-KEY&query=natalie+portman"
header = { 'User-Agent': 'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.2.16) Gecko/20110319 Firefox/3.6.16' }
req = urllib2.Request(url, None, header)
f = urllib2.urlopen(req)
except urllib2.HTTPError, e:
print e.code
print e.msg
print e.header
print e.fp.read()

把模拟浏览器头加进去试试。2014-03-01
直接使用requests吧,更方便~
然后配合beautifulsoup~
或者,直接scrapy~2017-09-12
可以把代码和详细的错误信息贴一下么2014-02-28
mengvlog 阅读 8 次 更新于 2025-07-20 22:04:54 我来答关注问题0
檬味博客在线解答立即免费咨询

Python相关话题

Copyright © 2023 WWW.MENGVLOG.COM - 檬味博客
返回顶部