• 技术文章 >代理ip

    爬虫中如何使用代理服务器爬取数据

    小妮浅浅小妮浅浅2021-05-17 11:43:19原创2086

    一、爬取步骤

    1、导入程序所需的库。使用代理服务器,可以新设函数(use_proxy)参数分别登录的网站和必要的代理服务器地址。然后定义代理服务器的具体IP地址和端口号。建立opener,其中opener需要添加相应的参数,即IP对象和urlib.request.HTTPHandler(固定)。然后将opener对象添加到全局对象。使用urlopen(url)打开特定的网站。

    2、输入代理服务器的IP地址和端口号,输入打开的网页url,使用use_proxy()函数返回所需的data,因为数据很多,所以只显示数据的长度。

    二、实例

    import urllib.request
    def use_proxy(url,proxy_addr):
    proxy=urllib.request.ProxyHandler({"http":proxy_addr})
    opener=urllib.request.build_opener(proxy,urllib.request.HTTPHandler)
    urllib.request.install_opener(opener)
    data=urllib.request.urlopen(url).read().decode("utf-8","ignore")
    return data
    proxy_addr="112.85.130.14:9999"
    url="http://www.baidu.com"
    data=use_proxy(url,proxy_addr)
    print(len(data))

    以上就是爬虫中使用代理服务器爬取数据的方法,大家看完具体的爬取流程后,了解有关的爬取思路,就可以进行实例操作。如果大家想测试使用下,可以尝试品易云http代理ip,免费测试包含各种类ip资源,调用IP量!

    推荐操作环境:windows7系统、Python 3.9.1,DELL G3电脑。

    专题推荐:爬虫 代理服务器
    品易云
    上一篇:一篇了解美国IP代理服务器 下一篇:爬虫获取代理服务器ip的方法

    相关文章推荐

    • 怎么使用爬虫• 怎么做爬虫• 如何对爬虫程序进行配置• 代理IP如何在爬虫中使用

    全部评论我要评论

    © 2021 Python学习网 苏ICP备2021003149号-1

  • 取消发布评论
  • 

    Python学习网