温馨提示×

python代理ip爬虫怎么设置

小樊
81
2024-12-03 15:43:23
栏目: 编程语言

在Python中设置代理IP爬虫,可以使用requests库和fake_useragent库来实现。以下是一个简单的示例:

首先,确保已经安装了requestsfake_useragent库。如果没有安装,可以使用以下命令安装:

pip install requests
pip install fake_useragent

接下来,编写一个简单的爬虫程序,使用代理IP和随机User-Agent:

import requests
from fake_useragent import UserAgent

# 代理IP列表
proxies = [
    {'http': 'http://proxy1:8080'},
    {'http': 'http://proxy2:8080'},
    {'http': 'http://proxy3:8080'},
]

# 随机User-Agent列表
ua = UserAgent()

def get_proxy():
    return random.choice(proxies)

def get_url_content(url):
    proxy = get_proxy()
    headers = {'User-Agent': ua.random}
    try:
        response = requests.get(url, headers=headers, proxies=proxy, timeout=5)
        response.raise_for_status()
        return response.text
    except requests.exceptions.RequestException as e:
        print(f"Error: {e}")
        return None

if __name__ == "__main__":
    url = "https://www.example.com"
    content = get_url_content(url)
    if content:
        print(content)

在这个示例中,我们首先导入requestsfake_useragent库。然后,我们定义了一个代理IP列表proxies和一个User-Agent列表uaget_proxy()函数从代理IP列表中随机选择一个代理IP,get_url_content(url)函数使用随机选择的代理IP和User-Agent发送GET请求,并返回响应内容。

请注意,这个示例仅用于演示目的。在实际应用中,您可能需要根据目标网站的要求和限制来调整代理IP列表、User-Agent列表以及其他参数。同时,为了避免被目标网站封禁,建议使用高质量的代理IP服务,并遵守网站的robots.txt规则。

0