在Python中,使用多线程进行网络爬虫时,可以通过设置线程的timeout
参数来实现超时处理。以下是一个简单的示例,展示了如何使用concurrent.futures.ThreadPoolExecutor
和requests
库进行超时处理:
import requests
from concurrent.futures import ThreadPoolExecutor, as_completed
def fetch(url, timeout):
try:
response = requests.get(url, timeout=timeout)
response.raise_for_status() # 如果响应状态码不是200,将抛出异常
return response.text
except requests.exceptions.Timeout:
print(f"请求超时: {url}")
return None
except requests.exceptions.RequestException as e:
print(f"请求异常: {url}, 错误信息: {e}")
return None
def main():
urls = [
"https://www.example.com",
"https://www.example2.com",
"https://www.example3.com",
# 更多URL...
]
timeout = 5 # 设置超时时间(秒)
max_workers = 5 # 设置最大线程数
with ThreadPoolExecutor(max_workers=max_workers) as executor:
future_to_url = {executor.submit(fetch, url, timeout): url for url in urls}
for future in as_completed(future_to_url):
url = future_to_url[future]
try:
data = future.result()
if data:
print(f"成功获取数据: {url}")
else:
print(f"未能获取数据: {url}")
except Exception as e:
print(f"处理异常: {url}, 错误信息: {e}")
if __name__ == "__main__":
main()
在这个示例中,我们定义了一个fetch
函数,它接受一个URL和一个超时时间作为参数。我们使用requests.get
方法发起请求,并设置timeout
参数。如果请求超时,将捕获requests.exceptions.Timeout
异常并打印一条消息。如果发生其他请求异常,将捕获requests.exceptions.RequestException
异常并打印一条消息。
在main
函数中,我们创建一个ThreadPoolExecutor
实例,并使用submit
方法提交fetch
任务。我们使用as_completed
函数来迭代已完成的任务,并处理结果或异常。