要爬取同一网站的所有网页,可以使用递归的方式来实现。
首先,需要导入requests
库来发送HTTP请求;导入BeautifulSoup
库来解析HTML内容。
然后,定义一个函数,接收一个URL作为参数。在函数内部,首先使用requests.get()
方法来获取网页的内容,并将其存储为一个变量。然后使用BeautifulSoup
库来解析网页内容,找到其中的所有链接。
接下来,遍历所有链接,并判断链接是否属于同一网站。如果是同一网站的链接,那么将其作为参数再次调用爬取函数,实现递归爬取。
最后,测试程序,调用爬取函数并传入起始URL。程序将会从起始URL开始,递归地爬取同一网站的所有网页。
以下是一个示例代码:
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
def scrape_website(url):
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
# 获取所有链接
links = soup.find_all("a")
for link in links:
href = link.get("href")
# 判断链接是否是同一网站的链接
if href.startswith(url):
# 创建绝对URL
absolute_url = urljoin(url, href)
# 递归调用爬取函数
scrape_website(absolute_url)
# 测试程序
scrape_website("https://example.com")
以上代码中的https://example.com
是一个示例起始URL,你需要将其替换为你要爬取的网站的起始URL。