这篇文章给大家分享的是有关python爬虫urljoin()如何生成链接的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
urlunparse()和urlunsplit()方法,我们可以完成链接的合并,但前提是必须有一个特定长度的对象,链接的每个部分都应该清晰地分开。除此之外还有urljoin()方法。
1、urljoin()可以实现生成链接。提供base_url(基本链接)作为第一个参数,以新链接作为第二个参数。
2、该方法将分析base_url的scheme、netloc和path,并补充新链接缺失的部分,最终返回结果。
实例
from urllib.parse import urljoin print(urljoin('http://www.baidu.com', 'FAQ.html')) print(urljoin('http://www.baidu.com', 'https://cuiqingcai.com/FAQ.html')) print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html')) print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html?question=2')) print(urljoin('http://www.baidu.com?wd=abc', 'https://cuiqingcai.com/index.php')) print(urljoin('http://www.baidu.com', '?category=2#comment')) print(urljoin('www.baidu.com', '?category=2#comment')) print(urljoin('www.baidu.com#comment', '?category=2'))
输出
http://www.baidu.com/FAQ.html https://cuiqingcai.com/FAQ.html https://cuiqingcai.com/FAQ.html https://cuiqingcai.com/FAQ.html?question=2 https://cuiqingcai.com/index.php http://www.baidu.com?category=2#comment www.baidu.com?category=2#comment www.baidu.com?category=2
感谢各位的阅读!关于“python爬虫urljoin()如何生成链接”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。