利用python第三方selenium库爬取QS大学排名

编程入门 行业动态 更新时间:2024-10-28 04:24:08

利用python<a href=https://www.elefans.com/category/jswz/34/1770258.html style=第三方selenium库爬取QS大学排名"/>

利用python第三方selenium库爬取QS大学排名

众所周知QS全球大学排名是全球最具权威性,和影响力的大学排名榜之一。今天我就来分享一下用Python爬取QS大学排名的过程。

首先看一下要爬取的QS大学排名的网址:

url = ""

如果用requests库爬取的话,获取的源代码是不完整的。由此我们也可以知道这个要爬取的网页是动态网页,因此可以选用selenium库进行爬取。使用selenium库的话,我们要提前安装好selenium库,并安装好浏览器驱动,且将其添加至系统环境变量中。

第一步:获取源代码

driver = webdriver.Chrome()
driver.get(url)
time.sleep(3)
driver.execute_script("window.scrollTo(0,document.body.scrollHeight);")
# 定位‘All’元素
option = driver.find_element_by_xpath('//*[@id="qs-rankings_length"]/label/select/option[5]')
# 模拟鼠标点击,点击 ‘All’
option.click()
time.sleep(3)
driver.execute_script("window.scrollTo(0,document.body.scrollHeight);")
# Waitting for html5 page loading
# get page source code
time.sleep(5)
html_src = driver.page_source

从上面的获取源代码的函数中,我们可以看到一个option.click(),这是一个模拟鼠标点击的动作。目的是让大学排名全部显示出来,这样获取源代码就会简单多。下面看一下当时的网页:

为了让大学排名全部显现出来,就需要点击 “All”。为了让大家更加明白上面的代码,我在Python console中分别执行上面代码中的几段重要的代码,然后再分别查看一下现象。

from selenium import webdriver
driver = webdriver.Chrome()
driver.get('')

此时,我们会看到:


可以看到每页的结果还是 25。接着执行:

span = driver.find_element_by_xpath('//*[@id="qs-rankings_length"]/label/span[2]/span[1]/span')
span.click()

这一步我用selenium模拟了鼠标,点击了数字 25 所在的区域。于是就出现了:


然后定位到 “All”所在的位置,点击一下即可。

# 定位'All'元素
option = driver.find_element_by_xpath('//*[@id="qs-rankings_length"]/label/select/option[5]')
# 点击
option.click()

这里用driver.find_element_by_xpath()这个方法来查找元素位置,它的具体操作方法是:

光标置于网页元素位置处----鼠标右键,检查元素----点击选中这行----右键----copy----copy XPath


执行后所有的大学排名便会显现出来:


# 获取网页源代码
html_src = driver.page_source

第二步:解析网页

这里可以定义一个解析函数parser_html_page(html), html是第一步中获取到的网页源代码。

def parser_html_page(html):soup = BeautifulSoup(html, 'html5lib')p_length = eval(soup.find('span', 'cp').string)# get universities namespattern2 = '<a class="title" href=".*?">(.*?)</a>'nui_ls = re.findall(pattern2, html)# get the country namespattern3 = 'data-original-title="(.*?)"'country_ls = re.findall(pattern3, html)# return the three lists# p_length 是参与排名的大学数量return nui_ls, country_ls, p_length

第三步:将数据写入到本地

定义一个写入函数write_file(), 写入模式为 ‘a’。

def write_file(ls1, ls2, ls3, length):# path 是文件存储路径with open(path, 'a') as f:for i in range(length):f.write(str(ls1[i]) + '    ' + str(ls2[i]) + '    ' + str(ls3[i]) + '\n')f.close()

最后定义一个主函数将三个函数的功能合并起来:

def main():url = ""html, ls1 = get_html_page(url)ls2, ls3, length = parser_html_page(html)write_file(ls1, ls2, ls3, length)

调用主函数:

if __name__ == "__main__":main()

最终得到的QS大学排名结果:


这样爬取QS大学排名的Python爬虫就完成了。

完整的python爬虫代码




更多推荐

利用python第三方selenium库爬取QS大学排名

本文发布于:2024-02-11 14:02:06,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1681355.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:第三方   大学排名   python   selenium   QS

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!