爬虫:爬取腾讯疫情数据

编程知识 更新时间:2023-04-19 19:32:26

爬虫:爬取腾讯疫情数据

    • 网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
    • 今天这篇文章将通过短短的14行代码让你体验爬虫的神奇。**
  • 网页结构
  • 代码实现
  • 爬取的数据
  • 结语

网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

今天这篇文章将通过短短的14行代码让你体验爬虫的神奇。**

网页结构

首先打开腾讯疫情网址:https://news.qq/zt2020/page/feiyan.htm?from=timeline&isappinstalled=0#/

右键检查,分析网页

找到我们需要的数据所在的网址:https://api.inews.qq/newsqa/v1/automation/foreign/country/ranklist

代码实现

找到网址,下面就是相关代码实现了。
首先导入Python相关库:
requests :网页请求,获取原始数据
json:网页解析,去除多余字符
pandas:数据处理

import requests
import json
import pandas as pd
#爬虫——爬取腾讯疫情实时数据
url='https://api.inews.qq/newsqa/v1/automation/foreign/country/ranklist'
#网页请求
r=requests.get(url)
#获取原始数据
content=json.loads(r.text)
#解析数据
df=pd.DataFrame(columns=['国家和地区','确诊人数','死亡病例','治愈病例'])
#按类处理数据
for i in range(len(content['data'])):
    df.loc[i+1]=[content['data'][i]['name'],
                        content['data'][i]['confirm'],
                        content['data'][i]['dead'],
                        content['data'][i]['heal']]
df.to_csv('E://腾讯疫情数据2.csv',index=0,encoding='utf_8_sig')
#将数据保存到CSV文件
print("爬取完毕")

爬取的数据

结语

程序菜鸟一个,欢迎大家关注、批评指正,以后还会分享更多有趣的知识。

更多推荐

爬虫:爬取腾讯疫情数据

本文发布于:2023-04-15 10:48:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/d9845aa4babb69b0c96f05138e0c4f93.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:爬虫   腾讯   疫情   数据

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!

  • 77930文章数
  • 14阅读数
  • 0评论数