博客
关于我
新浪微博爬虫便携版
阅读量:161 次
发布时间:2019-02-27

本文共 1026 字,大约阅读时间需要 3 分钟。

需要调整的参数是新冠肺炎和page,返回一页的数据

import requestsimport pandas as pdimport jsonimport redef get_one_page():    one_page_data = []    params = {           'containerid': '100103type=60&q=新冠肺炎&t=0',        'page_type': 'searchall',        'page': 1    }    url = 'https://m.weibo.cn/api/container/getIndex'# 请求api    response = requests.get(url,params=params).text    cards = json.loads(response)['data']['cards']    for card in cards:        blog_data = card['mblog']        text = re.sub('<.*?>','',blog_data['text'])  # 文章内容        mid = blog_data['mid']  # 文章id        reposts_count = blog_data['reposts_count']  # 转发数        comments_count = blog_data['comments_count']  # 评论数        attitudes_count = blog_data['attitudes_count']  # 点赞数        data = [text,mid,reposts_count,comments_count,attitudes_count]        column = ['text','mid','reposts_count','comments_count','attitudes_count']        one_page_data.append(dict(zip(column,data)))    return one_page_dataif __name__ == '__main__':    data = get_one_page()    print(data)

转载地址:http://cwrf.baihongyu.com/

你可能感兴趣的文章
mysql中的 +号 和 CONCAT(str1,str2,...)
查看>>
MySQL中的count函数
查看>>
MySQL中的DB、DBMS、SQL
查看>>
MySQL中的DECIMAL类型:MYSQL_TYPE_DECIMAL与MYSQL_TYPE_NEWDECIMAL详解
查看>>
MySQL中的GROUP_CONCAT()函数详解与实战应用
查看>>
MySQL中的IO问题分析与优化
查看>>
MySQL中的ON DUPLICATE KEY UPDATE详解与应用
查看>>
mysql中的rbs,SharePoint RBS:即使启用了RBS,内容数据库也在不断增长
查看>>
mysql中的undo log、redo log 、binlog大致概要
查看>>
Mysql中的using
查看>>
MySQL中的关键字深入比较:UNION vs UNION ALL
查看>>
Mysql主从不同步
查看>>
mysql主从同步及清除信息
查看>>
MySQL主从篇:死磕主从复制中数据同步原理与优化
查看>>
mysql主从配置
查看>>
MySQL之2003-Can‘t connect to MySQL server on ‘localhost‘(10038)的解决办法
查看>>
MySQL之DML
查看>>
mysql之分组查询GROUP BY,HAVING
查看>>
mysql之分页查询
查看>>
mysql之子查询
查看>>