Skip to content

用python开发的微博搜索采集爬虫gui界面软件工具,支持根据关键词、时间范围等条件爬取微博帖子数据。微博爬虫|微博采集工具|微博采集软件|微博爬取数据|weibo|weibo-spider|weibo-crawler

Notifications You must be signed in to change notification settings

mashukui/weibo_search_pc_tool

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

5 Commits
 
 

Repository files navigation

weibo_search_pc_tool

马哥原创:用python开发的微博搜索采集软件,支持根据关键词、时间范围等条件爬取微博帖子数据。

一、背景分析

1.1 开发背景

weibo_slogon

微博是国内非常流行的社交媒体平台,内容主要以文字和图片为主,在实时性和KOL关注热度方面尤为突出。广大网友在微博平台大量输出自己的观点、看法,组成了一个活跃度极高的社区群体。同时,我本人也发现,每次热点事件爆发的时候,微博热搜也是所有媒体平台里最先曝光的平台(其他平台或多或少都有一些延迟)

基于此,我用python开发了一个爬虫采集软件,叫:爬微博搜索软件,下面详细介绍。

1.2 软件界面

软件界面,如下:(目前已升至v1.4版)微博搜索v1 4

1.3 结果展示

爬取结果:(截图中展示的就是全部字段了) 微博帖子采集结果

1.4 演示视频

软件运行演示视频:【软件演示】微博采集工具,根据搜索关键词一键爬帖子

1.5 软件说明

几点重要说明,请详读了解:

  1. win电脑和mac电脑均可直接运行,非常方便!
  2. 软件通过爬虫程序爬取,经本人专门测试,运行持久,稳定性较高!
  3. 先在cookie.txt中填入自己的cookie值,方便重复使用(内附cookie获取方法)
  4. 支持多个关键词串行爬取
  5. 支持按时间段范围采集贴子
  6. 爬取过程中,每爬一页,存一次csv。并非爬完最后一次性保存!防止因异常中断导致丢失前面的数据(每条间隔1~2s)
  7. 爬取过程中,有log文件详细记录运行过程,方便回溯
  8. 结果csv含11个字段,有:关键词,页码,微博id,微博链接,用户昵称,用户主页链接,发布时间,转发数,评论数,点赞数,微博内容。

以上是现有功能,软件版本持续更新中。

二、主要技术

软件全部模块采用python语言开发,主要分工如下:

tkinterGUI软件界面
requests爬虫请求
BeautifulSoup解析响应数据
pandas保存csv结果数据清洗
logging日志记录

出于版权考虑,暂不公开源码,仅向用户提供软件使用。

三、功能介绍

3.0 填写cookie

开始采集前,先把自己的cookie值填入cookie.txt文件。 pc端微博cookie获取说明: cookie获取方法

然后把复制的cookie值填写到当前文件夹的cookie.txt文件中。

3.1 软件登录

用户登录界面: 用户登录

3.2 采集微博帖子

根据自己的实际情况,在软件界面填写采集条件,点击开始按钮:微博搜索v1 4-界面说明

完成采集后,在当前文件夹生成对应的csv文件,文件名以时间戳命名,方便查找。

四、付费说明

4.1 卡密说明

付费如下:

日卡使用期限1天39日卡仅能购买一次适合试用等临时需求
月卡使用期限1个月149月卡可多次购买适合短期采集需求
季卡使用期限3个月399季卡可多次购买适合中期采集需求
年卡使用期限1年799年卡可多次购买适合长期采集需求

付费方式: 收款码v4

付费后,加我v(493882434)自动掉落登录卡密。

4.2 一机一码

软件采用一机一码机制,一个卡密只能在一台电脑运行、不可多电脑运行。

4.3 软件多开

一台电脑仅允许运行一个软件,不支持软件多开。

五、软件首发

"爬微博搜索软件"首发于公众号"老男孩的平凡之路",欢迎交流! 二维码-公众号放底部v2

About

用python开发的微博搜索采集爬虫gui界面软件工具,支持根据关键词、时间范围等条件爬取微博帖子数据。微博爬虫|微博采集工具|微博采集软件|微博爬取数据|weibo|weibo-spider|weibo-crawler

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published