# weibo_comment_pc_tool **Repository Path**: mashukui/weibo_comment_pc_tool ## Basic Information - **Project Name**: weibo_comment_pc_tool - **Description**: 用python开发的微博评论采集爬虫gui界面软件工具,支持根据指定帖子链接爬取帖子下方的评论数据。微博评论爬虫|微博采集工具|微博评论采集软件|微博爬取数据|爬取微博评论|weibo|weibo-comment-spider - **Primary Language**: Python - **License**: Not specified - **Default Branch**: main - **Homepage**: https://gitee.com/mashukui/weibo_comment_pc_tool - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2025-09-26 - **Last Updated**: 2026-02-12 ## Categories & Tags **Categories**: Uncategorized **Tags**: 微博爬虫, 微博评论采集, 爬取微博评论, weibospider, 微博评论爬取 ## README # weibo_comment_pc_tool > _马哥原创:用python开发的微博评论采集软件,支持根据指定帖子链接爬取帖子下方的评论数据。_ # 一、背景分析 ## 1.1 开发背景 ![输入图片说明](weibo_slogon.png) 微博是国内极具影响力的社交媒体平台,具有内容形式短平快、热点事件实时性强、舆论快速发酵、用户群体年轻且活跃等特点。其中,微博评论区是用户公开表达观点的重要场域,可通过评论区的数据,实时追踪情绪倾向、挖掘公众诉求、捕捉热点趋势、构建群体画像、从而进行社会学和传播学的研究等。 基于此,我用python开发了一个爬虫采集软件,叫作“爬微博评论软件”,下面详细介绍。 ## 1.2 软件界面 软件界面,如下:(目前已升至v1.2版)![输入图片说明](%E5%BE%AE%E5%8D%9A%E8%AF%84%E8%AE%BAv1.2%E7%95%8C%E9%9D%A2.png) ## 1.3 结果展示 爬取结果:(截图中展示的就是全部字段了) ![输入图片说明](%E9%87%87%E9%9B%86%E7%BB%93%E6%9E%9C.csv.png) ## 1.4 软件说明 几点重要说明,请详读了解: 1. win电脑和mac电脑均可直接运行,无需Python运行环境,非常方便! 2. 软件通过爬虫程序爬取,经本人专门测试,运行持久,稳定性较高! 3. 先在cookie.txt中填入自己的cookie值,方便重复使用(内附cookie获取方法) 4. 支持多个帖子链接串行爬取 5. 支持选择是否包含二级评论、指定评论排序(按热度/按时间)、指定爬取前几页 6. 爬取过程中,每爬一页,存一次csv。并非爬完最后一次性保存!防止因异常中断导致丢失前面的数据(每条间隔1~2s) 7. 爬取过程中,有log文件详细记录运行过程,方便回溯 8. 结果csv含14个字段,有:微博链接,微博id,页码,评论者昵称,评论者粉丝数,评论者关注数,评论者主页链接,评论者性别,评论者签名,评论时间,点赞数,评论内容IP属地,评论级别,评论内容 以上是现有功能,软件版本持续更新中。 ## 1.5 演示视频 软件运行过程演示视频:[【爬虫软件】微博评论采集工具,根据帖子链接批量爬评论,含二级评论](https://mp.weixin.qq.com/s/8tJz-t9Cea16rpGuiMUO_Q) # 二、主要技术 ## 2.1 模块分工 软件全部模块采用python语言开发,主要分工如下: ```python tkinter:GUI软件界面 requests:爬虫发送请求 json:解析返回的响应数据 pandas:保存csv结果 logging:日志记录 ``` 出于版权考虑,暂不公开源码,仅向用户提供软件使用。 ## 2.2 部分代码 部分代码实现: 发送请求并解析数据: ```python # 发送请求 r = requests.get(url, headers=h1, params=params) # 解析数据 json_data = r.json() ``` 解析响应数据,以“评论内容”字段为例: ```python for data in json_data['data']: # 评论内容 text = data['text_raw'] text_list.append(text) ``` 保存结果数据到csv文件: ```python # 保存数据 df = pd.DataFrame( { '微博链接': weibo_url, '微博id': weibo_id, '页码': page, '评论者昵称': screen_name_list, '评论者粉丝数': followers_count_list, '评论者关注数': friends_count_list, '评论者主页链接': user_home_url_list, '评论者性别': gender_list, '评论者签名': desc_list, '评论时间': create_time_list, '点赞数': like_counts_list, '评论内容IP属地': source_list, '评论级别': comment_level_list, '评论内容': text_list, } ) # 保存csv文件 df.to_csv(self.result_file, mode='a+', index=False, header=header, encoding='utf_8_sig') self.tk_show('结果保存成功:{}'.format(self.result_file)) ``` 软件界面底部版权: ```python # 版权信息 copyright = tk.Label(root, text='@马哥python说 All rights reserved.', font=('仿宋', 10), fg='grey') copyright.place(x=290, y=625) ``` 日志模块: ```python def get_logger(self): self.logger = logging.getLogger(__name__) # 日志格式 formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s' # 日志级别 self.logger.setLevel(logging.DEBUG) # 控制台日志 sh = logging.StreamHandler() log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S') # info日志文件名 info_file_name = time.strftime("%Y-%m-%d") + '.log' # 将其保存到特定目录 case_dir = r'./logs/' info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name, when='MIDNIGHT', interval=1, backupCount=7, encoding='utf-8') ``` # 三、使用介绍 ## 3.0 填写cookie 开始采集前,先把自己的cookie值填入cookie.txt文件。 pc端cookie获取说明: ![输入图片说明](cookie%E8%8E%B7%E5%8F%96%E6%96%B9%E6%B3%95.png) 然后把复制的cookie值填写到当前文件夹的cookie.txt文件中。 ## 3.1 软件登录 用户登录界面: ![输入图片说明](%E7%99%BB%E5%BD%95%E7%95%8C%E9%9D%A2.png) ## 3.2 采集wb评论 根据自己的实际情况,在软件界面填写采集条件,点击开始按钮:![输入图片说明](%E5%BE%AE%E5%8D%9A%E8%AF%84%E8%AE%BAv1.2%E7%95%8C%E9%9D%A2.png) 完成采集后,在当前文件夹生成对应的csv文件,文件名以时间戳命名,方便查找。 # 四、付费说明 ## 4.1 卡密说明 费用如下: ```python 日卡:使用期限1天,39元。适合试用等临时场景 月卡:使用期限1个月,149元。适合短期采集需求 季卡:使用期限3个月,399元。适合中期采集需求 年卡:使用期限1年,799元。适合长期采集需求 ``` **[点击这里,自助开通!](https://mgnb.pro/product/weibo)** ## 4.2 一机一码 软件采用一机一码机制,一个卡密只能在一台电脑运行、不可多电脑运行。 ## 4.3 软件多开 一台电脑仅允许运行一个软件,不支持软件多开。 # 五、软件包获取 **本项目已整合到[爬微博聚合软件(weibo_one_spider)](https://gitee.com/mashukui/weibo_one_spider),建议直接使用聚合版本,功能更全面、维护更及时!** 公众号"**老男孩的平凡之路**",后台回复"**爬微博聚合软件**"获取最新软件安装包。 ![输入图片说明](%E4%BA%8C%E7%BB%B4%E7%A0%81-%E5%85%AC%E4%BC%97%E5%8F%B7%E6%94%BE%E5%BA%95%E9%83%A8v2.png)