【GitHub每日速递 20251106】“微舆”舆情分析系统:AI驱动,六大优势破茧还原舆情真相!

原文:https://mp.weixin.qq.com/s/2_6FlPAHEw_rmIQxi6fWMQ
“微舆”舆情分析系统:AI驱动,六大优势破茧还原舆情真相!
BettaFish 是一个基于多Agent架构的舆情分析工具。简单讲,它能帮助用户打破信息茧房,还原真实舆论情况并预测趋势,辅助决策,且完全从零开发不依赖框架。适用人群:舆情分析师、数据科学家及对信息真实性有高要求的研究者。
项目地址:https://github.com/666ghj/BettaFish
主要语言:Python
stars: 7.9k


项目核心功能
“微舆”是一个创新型多智能体舆情分析系统,用户只需以聊天方式提出分析需求,智能体就能自动分析国内外30 + 主流社媒及数百万条大众评论,帮助破除信息茧房,还原舆情原貌,预测未来走向,辅助决策。
代码架构特点
- 模块化设计:基于纯Python模块化设计,代码结构清晰。包含QueryEngine、MediaEngine、InsightEngine、ReportEngine、ForumEngine、MindSpider、SentimentAnalysisModel、SingleEngineApp等多个模块,每个模块负责不同的功能,如舆情搜索、多模态内容分析、私有数据库挖掘、报告生成、论坛协作、数据爬取、情感分析等。
- 组件化管理:各模块内部又进一步细分,如InsightEngine包含llms、nodes、tools、state、prompts、utils等子模块,便于管理和维护。
项目优势
- AI驱动的全域监控:AI爬虫集群7x24小时不间断作业,全面覆盖微博、小红书、抖音、快手等10 + 国内外关键社媒,不仅捕获热点内容,还能下钻到用户评论。
- 超越LLM的复合分析引擎:融合5类专业Agent、微调模型、统计模型等中间件,多模型协同工作,保证分析结果的深度、准度与多维视角。
- 强大的多模态能力:能深度解析短视频内容,精准提取结构化多模态信息卡片,全面掌握舆情动态。
- Agent“论坛”协作机制:不同Agent有独特工具集和思维模式,通过论坛机制进行思维碰撞与辩论,避免单一模型局限,催生高质量集体智能与决策支持。
- 公私域数据无缝融合:提供高安全性接口,支持将内部业务数据库与舆情数据集成,为垂直业务提供强大分析能力。
- 轻量化与高扩展性框架:基于纯Python模块化设计,实现轻量化、一键式部署,开发者可轻松集成自定义模型与业务逻辑。
应用场景
- 舆情监测:实时监测国内外社媒上的舆情动态,帮助企业、政府等机构了解公众对特定事件、品牌、政策等的看法和态度。
- 品牌声誉管理:分析企业或机构的品牌声誉,发现潜在问题和机会,为品牌建设和维护提供决策支持。
- 市场分析:通过分析社媒数据和大众评论,了解市场趋势、消费者需求和竞争对手情况,辅助企业进行市场策略制定。
- 辅助决策:为政府、企业等机构的决策提供数据支持和分析报告,帮助其做出更明智的决策。
快速开始
- 环境要求:支持Windows、Linux、MacOS操作系统,Python版本3.9 +,需要Anaconda或Miniconda,数据库可选择MySQL或云数据库服务,建议内存2GB以上。
- 安装步骤:创建Conda环境,安装依赖包,安装Playwright浏览器驱动,配置API密钥和数据库,启动系统。
高级配置
- 修改关键参数:可调整各Agent的配置参数,如反思轮次、搜索结果数、内容长度等,以及情感分析模型的配置,如模型类型、置信度阈值、批处理大小等。
- 接入不同的LLM模型:支持任意openAI调用格式的LLM提供商,只需在config.py中填写对应的KEY、BASE_URL、MODEL_NAME。
- 更改情感分析模型:系统集成了多语言情感分析、小参数Qwen3微调、基于BERT的微调模型、GPT - 2 LoRA微调模型、传统机器学习方法等多种情感分析方法,可根据需求选择。
- 接入自定义业务数据库:修改数据库连接配置,创建自定义数据访问工具,并集成到InsightEngine中。
- 自定义报告模板:可在Web界面中上传自定义模板文件,也可在ReportEngine/report_template/目录下创建新的模板。
Nano-vLLM:轻量实现,推理速度超 vLLM,1200 行代码打造优化利器!
nano-vllm 是一个轻量级大语言模型推理框架的工具。简单讲,它能让大模型在普通设备上快速运行,像手机或小型电脑也能流畅使用AI。适用人群:AI开发者、边缘计算研究者、对本地部署大模型感兴趣的爱好者。
项目地址:https://github.com/GeeeekExplorer/nano-vllm
主要语言:Python
stars: 8.0k

核心功能
- 快速离线推理:推理速度与 vLLM 相当,能在离线环境下高效完成推理任务。
- 代码可读性高:约 1200 行 Python 代码实现,代码结构清晰,易于理解和学习。
- 优化套件丰富:集成了前缀缓存、张量并行、Torch 编译、CUDA 图等优化技术,提升推理性能。
安装方式
可以使用以下命令进行安装:
pip install git+https://github.com/GeeeekExplorer/nano-vllm.git
模型下载
若要手动下载模型权重,可使用以下命令:
huggingface-cli download --resume-download Qwen/Qwen3-0.6B \
--local-dir ~/huggingface/Qwen3-0.6B/ \
--local-dir-use-symlinks False
快速开始
使用示例可参考 example.py 文件。其 API 与 vLLM 接口类似,不过 LLM.generate 方法存在细微差异,示例代码如下:
from nanovllm import LLM, SamplingParams
llm = LLM("/YOUR/MODEL/PATH", enforce_eager=True, tensor_parallel_size=1)
sampling_params = SamplingParams(temperature=0.6, max_tokens=256)
prompts = ["Hello, Nano-vLLM."]
outputs = llm.generate(prompts, sampling_params)
outputs[0]["text"]
性能测试
- 测试配置
- 硬件:RTX 4070 Laptop(8GB)
- 模型:Qwen3 - 0.6B
- 总请求数:256 个序列
- 输入长度:随机采样于 100 - 1024 个标记之间
- 输出长度:随机采样于 100 - 1024 个标记之间
- 性能结果
| 推理引擎 | 输出标记数 | 时间(秒) | 吞吐量(标记/秒) |
|---|---|---|---|
| vLLM | 133,966 | 98.37 | 1361.84 |
| Nano - vLLM | 133,966 | 93.41 | 1434.13 |
优势
- 对于想要学习大语言模型推理实现的开发者来说,简洁的代码结构是很好的学习资源。
- 在性能上表现出色,甚至在测试中吞吐量超过了 vLLM,能满足对推理速度有较高要求的应用场景。
应用场景
- 本地开发和测试:由于其代码简洁、易于理解,适合在本地进行开发和测试工作。
- 对推理速度有要求的离线应用:如一些需要快速响应的本地智能助手、离线文本生成工具等。

浙公网安备 33010602011771号