摘要:
利用 CrewAI 多智能体框架,我们可以更细粒度的控制智能体和任务,通过不同的流程组织协同多智能体共同完成工作…… 阅读全文
利用 CrewAI 多智能体框架,我们可以更细粒度的控制智能体和任务,通过不同的流程组织协同多智能体共同完成工作…… 阅读全文
posted @ 2024-09-15 00:11
老牛啊
阅读(3198)
评论(0)
推荐(0)
利用 CrewAI 多智能体框架,我们可以更细粒度的控制智能体和任务,通过不同的流程组织协同多智能体共同完成工作…… 阅读全文
本文介绍了大模型 Agent 定义、组成部分,并以 MetaGPT 多智能体为例,一句话完成贪吃蛇小游戏需求,以介绍整个智能体的工作流程…… 阅读全文
本文介绍 ChatTTS 最新版本的 2 种本地部署方式,并通过短音频合成长音频的技术手段,解决 ChatTTS 合成音频最长 30 秒时长的限制,同时,我们让绘本故事文本转长音频…… 阅读全文
GLM-4-Flash 大模型API免费了,我们本文基于免费API构建一个“儿童绘本”应用,包括使用文生图产出绘本故事插图…… 阅读全文
上海人工智能实验室发布了书生·浦语(InternLM)新开源版本,增强了在复杂场景下的推理能力,本文介绍在本地进行部署和推理…… 阅读全文
MiniCPM-V 最新发布了 2.6 版本,仅 8B 的参数量,但在图片、视频方面理解能力表现卓越,本教程在本地进行部署和推理实战…… 阅读全文
vLLM默认并不支持纯CPU模式部署和推理模式,老牛同学应网友要求,根据vLLM官网整理vLLM在CPU模式下如何部署和推理大语音模型,并以Qwen2为了进行验证和演示…… 阅读全文
PyTorch 是一个开源的机器学习框架,可以方便地进行神经网络模型训练和推理。本文基于 PyTorch 演示了一个非常简单但是功能齐全的神经网络训练过程,无论模型权重有多大,使用 TyTorch 训练的过程是类似的,期望本文能启到抛砖引玉的作用…… 阅读全文
阿里云百炼平台发布推文,提供30天免费算力额度,助力玩转 Llama3.1 训练推理。老牛同学首当其冲,去体验一把,本文详细记录了整个过程,同时给出了老牛同学的一些想法,欢迎交流学习…… 阅读全文
本教程详细介绍了 LoRA 参数高效微调技术,包括数据集准备和处理、模型加载、参数设置等,然后以 Qwen2-0.5B 预训练模型实践,进行了文本分类能力微调,微调过程通过 SwanLab 可视化界面查看,最终微调模型进行测试数据评估…… 阅读全文
数字人最近比较火,LivePortrait 是快手、中科大和复旦大学联合研发的开源的图生视频模型,比较适合个人、小团体和企业等用于生成自己的数字化人物视频。老牛同学尝试通过本教程,详细介绍如何在本地部署和生成专业视频…… 阅读全文
Ollama可以非常方便的管理和部署我们本地大语言模型,老牛同学希望通过本文对Ollama进行一次详细介绍,包括本地大模型管理和使用、WebUI对话界面部署、通过Python和Java使用Ollama的API接口等…… 阅读全文
大语言模型在垂直细分领域存在知识局限、幻觉、数据安全等一些问题,可通过RAG(检索增强生成)方案来解决。本文基于AnythingLLM框架,搭建团队私有知识库系统,并进行使用和验证,RAG系统在保留输出的有效性同时,还保留了创造性…… 阅读全文
阿里Qwen2-72B大模型已是开源榜的王者,为什么还要推出其他参数模型,被其他模型打榜? 阅读全文
Google 重磅发布了最新版大语言模型Gemma 2,其中 90亿 参数版本适合我们个人在笔记本本地部署,老牛同学通过本文和大家一起,通过2种方式快速部署和体验,当然这2种快速部署模型的方式,也同样适用于其他大模型…… 阅读全文
奔跑的蜗牛 博客:https://ntopic.cn