MOSS对话式大型语言模型

MOSS是复旦大学自然语言处理实验室发布的一种类似于ChatGPT的会话语言模型。MOSS能够按照用户的指示执行各种自然语言任务,包括回答问题、生成文本、摘要文本、生成代码等。MOSS还能够挑战错误的前提,拒绝不适当的请求。

MOSS会话语言模型

MOSS发布

MOSS 项目简介

  MOSS,一种类似于ChatGPT的对话式语言模型。MOSS能够按照用户的指示执行各种自然语言任务,包括回答问题、生成文本、摘要文本、生成代码等。MOSS还能够挑战错误的前提,拒绝不适当的请求。在研究预览期间,MOSS的使用是免费的,我们将在他们允许的情况下收集用户的反馈。体验地址在这https://moss.fastnlp.top/

MOSS能做什么

MOSS主旨:有用、诚实和无害

  • 有用:尽量帮助人们完成语言任务,以提高他们的工作效率。
  • 诚实:对人类的问题做出诚实的回答。
  • 无害:遵守人类伦理和道德,不产生偏见或可能有害的反应。

MOSS使用示例

MOSS使用示例

 

MOSS使用示例

 

 MOSS使用示例

 

 MOSS使用示例

 

 MOSS使用示例

 

 MOSS使用示例

 

 MOSS使用示例

 

 

MOSS和ChatGPT有什么不同?

  • MOSS的参数数量比ChatGPT少得多。
  • MOSS通过与人类和其他人工智能模型交谈来学习,而ChatGPT则使用来自人类反馈的强化学习(RLHF)进行训练。
  • MOSS将是开源的,以方便未来的研究,但ChatGPT可能不会。

团队介绍

  MOSS 的主要作者共有两位:复旦大学教授邱锡鹏和他的博士生孙天祥。此外还有多位成员对项目有所贡献。

  邱锡鹏,复旦大学计算机科学技术学院教授,博士生导师。国家优青获得者,于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,发表 CCF A/B 类论文 70 余篇,获得 ACL 2017 杰出论文奖(CCF A 类)、CCL 2019 最佳论文奖、《中国科学:技术科学》2021 年度高影响力论文奖,有 5 篇论文入选 PaperDigest 发布的 IJCAI/ACL/EMNLP 的最有影响力论文(被引用数进入前当届会议的 20 名)。出版开源专著《神经网络与深度学习》,Github 关注数 1.5 万,豆瓣评分 9.4 分。主持开发了开源框架 FudanNLP 和 FastNLP,已被国内外数百家单位使用。2015 年入选首届中国科协青年人才托举工程项目,2018 年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2020 获第四届上海高校青年教师教学竞赛优等奖,2021 年获首届上海市计算机学会教学成果奖一等奖(第一完成人)等。培养学生多次获得一级学会优博、微软学者、百度奖学金等。

  孙天祥,复旦大学计算机科学学院博士生,导师为邱锡鹏教授和黄萱菁教授。2019 年毕业于西安电子科技大学。研究兴趣集中于机器学习及其在自然语言处理中的应用,特别是预训练语言模型的高效微调及推理、多任务学习、知识表示学习等。以第一作者在 ICML, ACL, NAACL, AAAI, COLING 等会议发表多篇论文。

 

moss可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。这条路径的走通,为国内学术界和产业界提供了重要经验,将助力大语言模型的进一步探索和应用。   

邱锡鹏教授表示:“尽管moss还有很大改善空间,但它的问世证明了在开发类chatgpt产品的路上,国内科研团队有能力克服技术上的重要挑战。”moss研发项目得到了上海人工智能实验室的有力支持。后期,这项工作将通过开源方式和业界社区分享。

未来,科研团队将通过开源方式分享这项工作的成果,促进学术界和产业界对预训练语言模型的分析与研发。预训练大语言模型的研发门槛很高,需要大量算力、训练语料和人工标注。在我国产业界,只有大型机构才有实力开发大模型。moss开源后,可有效降低预训练语言模型的研发和应用门槛,让中小企业在其基础上开发出智能客服、智能家居、人工智能律师等各种垂直类产品。   

“moss的计算量相对不那么大,中小企业都能用起来。”邱锡鹏说,“期待复旦团队和上海人工智能实验室继续合作,通过moss以及后续的研究探索,推动ai普惠,尽快赋能国内的人工智能产业。”

 

项目主页 

https://txsun1997.github.io/blogs/moss.html

体验地址

https://moss.fastnlp.top/

参考资料

https://news.cnblogs.com/n/736972/

posted @ 2023-03-07 09:19  ytkah  阅读(417)  评论(0编辑  收藏  举报
IPO发家故事 网址导航 gg N / G Sitemap

部分内容来源于网络,如有版权问题请联系删除