GKLBB

当你经历了暴风雨,你也就成为了暴风雨

导航

术语俗话 --- LLM

大量互联网或其他数据,按照每个词语高度压缩为一本字典,需要回答什么问题,依据字典目录组成一句话

  • 是什么? 你可以把它想象成一个在互联网级别海量文本(书籍、文章、代码、对话记录等等)上“喂”大的、拥有超多参数(可以理解为脑细胞数量极其庞大)的“语言大脑”。

  • 它能干什么?

    • 理解语言: 能读懂你写的句子、邮件、报告,理解其中的意思和上下文。

    • 生成语言: 能像人一样写文章、写诗、写邮件、编故事、写代码、写营销文案。

    • 回答问题: 能根据它“学”到的知识,回答各种各样的问题(虽然不一定总是正确)。

    • 翻译: 在不同语言之间进行翻译。

    • 总结提炼: 把长篇文章浓缩成简短摘要。

    • 对话交流: 像ChatGPT那样和你进行自然的聊天。

  • 为什么叫“大”?

    • 数据海量: 它学习的数据量是天文数字。

    • 模型巨大: 它的“大脑结构”(神经网络)极其复杂,参数数量动辄百亿、千亿甚至万亿级别。

    • 能力广泛: 不像以前只能做翻译或下棋的“专业小能手”,它是一个“通才”,能处理很多不同类型的语言任务。

  • 通俗比喻: 想象一个在图书馆里泡了上百年、读遍了所有书的天才语言学家。你问他任何关于语言、知识的问题,他都能给你一个像模像样的回答;你让他写点啥,他也能写得文采斐然。它就是当前AI在理解和生成人类语言方面的顶尖代表。但要注意,它更像一个“超级鹦鹉”,能学舌、能组合信息,但并不真正“理解”世界(没有意识和常识)。

  • 典型代表: ChatGPT, GPT-4, Claude, Gemini, 文心一言, 通义千问等。

posted on 2025-07-14 23:07  GKLBB  阅读(6)  评论(0)    收藏  举报