术语俗话 --- LLM
大量互联网或其他数据,按照每个词语高度压缩为一本字典,需要回答什么问题,依据字典目录组成一句话
-
是什么? 你可以把它想象成一个在互联网级别海量文本(书籍、文章、代码、对话记录等等)上“喂”大的、拥有超多参数(可以理解为脑细胞数量极其庞大)的“语言大脑”。
-
它能干什么?
-
理解语言: 能读懂你写的句子、邮件、报告,理解其中的意思和上下文。
-
生成语言: 能像人一样写文章、写诗、写邮件、编故事、写代码、写营销文案。
-
回答问题: 能根据它“学”到的知识,回答各种各样的问题(虽然不一定总是正确)。
-
翻译: 在不同语言之间进行翻译。
-
总结提炼: 把长篇文章浓缩成简短摘要。
-
对话交流: 像ChatGPT那样和你进行自然的聊天。
-
-
为什么叫“大”?
-
数据海量: 它学习的数据量是天文数字。
-
模型巨大: 它的“大脑结构”(神经网络)极其复杂,参数数量动辄百亿、千亿甚至万亿级别。
-
能力广泛: 不像以前只能做翻译或下棋的“专业小能手”,它是一个“通才”,能处理很多不同类型的语言任务。
-
-
通俗比喻: 想象一个在图书馆里泡了上百年、读遍了所有书的天才语言学家。你问他任何关于语言、知识的问题,他都能给你一个像模像样的回答;你让他写点啥,他也能写得文采斐然。它就是当前AI在理解和生成人类语言方面的顶尖代表。但要注意,它更像一个“超级鹦鹉”,能学舌、能组合信息,但并不真正“理解”世界(没有意识和常识)。
-
典型代表: ChatGPT, GPT-4, Claude, Gemini, 文心一言, 通义千问等。
浙公网安备 33010602011771号