代码改变世界

AI热点概念解读:一文搞懂这些热词

2024-02-06 10:14  AlfredZhao  阅读(334)  评论(1编辑  收藏  举报

自 ChatGPT 问世以来,AI的风口就来了。

AI是一门研究如何使计算机具有类似人类智能的学科。

自从ChatGPT-3.5给大家带来了极大的震惊之后,全民都在谈论AI,在这个AI大时代背景之下,如果你想进一步了解AI相关热词含义,从而更好的理解当下AI的基础原理,本文就不容错过。

如今,当你找专业人士解释一些关于AI的基础概念,最大的问题就是,你也许只是想简单的了解一个热词的简单解释,回答者跟你解释时,却引入了更多你不熟悉的新概念。

当你不得不追问这些新概念的含义时,却发现又引入了一堆新词,此刻是不是感觉头都大了?其实这么多新词和概念也很难通过一次简短的询问来搞懂并厘清期间的关系。

如果你也有这样的困惑,无论是提问方还是解答方,都可以利用这篇文章来帮助自己理解或辅助回答。

下面我们就从最熟悉的ChatGPT切入提问,看看都有哪些AI相关高频词汇,又各自是什么意思。

ChatGPT 是什么?

ChatGPT是一种LLM(大语言模型),具体是由OpenAI开发的一种聊天型生成预训练模型。它基于GPT架构,专门设计用于处理自然语言对话和生成有意义的回应。

LLM(大语言模型)是什么?

LLM英文全称是:Large Language Model。

大语言模型通常是指参数规模庞大、在大规模语料库上进行训练的自然语言处理模型。

另外LLM也不止OpenAI的GPT一种,还有其他很多家,比如Meta的Llama 2,以及更专注于企业应用的Cohere等。

OpenAI 是什么?

OpenAI是一个人工智能研究实验室,致力于推动人工智能的发展。

OpenAI 是许多先进语言模型的背后力量,其中最著名的就是 GPT 系列。

GPT 是什么?

GPT 全称是 "Generative Pre-trained Transformer",翻译成中文是"生成式预训练转换器"。

GPT 是 OpenAI 提出的一系列预训练语言模型,它采用了 Transformer 架构。这些模型在大规模文本数据上进行预训练,学习了丰富的语言知识,可以用于各种自然语言处理任务。

Transformer 是什么?

Transformer 是一种深度学习架构,被广泛用于处理序列数据,比如自然语言处理(NLP)。

它的自注意力机制使其在处理长距离依赖和捕捉序列中的上下文关系方面非常强大。

GPT 就是基于 Transformer 架构构建的。Transformer 架构的主要组成部分包括编码器(Encoder)和解码器(Decoder)。

Encoder 和 Decoder 怎么理解?

编码器(Encoder)负责将输入序列映射为高维度的向量表示。

解码器(Decoder)用于生成目标序列。

向量(Vector)又是什么?

为了让计算机理解和处理文本,我们需要将离散的令牌转换为连续的表示形式。这时,就引入了向量的概念。

向量是一种包含数值的数组,它能够表示令牌的语义信息。每个维度都承载着特定的语义或信息,使得计算机能够更好地理解文本。

令牌(Token)又是个啥?

在自然语言处理中,我们将文本划分为基本单元,这些基本单元称为令牌。

令牌可以是单词、字符或其他离散的文本单位。在处理文本数据时,我们通常将它们作为模型的输入。

每个令牌代表着文本的一个部分,是构建语言模型的基础。

那令牌如何能够向量化呢?

为了将离散的令牌映射到连续的向量表示,我们使用了嵌入技术。

嵌入(Embedding)是一种将高维度、离散的数据映射到低维度、连续空间的方法。

在自然语言处理中,词嵌入(Word Embedding)是常见的嵌入技术,它将单词映射为密集的向量,捕捉了单词之间的语义关系。

向量化数据存在哪里?

向量化数据建议存储在数据库中,这样能够允许高效的检索和查询。

向量可以作为数据库中的一个字段进行存储,或者存储在专门设计的向量数据库中。

企业AI应用中被高频提到的RAG是个啥?

RAG 全称是 "Retrieval-Augmented Generation",表示一种检索增强生成的方法。

听完这样的解释是不是更懵了?咋就增强了?

好吧,说人话,RAG 模型就是结合了上面我们提过的LLM 和 外部知识库,以实现生成过程的增强和优化。

啥叫外部知识库?为啥如此强大的LLM要结合外部知识库呢?

外部知识库就是LLM在训练过程中未直接学习到的、特定领域或任务的额外信息。

比如企业自己的私域知识,例如某保险公司新推出的一些具体保险产品详情,通用LLM训练时肯定就不可能有这样的知识。

又比如一些特定领域的专业知识,诸如医学数据库、法律文件、科学论文等,通用LLM训练时未完全涵盖或深入理解这些领域。

通过结合这样的外部知识库,RAG 模型能够在生成过程中利用这些额外的知识和上下文,使其在特定企业AI应用中能够更为灵活和强大。

最后,大家觉得ChatGPT到底有没有自己的思想?

笔者认为在理解上述基本原理概念之后,会发现在这个机制下,尽管ChatGPT可以生成看起来像是回应问题或进行对话的文本,让人误以为它有思想,但它其实并不具备深层次的理解、意识或主观性。

不过这也是基于当前的ChatGPT,随着AI技术不断发展未来还真不好说,之前不是就因为担忧AI未来的安全问题,还引发了那场OpenAI的CEO被罢免的事件吗,大家怎么看呢?