读AI即未来:普通人用好人工智能的18大工作场景01生成式人工智能

读AI即未来:普通人用好人工智能的18大工作场景01生成式人工智能

1. 生成式人工智能

1.1. ChatGPT只用五天就吸引了100万用户

  • 1.1.1. Netflix的用户量达到这一数字用了三年半的时间

1.2. 人工智能是一门教机器模仿人类行为模式的艺术与科学

1.3. 生成式人工智能更像是一位精通多国语言、极具创造力的作家

  • 1.3.1. 能用多种语言创作故事与诗歌,展现出近乎人类水平的创造力与多样化的表达能力

  • 1.3.2. 以往的人工智能可以通过遵循规则和指令完成令人惊叹的任务,而生成式人工智能则凭借创造新想法和新内容的能力,带来了全新的可能性

1.4. 1962年,科幻作家阿瑟·C.克拉克(Arthur C. Clarke)提出了或许是对“创新”最精妙的定义之一:​“任何足够先进的技术,都与魔法难以区分。​”

1.5. 要理解生成式人工智能的工作原理,可以借助一些类比

  • 1.5.1. 可以比作厨师依据自身经验创作新食谱

  • 1.5.2. 艺术家通过研究、练习和模仿他人作品来精进技艺

  • 1.5.3. 音乐家借鉴多年来从多种流派中汲取的灵感创作新曲

1.6. 生成式人工智能模型源于数十年间不断发展的语言模型

  • 1.6.1. N元(N-gram)计算应运而生,它能通过概率计算确定某个词在句子中成为下一个词的可能性

  • 1.6.2. 连续词袋模型(Continuous Bagof-Words,CBOW)—根据周围的上下文词语预测目标词

  • 1.6.3. 跳元模型(Skip-gram model)—根据给定的目标词预测上下文词语

1.7. 得益于云环境的优化和芯片处理能力的提升,数据处理潜力得到增强,这使得更先进的自然语言处理(Natural Language Pocessing,NLP)模型得以在输出结果上实现突破性进展

1.8. 参数指的是模型通过训练所“习得”的模式数量,包括数据集中的变量,或是通过数据中的模式识别所形成的关系权重

  • 1.8.1. 处理能力:更多的参数使模型能够捕捉并处理数据中更复杂的模式和关系

  • 1.8.2. 更广泛的知识库:大型模型通常在海量且多样的数据集上进行训练,这使其能够理解并生成跨多个领域的内容

  • 1.8.3. 参数数量越多,输出结果就越令人惊叹

1.9. 大型模型似乎更易于针对特定任务进行微调,且微调过程所需的数据更少

2. 主要步骤

2.1. 数据准备

  • 2.1.1. 人工智能以海量数据为基础

  • 2.1.2. 数据来源广泛:传感器、文本、视频、图像等

  • 2.1.3. 凡是你能看到或想到的事物,大都会留下信息痕迹

  • 2.1.4. 当你填写验证码时,遇到“点击包含自行车的方块”这类指令,其实就是在进行数据标注(这些数据通常会被用于训练人工智能)​

  • 2.1.5. 更先进的模型通常不需要对数据进行标注

2.2. 算法部署

  • 2.2.1. 将算法应用于数据

  • 2.2.2. 监督学习:模型在带有标注的数据集中进行训练,通过学习数据来做出预测

  • 2.2.3. 无监督学习:模型在无标注的数据中进行训练,任务是发现其中的模式

  • 2.2.4. 强化学习算法:模型在实际环境中运行,通过接收对其行为的反馈来持续学习

  • 2.2.5. “Transformer”架构

  • 2.2.5.1. 2017年,谷歌的一组研究人员在题为《注意力就是一切》​(Attention is all you need)的论文中,首次向世界公开了这一架构

  • 2.2.5.2. GPT和BERT(Bidirectional Encoder Representations from Transformers)是目前最常见的两种Transformer模型

  • 2.2.5.3. Transformer模型属于自然语言处理(Natural Language Processing,NLP)技术的一个分支

2.3. 改进与优化

  • 2.3.1. 模型部署完成后,下一步就是对其进行优化和评估

2.4. 应用场景定义

  • 2.4.1. 预测分析、内容生成、接收与解读提示词等

2.5. 反馈与改进

  • 2.5.1. 模型需要持续的改进、优化、监控和微调

  • 2.5.2. 这一过程可通过自动化方式进行,也可借助人工输入完成,理想情况下则是两者结合

  • 2.5.3. 自动化改进指的是利用新数据集对模型进行更新

  • 2.5.4. 人工输入则涉及人类通过与模型的输出进行交互,就模型的准确性或实用性提供反馈

2.6. 实际部署

  • 2.6.1. 将人工智能模型应用于业务实践—通常称为“工作流程”​,需要格外谨慎和用心

3. 帮助

3.1. 通用技术的核心特征就在于其普适性

3.2. 要理解人工智能如何为你提供帮助,就要先深入了解人工智能的各种组件和技术,它们共同构成了所谓的“价值链”​

3.3. 人工智能的实现,依赖于计算机从数据中识别模式和关系的能力

  • 3.3.1. 处于人工智能价值链最底层的,是使一切成为可能的基础设施,即所谓的“计算”能力

  • 3.3.2. 这种能力来源于搭载了图形处理器(Graphics Processing Unit,GPU,一种硅基计算机芯片)芯片的硬件,而这类芯片是训练人工智能模型的必需组件

3.4. 侧重于内容生成,生成的内容可以是文本、图像、音频,甚至是复杂的视频

3.5. 人工智能可以为几乎所有工作提供支持,除了那些必须由人力完成的任务

3.6. 直接使用前沿模型,如Gemini或GPT-4

  • 3.6.1. 用户可以通过输入“提示词”​,让模型执行某个任务

  • 3.6.2. 提示词越详细,得到的回复就越有用。这种用法的成本要么为零(如果你使用免费版本)​,要么仅为模型的许可费用

3.7. 用自有数据训练开源模型

  • 3.7.1. 如今可用的开源模型越来越多,像Meta等公司已向公共领域发布了其前沿模型的精简版,这个更具针对性的版本可以满足企业客户的特定用途

  • 3.7.2. 这种方式的成本通常极高,因为企业需要具备数据工程能力来训练模型,并将其部署在自有的云环境中

  • 3.7.3. 优势在于模型是基于自有数据训练的,理论上可以更贴合企业自身的需求

3.8. 在封闭的云环境中训练前沿模型

  • 3.8.1. 在亚马逊云科技(Amazon Web Service,AWS)套件中,Amazon SageMaker[插图]是一个颇受欢迎的机器学习工具

  • 3.8.2. 如果用户把数据存储在AWS环境中,就可以用这些数据训练亚马逊提供的模型,并根据自身的数据和运营环境对模型进行微调(即优化)​

3.9. 使用针对特定任务的窄域人工智能代理

  • 3.9.1. 聊天机器人是其中发展最为迅猛的一种代理类型,常被用作WhatsApp等平台上的客户服务工具

  • 3.9.2. 通常基于较小的大语言模型构建,但会针对特定受众或行业进行定制

  • 3.9.3. 用户既可以使用第三方开发的通用人工智能代理,也可以基于某个前沿模型自行创建

3.10. 要想从人工智能中获益,最佳方法是思考如何将解决方案与你的工作流程相结合

  • 3.10.1. 解决方案可以是横向的,也可以是纵向的

  • 3.10.1.1. 工作流程映射是一种很棒的技术,能帮助你理解横向转型和纵向转型的区别

  • 3.10.2. 横向解决方案指的是能彻底改变端到端完整工作流程的方案

  • 3.10.2.1. 人工智能已显著改变了端到端工作流程里很大一部分运营模式,使得人工几乎不参与这一过程

  • 3.10.3. 纵向解决方案是指选取工作流程中的某一环节,利用人工智能工具对其进行优化

  • 3.10.3.1. 医生在诊治患者时,可能会使用一种基于人工智能的癌症治疗临床决策工具

  • 3.10.3.2. 可以加快诊断流程,从而改善工作流程中的重要步骤,即纵向环节,但未必会改变整个端到端的工作流程

  • 3.10.3.3. 人工智能工具正在成为临床医生的“副驾驶”​,它们能够提供分析,在癌症诊疗领域帮助医生做出更明智的决策

  • 3.10.4. 在全新环境下使用人工智能,还是在充满遗留问题的传统环境下使用

4. 数据科学

4.1. 数据科学及相关的人工智能领域,曾多次掀起热潮

4.2. 图灵提出了著名的“图灵测试”​,该测试认为,若一台机器能让人误以为它是人类,那么这台机器就具备了人类水平的智能

4.3. 人工智能关键发展简史

  • 4.3.1. 1950年:艾伦·图灵提出图灵测试,用于判断机器是否能展现出人类水平的智能

  • 4.3.2. 1956年:达特茅斯会议(The Dartmouth Conference)召开,​“人工智能”诞生—这一术语由美国计算机科学家约翰·麦卡锡(John McCarthy)首次提出

  • 4.3.3. 1966年:首款聊天机器人ELIZA问世,其核心技术为自然语言处理

  • 4.3.4. 1972年:PROLOG语言诞生,该语言在计算语言学领域影响深远,对人工智能研究而言至关重要

  • 4.3.5. 1980年代:专家系统兴起,这类系统可辅助决策,在医疗和金融领域应用尤为广泛

  • 4.3.6. 1987—1993年:​“人工智能寒冬”来临,人们对人工智能的关注度下降,相关资金投入亦随之缩减

  • 4.3.7. 1997年:IBM的“深蓝”​(Deep Blue)击败国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)

  • 4.3.8. 2006年:神经网络与深度学习复兴,研究表明可借助图形处理器训练这些模型;此项开创性工作由如今的诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)及其团队主导

  • 4.3.9. 2011年:IBM的沃森(Watson)在《危险边缘》​(Jeopardy!)智力竞赛中夺冠,展现了自然语言处理领域的巨大进步

  • 4.3.10. 2012年:通过深度卷积神经网络,深度学习在图像识别领域取得突破性进展

  • 4.3.11. 2014年:谷歌旗下的深度思维公司(DeepMind)利用深度强化学习技术,开发出能玩雅达利(Atari)游戏的人工智能

  • 4.3.12. 2016年:AlphaGo击败围棋世界冠军李世石(Lee Sedol)​,鉴于围棋的复杂性与对直觉的依赖,这一事件成为重要里程碑

  • 4.3.13. 2017年:Transformer模型问世,为自然语言处理领域带来了革命性变革

  • 4.3.14. 2018年:谷歌发布BERT模型,该模型能同时结合上下文双向信息,推动了自然语言处理任务的发展

  • 4.3.15. 2019年:OpenAI推出GPT-2,表明在大规模数据集上训练的语言模型能够生成高质量且贴合语境的内容

  • 4.3.16. 2021年:多模态人工智能取得进展,DALL·E可根据文本描述生成图像

  • 4.3.17. 2022年:10月,OpenAI推出ChatGPT,并迅速走入大众视野,激发了广泛关注与想象

  • 4.3.18. 2024年:芯片制造商英伟达(NVIDIA)市值突破3万亿美元,成为全球第二大公司,彰显出人工智能需求已进入新的爆发期

4.4. 关键因素

  • 4.4.1. 消费设备、摄像头、手机、传感器等会持续产生海量数据,数据可获取量达到前所未有的水平

  • 4.4.2. 随着磁盘存储(适合大容量数据存储,但访问速度较慢)和随机存取存储器(Random Access Memory,RAM,更便于数据访问)等技术的发展,数据存储成本有所下降

  • 4.4.3. 计算机处理成本大幅降低—这里的处理包括数据匹配、计数、比较,以及对数据应用简单的条件规则等任务

  • 4.4.4. 云计算的兴起使几乎所有组织都能利用“大数据”并应用数据科学技术,而无需投资建设昂贵的大规模物理数据基础设施(如今称为“本地服务器”​)​

4.5. 数据科学在棒球、算法金融交易、政治选举等领域的高调应用,进一步提升了它的关注度

4.6. 图形处理器的惊人进步,它能通过微型电路处理海量数据

4.7. Transformer模型的研发,这一模型促成了词元(token,即文本的基本处理单位)预测系统的发展,而该系统正是大语言模型和扩散模型的基础

4.8. “FLOPs”​(Floating Point Operations per Second,每秒浮点运算次数)用于统计处理器每秒能执行的浮点算术运算次数,实际上是一种衡量计算性能的指标

  • 4.8.1. 浮点算术运算包括加、减、乘、除,这些都是生成式人工智能模型完成任务的核心操作

4.9. 随着规模扩大,幻觉率问题已得到快速改善

  • 4.9.1. GPT-3.5的幻觉率为10%~20%

  • 4.9.2. GPT-4o的幻觉率为2.5%

4.10. 当前使用的人工智能,在未来几个月内理应变得更强大

4.11. 即便当下的人工智能尚不完善,为未来的人工智能发展做好准备也很可能是一项回报丰厚的战略投资

4.12. Epoch AI是一个出色的研究资源库,专门追踪最新模型背后不断增长的计算能力

posted @ 2026-05-06 07:13  躺柒  阅读(0)  评论(0)    收藏  举报