人工智能伦理与负责任AI实践指南

里德·布莱克曼:人工智能伦理

《道德机器:完全无偏见、透明和尊重的人工智能简明指南》一书的作者解释了为什么追求道德人工智能的公司最终必须将责任归于其高层领导。

强大技术,意外后果

对布莱克曼而言,商业中的人工智能伦理实际上是关于智能系统设计,这些系统处理特定、狭窄任务的效率远高于人类。在看似无穷无尽的数据驱动下,机器学习实现了自动化决策,产生了比以往任何时候都更快、更准确的结果。

不幸的是,这类系统也被证明能够产生有缺陷或意外的结果,可能对公司的声誉和利润造成重大损害。随着基于人工智能的产品和服务日益成为全球经济的重要组成部分,监督的必要性变得越来越清晰。

回应"警报信号"

布莱克曼的哲学背景被证明是考虑人工智能影响的有用基础。毕竟,道德负责任的行为是大多数关于人性讨论的核心。

"那是2018年,我意识到工程师们正在就人工智能对社会即将产生的影响敲响警钟,"布莱克曼说,他提到了剑桥分析公司丑闻的余波。

到2020年和2021年,关于人工智能伦理和责任的讨论达到了白热化程度。布莱克曼为《哈佛商业评论》和TechCrunch等刊物撰写了关于该主题的文章。他以不同寻常的角度处理这个问题,区分了两个群体:为善的人工智能和不作恶的人工智能。

"那些在'为善的人工智能'群体中的人问自己:'我们如何利用人工智能这个强大工具创造积极的社会影响?'"布莱克曼解释说。"这通常是企业社会责任的领域,他们的目标背后很少有商业模式。"

"不作恶的人工智能是关于风险缓解的。这些人有一个目标,可能具有也可能不具有道德特征,比如向人们提供贷款、面试求职者、诊断各种疾病并推荐治疗方案,他们问自己:'我们如何使用人工智能帮助我们做这些事情,同时不会在道德上搞砸?'"

通往为善和"不作恶"人工智能之路

布莱克曼表示,公司长期努力寻找创建和维护道德健全组织的方法,而人工智能增加了新的复杂性。确保他们使用的工具准确、可靠并基于可靠科学是一项具有挑战性的任务。

他指出的另一个问题是,高层领导,特别是CEO和COO,认为这是一个技术问题,应由工程师和数据科学家解决。布莱克曼坚持认为这是错误的。

"最终,这取决于高层领导,"布莱克曼说。"初级工程师和数据科学家想做正确的事情,但事实是,只有在你有自上而下的正确执行策略的条件下,你才能获得道德负责任工具的系统化设计、开发、采购和部署。更重要的是,你无法通过数学解决这些问题。数据科学家需要相关专家的支持,这些专家可以帮助做出任何健全的道德风险评估所必需的定性判断。"

发展合作伙伴生态系统

建立"合作伙伴生态系统"是扩展某机构工作规模的关键方法。客户开始越来越多地询问关于人工智能和机器学习问题。

"我们一致的回应方式是通过我们的负责任人工智能框架在组织中实例化原则,我们在参与中提供的战略指导,利用服务和工具来补充负责任人工智能原则,"某机构解释。

"我们已经打开了潘多拉魔盒,无法关闭它,"某机构说。"我们如何在使用人工智能这种巨大力量时确保它不会造成伤害?"

与某机构合作是一个强大的伙伴关系,布莱克曼补充道。"将我们在定性评估、道德技术和软件工程方面的集体经验汇集在一起为客户服务具有巨大价值,"某机构表示同意。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

公众号二维码

公众号二维码

posted @ 2025-11-29 21:09  CodeShare  阅读(2)  评论(0)    收藏  举报