工业中可解释AI的九个视频详解

2020年4月28日

由于其26年历史上的首次,某中心网络会议在2020年以在线形式举行,内容通过多个平台进行交互式直播。会议报告包括来自某机构网络服务机器学习团队的首席科学家Krishnaram Kenthapadi,以及来自其他机构和实验室的行业同事的教程。这个包含九个部分的教程《工业中的可解释AI》,首先关注理论基础,随后是几个行业案例研究。

AI有潜力在从抵押贷款到药物发现等各个领域产生巨大影响,因此研究人员、监管机构和组织能够充分理解AI应用如何通过机器学习模型预测产生建议,或者强化学习模型如何“学习”执行某些任务,这一点非常重要。

Kenthapadi解释说:“人工智能在我们的日常体验中正日益发挥着不可或缺的作用。此外,随着基于AI的解决方案在招聘、贷款、刑事司法、医疗保健和教育等领域的普及,AI产生的个人和职业影响是深远的。”

Kenthapadi继续说道:“AI模型在这些领域的主导作用,引发了人们对这些模型中潜在偏见的日益关注,以及对模型透明度和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗保健和自动驾驶)以及关键应用(包括预测性维护、自然资源勘探和气候变化建模)中建立信任和采用AI系统的先决条件。因此,AI研究人员和从业者将注意力集中在可解释AI上,以帮助他们更好地信任和理解大规模模型。”

上面是九个部分教程的完整幻灯片。

Kenthapadi解释说,该教程首先从业务、模型和监管角度阐述对可解释AI的需求,并介绍将可解释性作为AI和机器学习系统核心组成部分的工具和技术。

合作者随后通过介绍涵盖搜索和推荐系统、招聘、医疗保健和信贷等领域的案例研究,重点讨论可解释性技术在行业内的应用。他们分享了在几个网络级应用程序中部署可解释模型的实际挑战和经验教训。

该教程最后指出了数据挖掘和机器学习社区面临的开放问题和研究方向。

合作者包括某实验室的创始人兼首席执行官Krishna Gade;来自某社交平台的Sahin Cem Geyik;某社交平台数据挖掘和机器学习高级软件工程师Varun Mithal;某实验室的数据科学主管Ankur Taly;以及Kenthapadi,他们于去年夏天的知识发现与数据挖掘(KDD)会议上首次展示了他们的教程。Kenthapadi于去年秋天加入某机构,目前专注于与机器学习中的公平性、可解释性和隐私相关的项目。

教程视频部分

  • 第1部分 - 引言、动机和挑战
  • 第2部分 - 可解释AI技术概述
  • 第3部分 - 基础:个体预测解释
  • 第4部分 - 基础:全局解释
  • 第5部分 - 案例研究:某社交平台多样性洞察
  • 第6部分 - 案例研究:某社交平台人才搜索
  • 第7部分 - 案例研究:某社交平台相关性调试与解释
  • 第8部分 - 糖尿病视网膜病变及某实验室案例研究
  • 第9部分 - 开放问题、研究挑战和结论

研究领域

机器学习

标签

某中心网络会议, 人工智能 (AI), 可解释AI, 负责任AI
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

公众号二维码

公众号二维码

posted @ 2025-12-10 14:03  CodeShare  阅读(0)  评论(0)    收藏  举报