可解释人工智能发展历史
可解释人工智能发展历史
可解释的人工智能(Interpretable Artificial Intelligence,XAI)是一个相对较新的研究领域,旨在弥补人工智能(Artificial Intelligence,AI)和人类智能(human intelligence,HI)之间的差距。它基于为人工智能系统的决策过程提供更多透明度的想法,让用户更好地理解算法输出背后的推理。最近,XAI已经获得了很多关注,预计其重要性在未来几年只会增加。这篇文章讨论XAI的历史,看看它从早期开始到现在的发展状况。
早期的发展
XAI的发展可以追溯到人工智能的早期阶段。1956年,英国计算机科学家和密码学家阿兰-图灵提出了图灵测试,这是一个确定计算机以类似于人类的方式思考的能力的测试。这项测试是人工智能发展的重要一步,因为它为未来对算法的理解和解释的研究奠定了基础。
1965年,人工智能研究员约翰-麦卡锡提出了 "公平合理化 "的概念。这个概念提出,人工智能系统应该能够以允许人类理解和评估它们的方式解释它们的决定。这一早期发展为XAI的发展奠定了基础,因为它为人工智能算法的解释和说明的研究提供了基础。
20世纪80年代和90年代的发展
在20世纪80年代和90年代,对XAI的研究开始集中在 "黑箱 "模型的开发上。这些模型被设计成高效的,但也是极其不透明的,使用户难以理解算法决策背后的原因。因此,研究转向了开发更透明的模型,这将为算法的决策过程提供更多的洞察力。
1982年,人工智能研究人员约翰-麦克德莫特和丹尼斯-沙沙推出了 "基于解释的学习"(EBL)系统,这是第一个使用正式语言来解释其决定的算法。这是发展可解释人工智能的重要一步,因为它使用户能够理解算法所做决定背后的推理。
在20世纪90年代,对XAI的研究开始更多地关注于开发用户友好型系统,以帮助解释和说明算法。2000年,卡内基梅隆大学的研究人员开发了 "可解释计划识别"(EPR)系统,该系统旨在帮助用户理解算法的决策过程。EPR是XAI发展中的一个重要里程碑,因为它是第一个能够回答有关算法决策过程问题的系统。
最近的发展
近年来,对XAI的研究已经转向开发能够帮助以更有意义的方式解释AI系统所做决定的机制。2016年,谷歌的研究人员开发了 "综合可解释性"(IX)系统,旨在帮助用户以更易理解的方式解释人工智能算法做出的决定。这个系统是第一个将可解释性和可解释性结合起来的系统,使用户能够更好地理解算法所做决定背后的原因。
2017年,华盛顿大学的AI研究人员开发了 "博弈论可解释性"(GTE)框架。这个框架使用博弈论的方法来解释人工智能算法做出的决定,让用户了解算法输出背后的推理。
结论
自20世纪50年代早期开始,可解释人工智能已经走过了漫长的道路。从图灵测试的发展到IX和GTE等更现代的系统,XAI一直在不断发展,研究人员专注于开发越来越透明和用户友好的系统。随着人工智能的不断普及,XAI将变得越来越重要,因为用户需要了解算法所做决定背后的推理,以便信任它们。因此,在未来的许多年里,XAI肯定仍然是一个重要的研究领域。
References
1. Turing, A. (1956). Computing machinery and intelligence. Mind, 59(236), 433–460.
2. McCarthy, J. (1965). Fair rationalization. In Proceedings of the National Conference on Artificial Intelligence (pp. 8–13).
3. McDermott, J., & Shasha, D. (1982). Explanation-based learning: A problem solving perspective. Artificial Intelligence, 18(1), 121–163.
4. Dasgupta, A., & Sharma, A. (2000). Explainable plan recognition. In Proceedings of the 23rd Annual Conference on Computer Science (pp. 39–45).
5. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Model-agnostic interpretability of machine learning. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 85–94).
6. Seff, A., & Wallace, B. (2017). Game theoretic explainability. In Proceedings of the 23rd International Joint Conference on Artificial Intelligence (pp. 3791–3797).
7. Stone, P., & Veloso, M. (2014). Explainable artificial intelligence (XAI). arXiv preprint arXiv:1406.6910.
8. Guerrero-Colon, A., Wang, C., & Reggia, J. (2005). A model based explanation system for artificial intelligence applications. International Journal of Human-Computer Studies, 62(3), 309–326.
9. Adadi, A., &Berrada, M. E. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (XAI). arXiv preprint arXiv:1806.10909.
10. Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608

浙公网安备 33010602011771号