ChatGPT-对高等教育的影响-探索人工智能革命
ChatGPT 对高等教育的影响:探索人工智能革命
原文:The Impact of ChatGPT on Higher Education
译者:飞龙


我们将此书献给 MEF 学校和 MEF 大学的创始人,伊布拉希姆·阿里坎博士,他一生致力于教育革命。阿里坎博士的最终梦想是将 MEF 大学建设成为一个完全翻转的大学,但遗憾的是,他在见证这一梦想实现之前就去世了。他在从幼儿园到大学的所有教育阶段都是一位先驱,并坚信一种民主的教育方法,该方法优先考虑每个学生的个性。
阿里坎博士在他的机构中为教师实施了完全的学术独立性,他对创造一个培养每个学生潜力的学习环境的承诺对教育领域产生了持久的影响。他的精神在每一位有幸认识他的学生和教师的心中继续活着。随着我们继续纪念他的遗产,我们自豪地说,MEF 大学已经成为他梦想的实现,一个创新和完全翻转的大学,赋予学生控制自己教育的能力,并成为终身学习者。
我们相信,阿里坎博士会为 MEF 大学通过整合像 ChatGPT 这样的尖端技术而采取的创新方向感到自豪,这将进一步增强教学和学习体验。作为一名教育先驱,他始终坚信实施新的和有效的教学方法,为学生提供最好的教育。他的精神继续激励我们追求教育卓越,我们将此书献给他以示纪念。
关于作者
卡罗琳·费尔·库尔班是一位学者、教育者和顾问,拥有丰富的教育背景,包括应用语言学博士、技术和学习设计文学硕士、对外英语教学硕士以及地质学荣誉学士。她在翻转学习方面的专业知识以及对数字教学和学习的出版物所做的贡献,对伊斯坦布尔的 MEF 大学推进举措起到了关键作用。作为主要研究员,卡罗琳丰富的背景和先前的研究影响了这一研究选择理论框架,以探讨 ChatGPT 在教育中的整合。她对克莱顿·克里斯坦森的“待完成工作”理论、通过布迪厄和马克思等理论家的权力动态批判性考察以及通过海德格尔的哲学对现象学的理解,为她的研究带来了全面的视角。凭借她的资历和对提升教育实践的激情,她非常适合领导这个项目。
穆罕默德·沙欣,一位备受尊敬的学术领导者,拥有伊斯坦布尔技术大学(ITU)的地理信息工程学位,并在 1991 年从伦敦大学学院获得硕士学位,1994 年从纽卡斯尔大学获得博士学位。他在 1994 年加入 ITU 担任助理教授,并在 2002 年晋升为终身教授。沙欣非凡的职业生涯包括 2008 年至 2012 年担任 ITU 校长,后来成为 MEF 大学的创始校长,该校是位于翻转学习方法论基础上的先锋机构,也是这项研究所在的地方。他在各种组织中担任尊贵的领导角色,对研究和战略管理做出了重大贡献,并在工程教育领域产生了重大影响,他的专业知识涵盖了多个领域。然而,他目前的热情和奉献集中在教育转型上,特别是关于技术如何重塑学习体验和赋予学生未来能力的方面。他坚信,应该与他人分享这种转型带来的经验,这也是这本书得以发展的原因。
前言
在教育领域动态且不断演变的格局中,最深刻的转变之一是新兴技术的整合。作为一名倡导所有人都能获得高质量教育的人,我发现这个技术进步的时代是一个引人入胜的转型时期。这本书深入探讨了教育中的人工智能(AI),特别是关注像 ChatGPT 这样的 AI 聊天机器人,以及它们对我们学习环境带来的影响。
我很高兴为这本书撰写前言,原因有两方面。首先,因为作者们对一个关键主题进行了严格的探索。其次,因为这个主题与我的职业生涯产生了共鸣,我一直在追求提高学生成绩和普及高质量教育的途径。
伊斯坦布尔的 MEF 大学,本书的研究焦点,以其整合 AI 而成为创新的灯塔,为这项研究提供了一个独特的背景。作者们批判性地审视了 ChatGPT,讨论了其发展、使用过程中的伦理考量,以及就 AI 技术伦理指南进行全球包容性对话的必要性。
从我担任美国教育部副部长到领导美国教育理事会,我见证了有意识的科技整合对高质量教育获取的影响。在这本书中,通过深入研究聊天机器人的历史和崛起,制定评估 AI 影响的理论框架,进行当代文献综述,并开展探索性案例研究,作者们揭示了 AI 聊天机器人有可能重塑教学和学习的根本基础。
作者所呈现的不仅是对 ChatGPT 的深入研究论文,而且是一个未来探索的工具。本书的结论章节提供了一个蓝图,说明了如何有效地、道德地整合这些 AI 技术到我们的课堂和机构中,这是我自己在职业生涯中试点早期教育技术项目时希望拥有的指南。
从这本书中获得的洞察力超越了 ChatGPT。它们将塑造我们作为教育者、政策制定者和学生如何应对教育领域快速变化的科技景观。作者不仅全面探讨了教育中的 AI 聊天机器人,还促使我们思考如何利用这项技术为所有学习者创造一个公平包容的未来。
在更大的背景下,AI 在教育中的整合是一个新的前沿。这本书为所有进入这个新领域的人提供了一本不可或缺的指南。我们站在教育新时代的边缘——一个 AI 可以帮助我们实现教育公平、卓越和可及性的共同目标的时代。
我们不仅要阅读这本书,更要行动起来,利用其洞察力确保一个所有学习者都能获得优质教育的未来。
特德·米切尔
美国教育委员会主席
前言
我很高兴向大家介绍我们新书,《ChatGPT 对高等教育的影响:探索 AI 革命》。作为土耳其伊斯坦布尔的 MEF 大学的创始校长,我自豪地说,我们的机构一直处于创新和尖端教育方法的前沿。
自从我们 2014 年作为世界上第一所完全翻转的大学成立以来,我们一直致力于为学生提供他们在未来职业生涯中成功所需的技能。然而,我们也认识到教育领域不断演变,我们必须相应地调整我们的方法。这就是为什么,在这本书中,我们兴奋地分享我们对 ChatGPT 可能如何影响学生、教师和高等教育机构角色的探索。
我们的大学在教育技术使用方面一直处于先锋地位。我们是翻转学习方法的早期采用者,这种方法现在已被广泛认可为一种有效的教学方法。我们还处于使用具有自适应学习能力的数字平台的前沿,为学生提供个性化的学习体验。
随着我们拥抱新的教育技术和创新方法,使用 ChatGPT 的教育 AI 潜力既令人兴奋又充满希望。然而,彻底探索和理解这项技术将如何影响学生、教师和大学本身至关重要。此外,大学将在全球 AI 话语中扮演至关重要的角色,因为它正在迅速改变我们生活的各个方面。
本书深入分析了我们机构探索性案例研究,调查 ChatGPT 对各种利益相关者的潜在影响。通过分享来自各种实践者观点的经验、轶事和观点,我们的目标是提供一个窗口,让我们一窥我们组织内部的变革。这项努力可以作为其他寻求进行类似调查的机构的有用参考。我们很高兴能站在这个讨论的前沿,并为这个领域的知识进步做出贡献。
穆罕默德·沙欣
MEF 大学校长
致谢
在创作这本书的过程中,我们非常幸运地得到了重要的支持、协助和灵感。我们对所有贡献者深表感激。我们的学生,尤其是 Levent Olcay、Utkan Enis Demirelgil、Nida Uygun 和 Mehmet Oğuzhan Unlu,为项目带来了无价的热情和洞察力。我们还要感谢我们学生志愿者 Muhammet Dursun Şahin 的勤奋协助。我们对İbrahim Arıkan Education and Scientific Research Foundation 深表感激,它是我们追求教育卓越的指路明灯,以及 MEF 大学的教师团队,他们的创新思想和持续的动力是不可或缺的。我们感谢 MEF 大学科学和工程学院院长、计算机工程系主任 Muhittin Gökmen 教授,他对像 Tegmark、Marcus、Davis 和 Russell 这样的 AI 理论家的宝贵见解极大地丰富了我们的理解。此外,我们还要感谢 MEF 大学教育学院院长 Mustafa Özcan 教授,他在整个项目期间持续反馈和坚定不移的支持。我们对 Paker Doğu Özdemir 及其在 MEF CELT 的团队,以及 MEF 图书馆工作人员,特别是 Ertuğrul Çimen 和 Ertuğrul Akyol 的无私支持和宝贵贡献表示感激。我们衷心的感谢也送给我们的同事,包括 Ted Mitchell,他的深思熟虑的序言为我们的工作定下了基调;Leonid Chechurin,他的敏锐批评;以及 Juliet Girdher,她对海德格尔的专长通过海德格尔的视角丰富了我们对 AI 的理解。我们还感谢我们 AI 智库的成员,包括 Errol St Clair Smith、Thomas Menella、Dan Jones 和 Juli Ross-Kleinmann,他们的深思熟虑的讨论帮助我们塑造了我们的想法。最后,我们对我们真诚感谢 Emerald Publishing,使这本书成为可能。本质上,这本书是对协作力量和知识追求的力量的证明。你们每个人都丰富了我们的工作,留下了我们永远感激的不可磨灭的印记。谢谢。
第一章
探索 ChatGPT 对高等教育的影响——案例研究
人工智能的革命性影响
在漫长的历史中,技术进步一直颠覆着传统实践,迫使个人调整并权衡新兴技术的潜在利弊。从印刷术到黑板,从计算机到互联网,每一次新的创新都塑造了我们的教学和学习方式。人工智能(AI)预计将成为下一个催化性的飞跃。尽管 AI 自 20 世纪 50 年代中期以来就已经存在,但直到最近,数据挖掘、高级算法和具有巨大内存的强大计算机才得到发展,从而使 AI 越来越相关。从 20 世纪 50 年代的解决问题到 20 世纪 60 年代的人类推理模拟,从 20 世纪 70 年代的早期测绘项目到 21 世纪初智能助手的开发,AI 取得了令人印象深刻的进步。今天,AI 体现在家庭个人助理如 Siri 和 Alexa、自动驾驶汽车和自动化法律助理中。它还催生了 AI 辅助商店、AI 赋能医院以及无处不在的物联网。在高等教育领域,AI 技术的整合对传统的教学和学习实践具有变革性的潜力。然而,随着 ChatGPT 这一颠覆性 AI 聊天机器人的出现,一个新时代已经到来。那么,什么是 ChatGPT?
Chat Generative Pre-trained Transformer(ChatGPT)的到来
ChatGPT,由 OpenAI 开发的一款有影响力的 AI 聊天机器人,已成为教育领域的颠覆者,通过自然语言处理(NLP)为学生提供动态且类似人类的对话。自 2022 年 11 月 30 日推出以来,ChatGPT 已经彻底改变了教育格局,为学生提供了即时获取信息、个性化推荐以及在整个学术旅程中持续的支持。然而,其应用也引发了关于学术诚信的担忧,导致一些机构禁止其使用或采取更严格的评估方法来对抗基于 AI 的作弊行为。这引发了全球教育者的讨论,争论 ChatGPT 代表的是机遇还是威胁。
ChatGPT 的核心运作方式是通过利用自然语言处理(NLP)的力量,以对话的方式理解和回应人类查询。通过先进的算法和机器学习技术,ChatGPT 在庞大的数据集上进行了训练,以生成类似人类的回应,使其成为与学生互动的不可或缺的工具。ChatGPT 对话的互动性和个性化特性使其在教育领域中极具价值。学生可以立即获取他们问题的答案、相关资源和基于其学习需求的定制推荐。无论是寻求澄清、额外信息还是指导,ChatGPT 都作为可靠且随时可用的支持系统贯穿他们的学术旅程。此外,教师可以利用 ChatGPT 简化行政任务并提升学习体验。通过自动化常规行政流程,如回答常见问题并提供课程相关信息,教师可以有更多时间专注于与学生的有意义互动。此外,ChatGPT 还可以提供及时和个性化的反馈,为学生提供实时指导和支持。将 ChatGPT 整合到教育环境中可以带来更加吸引人和互动的学习体验。学生从即时帮助、个性化指导和支持性的学习环境中受益,而教师则可以优化他们的教学实践并促进更有意义的互动。
如我们所见,ChatGPT 在高等教育中的潜力是光明的。然而,认识到其伴随的注意事项是至关重要的。首先,解决围绕 ChatGPT 的伦理考虑和限制是至关重要的。这包括对其依赖启发式方法、内部运作缺乏透明度、能力与对齐问题、帮助性限制、可解释性挑战、偏见和公平性问题、事实准确性和真实性,以及关于数据隐私和网络安全方面的伦理担忧。此外,ChatGPT 对包括高等教育在内的行业的影响需要彻底调查。ChatGPT 等人工智能技术的集成对就业市场产生了变革性影响,导致职位被消除和转变,需要重新评估传统的工作模式。在教育领域,随着 ChatGPT 改变工作角色,机构和企业面临着颠覆性的挑战,这引发了关于人类专业知识和批判性思维技能价值的疑问。此外,实施和持续支持相关的财务影响和成本需要仔细考虑。此外,AI 力量的集中和可能的企业主导地位是关键因素,需要探索。少数主导公司控制并影响 AI 的风险引发了关于多样性有限、选择有限和公平竞争的担忧,强调了处理数据所有权、隐私和垄断行为可能性的必要性。建立全面的政策和法规对于确保 ChatGPT 和类似技术的道德使用、负责任部署和问责制至关重要。最后,关于 ChatGPT 在教学中、学习中和高等教育机构中的具体影响的研究的稀缺,凸显了调查的重要性。案例研究的有限可用性、学生观点的不足以及对学生教育目标和实践必要调整的不充分理解,造成了巨大的知识差距。因此,鉴于其潜力和相关注意事项,对高等教育中 ChatGPT 的调查是至关重要的。
在 COVID-19 大流行之后,教育方法经历了重大转变。然而,与 ChatGPT 的出现相比,大流行的影响可能相对较小。虽然随着大流行的消退,教师和机构有选择回归传统教育方法,但 ChatGPT 和 AI 聊天机器人的情况并非如此。事实上,有人可能会认为 ChatGPT 代表了教育领域的一种新的“大流行”。那么,我们应该如何应对这种情况呢?
MEF 大学对 ChatGPT 的回应
MEF 大学,一家位于土耳其伊斯坦布尔的先锋非营利私立机构,自成立以来一直处于拥抱创新教育方法的尖端。由İbrahim Arıkan 博士创立,该大学旨在通过为学生提供未来职业所需的技能,并应对当代产业和社会的动态需求,来革新高等教育。通过战略性地投资基础设施和尖端技术,MEF 巩固了其作为前瞻性机构的声誉。自 2014 年成立以来,MEF 通过在其整个校园内全面采用翻转学习方法,成为了一个开拓者。这种教学模式强调以学生为中心的学习和批判性思维技能的培养。在这个框架下,学生将在课外时间与课程内容互动,而在课堂时间则致力于这些原则的实际应用。教师扮演着促进者或教练的角色,提供个性化的支持和反馈。然而,MEF 大学对提升学习体验和拥抱创新的承诺并未止步于此。2019 年,该机构逐步淘汰了传统的期末考试,转而采用基于项目和产品评估的方法,以培养主动学习和知识应用的实质性应用。此外,数字平台和自适应学习技术被无缝集成到课程中,提供互动资源,并根据每个学生的独特需求定制学习之旅。大规模开放在线课程(MOOCs)的整合进一步扩大了自主学习的机会,最终导致了翻转、自适应、数字和主动学习(FADAL)模型(Şahin & Fell Kurban, 2019)的发展。当 2020 年 COVID-19 大流行爆发时,这一模型证明了其价值。在传统机构为过渡到在线学习而挣扎时,MEF 大学的 FADAL 方法促进了无缝的转变。该机构对技术、主动学习和个性化教育的重视确保了远程学习的顺利过渡。包括在国家学生满意度调查中被认定为土耳其最顶尖的大学,以及获得 2020 年 Blackboard Catalyst 奖(教学与学习奖)在内的赞誉,突显了 MEF 成功适应新教育格局的能力。在此基础上,该机构于 2021 年推出了人工智能辅修课程,数据科学和人工智能,该课程为所有院系的学生提供了数据管理、分析、机器学习和深度学习的全面技能,为他们准备实际应用。通过这些战略举措,MEF 大学对颠覆性创新和新技术的投资使其在培养学生满足行业和社会不断变化的需求方面成为领导者。
ChatGPT 于 2022 年 11 月 30 日的公开发布,在 MEF 大学引发了关于其给高等教育带来的潜在机遇和挑战的激烈讨论。作为回应,大学中的三位个人自愿从 2022 年 12 月到 2023 年 1 月进行了一项初步实验。这项实验涉及将 ChatGPT 整合到课程设计、课堂活动和评估其对评估和考试的影响。这次实验的结果促使 2023 年 1 月举行了一次教师会议。在这次会议上,介绍了 ChatGPT 的起源和潜在影响,志愿者们分享了其在各种教育环境中的应用的具体例子。会议期间表达的多样化观点强调了在 MEF 大学全面探索 ChatGPT 对教育影响的必要性。具体来说,大学旨在了解 ChatGPT 如何可能重塑学生、教师和高等教育机构的作用。认识到形势的严重性和进一步探索的必要性,本书中概述的研究项目概念由此产生。
我们研究项目的核心目标包括对 ChatGPT 在高等教育领域对学生和教师潜在影响的彻底探索。通过沉浸在这项变革性技术的实施中,我们的研究旨在揭示可能出现的挑战和障碍。这一努力为 AI 聊天机器人如 ChatGPT 在重塑教学和学习景观中可能发挥的变革性作用提供了宝贵的见解。我们的总体使命是深入研究 ChatGPT 的整合如何重新定义学生、教师和高等教育机构的角色。通过这一调查,我们希望深入了解 AI 聊天机器人可能如何重塑教育领域的动态和责任。通过审视这些转变,我们寻求对教育工作者、学习者以及整个大学的影响的见解。此外,我们的研究旨在对围绕高等教育中 AI 技术整合的更广泛讨论做出贡献。在三个关键研究问题的指导下进行我们的调查,即“ChatGPT 可能如何影响学生的角色?”;“ChatGPT 可能如何影响教师的角色?”以及“ChatGPT 可能如何影响高等教育机构?”我们的研究旨在提供有价值的见解,这些见解将指导教育实践、政策制定并塑造高等教育机构中 AI 技术的未来整合。最终,我们的研究努力旨在对 ChatGPT 的潜在利益和考虑因素有更深入的理解,确保其在高等教育领域中的有效和负责任整合。
本书的目的和范围
本书旨在对 MEF 大学的探索性案例研究进行全面分析,深入探讨 ChatGPT 对各方利益相关者的潜在影响。借鉴不同的视角、经验和轶事,我们的目标是提供一个深刻的理解,了解我们机构内部正在发生的转型性变化。通过深入研究这些发现,我们旨在对关于 ChatGPT 在高等教育中影响的更广泛讨论做出有意义的贡献,并为面临类似调查的机构提供有价值的见解。
在本章的开篇,我们介绍了 ChatGPT 并强调了调查其在高等教育中作用的重要性。我们确立了我们的研究背景、进行这项研究的原因、研究目标和研究问题。第二章深入探讨了聊天机器人的出现,揭示了它们的局限性和伦理考量。此外,我们还探讨了 ChatGPT 对就业和教育产生的深远影响,以及针对这些变化而不断演变的政策。我们通过讨论应对与 AI 相关的潜在风险的稳健政策来结束本章。第三章通过结合批判理论和现象学构建了一个理论框架。这个框架使我们能够全面考察 ChatGPT 的影响,包括权力动态、社会结构、主观经验和意识,从而更深入地了解其相关性和更广泛的影响。在第四章中,我们回顾了 ChatGPT 在高等教育中的文献,确定了有价值的见解和具体差距,并解释了我们的研究如何填补这些差距并推进理解。第五章介绍了研究方法,采用在 MEF 的定性探索性案例研究方法。我们利用访谈、观察、研究日记和调查进行数据收集。主题分析有助于解释数据,导致主题的识别,包括:ChatGPT 的输入质量和输出有效性、ChatGPT 的局限性和挑战、与 ChatGPT 的人性化互动;ChatGPT 作为个人助手/导师的角色;ChatGPT 对用户学习的影响和通用机器人对教育背景的局限性。第六章对这些主题进行了解释,将它们与研究问题、数据、文献综述和理论框架联系起来。随后,本书转向讨论从研究结果和解释中得出的实际影响。在第七章中,我们深入探讨了伦理影响,包括批评 AI 检测工具、审查当前的 AI 引用系统、在 AI 时代重新思考剽窃的必要性、培养 AI 伦理熟练度的需要以及加强大学伦理委员会作用的重要性。第八章深入探讨了产品影响,强调所有学生公平访问 AI 机器人的必要性、促进行业合作以了解 AI 发展的必要性、我们应如何处理专门机器人的决策以及将提示工程课程整合到课程中的重要性。第九章探讨了教育影响,讨论了 AI 对基础学习的影响、我们如何通过翻转学习来应对 AI 挑战、我们如何设计 AI 弹性评估和教学策略,以及培养学生和教师 AI 素养的重要性。在第十章中,我们强调了我们的研究对知识和研究的贡献。从对研究结构的概述开始,本章深入探讨了关键见解和发现,回顾了基本主题。我们讨论了理论框架,通过在教育研究中融合哲学和技术来推进 AI 话语。我们探讨了高等教育机构的具体实际影响。此外,我们主张大学有义务积极参与全球 AI 对话。在解决研究局限性的同时,我们概述了如何在未来的研究中克服它们。我们还提出了对其他相关研究领域的建议,以进一步探索高等教育中的 AI。本章最后强调了我们作为 AI 叙事作者的角色的作用,我们有力量根据我们的共同价值观和愿望来塑造 AI 技术。
总结来说,这本书全面探讨了 ChatGPT 在我们机构以及整个高等教育领域的影响。我们深入的研究案例为我们揭示了 AI 工具如 ChatGPT 的变革力量。通过分享这些见解及其更广泛的影响,我们的目标是促进有意义的讨论、批判性的参与和有目的的倡议。我们的努力为其他机构提供了宝贵的指导,使我们能够反思我们的经验,并展望一个教育在 AI 增强环境中繁荣的未来。我们向教育工作者、大学领导者和机构发出诚挚的邀请,与我们一同负责任地利用 AI 的潜力,从而塑造一个更加光明的教育前景。
第二章
探索人工智能聊天机器人的领域
聊天机器人的出现和增长
人工智能(AI)通过处理大量数据和执行类似人类能力的工作(Anyoha,2017 年)改变了人类的存在。早期的 AI 面临挑战,但逻辑理论家(Anyoha,2017 年)的突破展示了其潜力。在 1990 年代和 2000 年代蓬勃发展,AI 尽管面临资金障碍,但仍实现了里程碑式的目标(Anyoha,2017 年)。对话式 AI 系统的发展取得了显著进展,例如 ELIZA、ALICE 和 SmarterChild(Adamopoulou & Moussiades,2020;Shum 等人,2018 年)。2022 年 11 月,OpenAI 发布了 Chat Generative Pre-trained Transformer(ChatGPT),这是一个拥有 1750 亿参数的强大自然语言处理(NLP)模型,迅速获得了百万用户。2020 年开发的 GPT-3.5 标志着语言模型的一个重要进步,能够从任何文本中学习并执行各种任务(Rudolph 等人,2023 年)。
在 2022 年,OpenAI 发布了 ChatGPT-3.5,随后在 2023 年发布了 GPT-4。值得注意的是,像微软这样的公司无缝地将 ChatGPT 集成到他们的产品中(Milmo, 2023a; Waugh, 2023)。ChatGPT 日益增长的受欢迎程度引发了关于搜索引擎未来的讨论,尤其是关于谷歌(Paleja, 2023b)。作为回应,谷歌推出了自己的聊天机器人技术,包括 LaMDA 和 Apprentice Bard(Milmo, 2023a)。Alphabet 的首席执行官 Sundar Pichai 表达了对谷歌 AI 能力的坚定信心(Milmo, 2023a),并透露了将聊天机器人无缝集成到他们产品中的计划。此外,其他公司也进入了 AI 聊天机器人领域。2023 年 4 月,Twitter(现更名为 X)的首席执行官埃隆·马斯克(Elon Musk)在回应 ChatGPT 不愿讨论有争议的话题时,俏皮地提出了“TruthGPT”的想法。马斯克强调了需要一个不受此类限制的 AI 系统,这导致了基于加密货币的项目来应对这一挑战的诞生(Sabarwal, 2023)。后来,在 2023 年 7 月,Meta 推出了其先进的 AI 系统“Llama 2”。马克·扎克伯格(Mark Zuckerberg)自豪地宣布了与微软的合作,以及该 AI 系统在研究和商业用途上的可用性(Sankaran, 2023)。因此,行业现在在机器学习模型开发方面已经领先,超过了学术界。这就是目前的状况。然而,接下来会发生什么呢?
OpenAI 表示,其长期目标是创造“通用人工智能”(AGI)(Brockman & Sutskever, 2015)。AGI 指的是能够以与人类智能相当的方式理解、学习和应用知识的 AI 系统。AGI 将能够执行广泛的任务,并适应新情况,而无需为每个特定任务进行明确编程,使其成为比目前可用的专用、窄 AI 系统更高层次的 AI。科技企业家 Siqi Chen 声称,GPT-5 将在 2023 年底实现 AGI,这在 AI 社区中引起了兴奋(Tamim, 2023)。Chen 的声明,尽管在 OpenAI 并未得到广泛认同,但表明生成式 AI 正在取得重大进展(Tamim, 2023)。OpenAI 的首席执行官 Sam Altman 更进一步,暗示 AI 系统有可能远远超越 AGI(Sharma, 2023)。他相信,AI 目前的轨迹表明,在不久的将来,它具有前所未有的能力和影响(Sharma, 2023)。总之,AI 对人类存在的变革性影响,加上像 ChatGPT 这样的聊天机器人的快速进步,突显了在各个行业以及 AI 整体领域可能发生重大变化的潜力。然而,这也伴随着一些警告。
人工智能中的挑战和伦理考量
随着像 ChatGPT 这样的 AI 聊天机器人不断进化并在我们的日常生活中变得越来越普遍,我们开始更多地了解它们的局限性。围绕 ChatGPT 最大的问题之一是它是如何工作的,甚至其创造者本身也不完全理解它。他们试图使用 AI 来解释该模型,但由于 GPT(Griffin, 2023)等大型语言模型中存在的“黑箱”现象,他们遇到了挑战。这种缺乏透明度引发了关于偏见和向用户传播不准确信息的担忧。研究人员正在探索“可解释性研究”以了解 AI 模型的内部运作(Griffin, 2023)。一种方法涉及研究系统中的单个“神经元”,但由于数十亿参数的复杂性,手动检查变得不切实际。为了解决这个问题,OpenAI 的研究人员使用了 GPT-4 来自动检查系统行为(Griffin, 2023)。尽管在提供类似人类的解释方面存在局限性,但研究人员仍然对 AI 技术通过持续研究实现自我解释的潜力持乐观态度(Griffin, 2023)。然而,还需要进一步的工作来克服这一领域的挑战,包括用日常语言描述系统的运作,以及考虑单个神经元功能性的整体影响(Griffin, 2023)。
ChatGPT 的核心是语言处理,包括语法、词汇和文化背景等多个方面。虽然它可以执行许多与语言相关的任务,但其理解仅限于从训练数据中学习到的模式。与人类不同,ChatGPT 缺乏真正的意识或自我意识,依赖于启发式方法,这些是用于在复杂情况下做出高效决策的经验法则(Kahneman, 2011)。在语言处理中,启发式方法有助于解析句子、识别模式和根据上下文推断意义。ChatGPT 使用在大量文本数据上训练的深度学习算法来生成相关且连贯的响应(Sánchez-Adame et al., 2021)。然而,语言的持续演变和复杂性仍然为 AI 聊天机器人带来了限制。
ChatGPT 也存在一些局限性,导致其知识库存在空白以及生成准确响应的问题(Johnson, 2022; Rudolph et al., 2023)。它经常会重复短语,拒绝问题或对问题进行轻微修改后提供答案(Johnson, 2022)。此外,一些聊天机器人,包括 ChatGPT,被观察到使用具有性别歧视、种族主义和传播虚假信息的语言(Johnson, 2022)。这些问题源于将模型的行为与人类价值观和期望相一致性的挑战(Ramponi, 2022)。像 ChatGPT 这样的大型语言模型被训练以优化其目标函数,这在生成文本时可能并不总是与人类价值观相一致(Ramponi, 2022)。这种不一致性可能会阻碍聊天机器人在需要可靠性和信任的系统中的实际应用,影响人类体验(Ramponi, 2022)。这些问题通常以以下方式出现(Ramponi, 2022):
-
缺乏实用性
-
当语言模型未能准确理解并执行用户提供的具体指令时。
-
幻觉
-
当模型生成虚构或错误的信息时。
-
缺乏可解释性
-
当人类难以理解模型得出特定决策或预测的过程时。
-
生成具有偏见或毒性的输出
-
当模型生成的输出重现了这种偏见或毒性(由于在具有偏见或毒性数据的上训练)即使它并非有意为之。
但为什么会出现这种情况?像 transformers 这样的语言模型使用下一标记预测和掩码语言建模技术来学习语言的统计结构(Ramponi, 2022)。然而,这些技术可能会引起问题,因为模型无法区分重要和微不足道的错误,导致在更复杂的任务中产生不一致性(Ramponi, 2022)。OpenAI 计划通过发布 ChatGPT 的有限版本(ChatGPT-3.5)并逐渐通过结合监督学习和强化学习(包括来自人类反馈的强化学习)来增加其能力,以微调模型并减少有害输出(Ramponi, 2022)。这涉及三个步骤,尽管步骤二和三可以持续迭代。
-
第一阶段
-
在标记数据上微调预训练的语言模型以创建一个监督策略。
-
第二阶段
-
通过让标签员对策略模型的输出进行投票来创建一个比较数据集,并在这些数据上训练一个新的奖励模型。
-
第三阶段
-
通过近端策略优化使用奖励模型进一步微调和改进监督策略。
(Ramponi, 2022)
OpenAI 使用一个基于人工智能的审核应用程序编程接口 (API),来检测其内容政策违规行为,并确保避免有害语言,例如性别歧视和虚假新闻(Johnson, 2022)。然而,该系统并不完美,存在缺陷,正如一位推特用户绕过它分享不适当内容的情况所示(Johnson, 2022)。OpenAI 承认其语言模型,包括 ChatGPT-4,尽管其功能先进,但可能产生有害或不准确的内容的挑战和限制(Waugh, 2023)。尽管他们正在通过监督学习和强化学习以及与外部研究人员合作来积极改进系统,但与可解释性和幻觉相关的问题仍然未得到解决(Waugh, 2023)。
人工智能伦理是一个快速发展的领域,尤其是随着生成式人工智能系统(GAI)的兴起,使公平性、偏见和伦理考量变得至关重要(Maslej et al., 2023)。2023 年人工智能指数报告突出了人工智能系统中存在的不公平性和偏见,可能导致潜在的损害,如配置和代表性损害(Maslej et al., 2023)。华盛顿大学计算语言学家 Emily Bender 警告说,由于训练数据,语言模型可能会携带偏见,导致问题性结果(Grove, 2023)。人工智能相关伦理问题的实例正在增加,如算法和自动化事件及争议存储库所示(Maslej et al., 2023)。例如,人工智能在美国监狱的使用引发了歧视的担忧,而伦敦的帮派暴力矩阵因偏见而受到批评(Maslej et al., 2023)。Midjourney 的 AI 生成的图像也引发了伦理担忧(Maslej et al., 2023)。公平算法对于防止此类问题至关重要,但目前,人工智能事件和争议正在增加,突显了持续伦理警觉的必要性(Maslej et al., 2023)。为了解决人工智能中的偏见问题,正在使用各种应用。Alphabet 的 Jigsaw 的视角 API 评估语言的毒性,其使用因人工智能部署的增长而增加了 106%(Maslej et al., 2023)。SuperGLUE 的 Winogender 任务衡量与职业相关的 AI 系统中的性别偏见,评估典型代词的使用(Maslej et al., 2023)。在指导数据集上微调的指令调整模型已显示出改进的性能,但它们可能依赖于刻板印象(Maslej et al., 2023)。BBQ 和 HELM 基准测试评估问答系统中的偏见和公平性,突显了准确性和偏见指标之间的权衡(Maslej et al., 2023)。此外,机器翻译模型在性别化代词上存在困难,导致翻译错误和潜在的降格(Maslej et al., 2023)。尽管存在这些挑战,但这些应用是减轻偏见和促进道德人工智能实践的宝贵工具。
对话式人工智能也引发了伦理问题。吕勒奥大学的学者发现,在分析的聊天机器人中,有 37%被设定为女性性别,而 62.5%的流行商业聊天机器人默认为女性,这可能会加剧偏见(Maslej 等人,2023 年)。此外,对话系统可能过度拟人化,使用户感到不适,对话数据集中许多例子被评为机器输出不可能或不舒服(Maslej 等人,2023 年)。明确的政策干预和对局限性的认识对于解决这些问题并促进与用户的更好沟通至关重要。文本到图像模型也存在偏见。Meta 研究人员发现,与之前在 ImageNet 上训练的模型相比,Instagram 训练的模型偏见较小(Maslej 等人,2023 年)。而社会责任、环境责任和伦理责任(SEER)模型展示了更公平的人的表征(Maslej 等人,2023 年)。然而,在未经用户意识的情况下使用公共数据进行人工智能训练可能是不道德的。一项比较预训练视觉语言模型的研究揭示了较大模型中的性别偏见,其中对比语言-图像预训练(CLIP)具有更多偏见但相关性更高(Maslej 等人,2023 年)。Stable Diffusion 和 DALL-E 2 展现了偏见,Midjourney 也是如此,它们生成的图像强化了刻板印象(Maslej 等人,2023 年)。例如,输入“CEO”会提示男性穿西装的图像(Maslej 等人,2023 年)。
AI 伦理研究在会议和出版物中经历了显著的增长和关注。公平、问责和透明度(FAccT)是一个跨学科会议,是研究算法公平和透明度的一个突出平台,自 2018 年以来提交的论文数量增加了十倍(Maslej 等人,2023 年)。行业和政府相关行动者对 AI 伦理的兴趣表明,它对政策制定者、实践者和研究人员的相关性(Maslej 等人,2023 年)。欧洲对该领域的贡献也在增加,尽管大多数作者仍然来自北美和西方国家(Maslej 等人,2023 年)。近年来,关于 AI 中的公平性和偏见的工作坊出现了,NeurIPS 在 2014 年举办了其第一个关于公平、问责和透明度的工作坊(Maslej 等人,2023 年)。某些主题,如“AI 用于科学”和“AI 用于气候”,已经变得流行,并从工作坊转向主轨道,反映了 AI 在医疗保健和气候研究中的应用激增(Maslej 等人,2023 年)。NeurIPS 上关于可解释性和可解释性的论文数量也在增加,尤其是在主轨道上(Maslej 等人,2023 年)。此外,统计方法如因果推理被用来解决公平性和偏见问题,导致 NeurIPS 上关于因果推理和反事实分析的论文提交数量显著增加(Maslej 等人,2023 年)。机器学习中的隐私问题也已成为一个主流关注点,NeurIPS 举办了工作坊和隐私讨论,这些讨论已进入主轨道(Maslej 等人,2023 年)。现在,会议要求作者提交更广泛的冲击声明,以解决伦理和社会后果,这表明对伦理考量的重视正在增加(Maslej 等人,2023 年)。关于公平性和偏见的论文数量激增以及工作坊接受率的增加,反映了研究人员和实践者对这个话题的兴趣和重要性日益增加(Maslej 等人,2023 年)。
AI 算法在事实性和真实性方面也面临着挑战。这导致了使用事实核查数据集(Maslej 等人,2023 年)开发 AI 进行事实核查和对抗虚假信息的出现。然而,自然语言事实核查的研究似乎已经发生了转变,广泛使用的如 FEVER、LIAR 和《色彩各异的真相》等事实核查基准的引用量似乎已经达到顶峰(Maslej 等人,2023 年)。自动事实核查系统存在局限性,因为它们假设对于新的虚假主张有可用的矛盾证据,而某些数据集缺乏足够的证据或使用不切实际的核查文章作为证据(Maslej 等人,2023 年)。为了解决这些挑战,开发 TruthfulQA 基准评估语言模型在问答中的真实性,测试各种类别中的错误观念(Maslej 等人,2023 年)。
人工智能界面,如聊天机器人,具有实际效益,但由于其潜在的侵入性数据收集能力(O'Flaherty, 2023),也引发了隐私担忧。与搜索引擎不同,聊天机器人的对话性质可能会让用户措手不及,导致他们透露更多个人信息(O'Flaherty, 2023)。聊天机器人可以收集各种类型的数据,包括文本、语音、设备、位置和社交媒体活动,这可能会使定向广告成为可能(O'Flaherty, 2023)。微软考虑将广告添加到 Bing Chat,以及谷歌隐私政策允许使用用户数据进行定向广告,进一步引发了担忧(O'Flaherty, 2023)。然而,ChatGPT 的隐私政策被认为优先考虑个人数据保护,并禁止商业利用(Moscona,据 O'Flaherty,2023 年引用)。
针对数据隐私和网络安全问题,一些国家和公司最初对像 ChatGPT 这样的生成式 AI 技术的使用实施了禁令。例如,意大利颁布了一项法令,禁止使用此类技术处理个人数据,理由是可能威胁到数据隐私(Paleja, 2023c)。然而,在 OpenAI 解决了监管要求后,禁令后来被取消(Robertson, 2023)。其他人则发布了警告。像摩根大通和亚马逊这样的公司限制了员工使用 ChatGPT(O'Flaherty, 2023)。数据咨询公司 Covelent 建议谨慎行事,建议遵守安全政策并避免分享敏感信息(O'Flaherty, 2023)。即使是聊天机器人公司 ChatGPT 和微软也警告在对话中不要分享敏感数据(O'Flaherty, 2023)。这些行动突显了与 AI 聊天机器人相关的严重数据隐私威胁。
此外,人们还担心,像 ChatGPT 这样的 AI 界面有可能促进欺诈、传播虚假信息和使网络安全攻击成为可能,从而带来生存风险(O'Flaherty, 2023)。专家警告,由于聊天机器人能够用多种语言生成内容且语言技能无懈可击,因此可能会创建高级钓鱼邮件(O'Flaherty, 2023)。此外,聊天机器人可能会传播虚假信息,帮助制作逼真的深度伪造视频,并在社交媒体平台上传播有害宣传(Tamim, 2023)。这些风险已经显现,聊天机器人被用于恶意目的,例如生成虚假新闻(Moran, 2023)。此外,AI 还带来了安全风险,帮助网络犯罪分子进行更具说服力和效率的网络安全攻击(O'Flaherty, 2023)。
同时,围绕 AI 引擎如 ChatGPT 在内容审核中对非洲工人的潜在剥削也存在道德担忧(Schamus, 2023)。这些工人每天的收入不到 2 美元,他们处理令人痛苦的在线内容以训练 AI 引擎,引发了关于他们努力可持续性和公平性的问题(Schamus, 2023)。美国组织利用非洲劳动力进行数据挖掘和清洗,凸显了依靠来自经济较不发达地区的低收入个体来造福更富裕地区的道德困境。因此,解决这些道德问题是 AI 工具负责任发展的关键。
人工智能研究员和伦理学家 Meredith Whitaker 强调,生成式 AI 严重依赖于从网络中抓取的大量监控数据(Bhuiyan, 2023)。然而,这些数据的特定来源,包括从作家、记者、艺术家和音乐家那里获得,却未由像 OpenAI 这样的专有公司公开(Bhuiyan, 2023)。这引发了关于潜在版权侵犯和对内容创作者缺乏公平补偿的担忧。当被问及对创作者的补偿时,OpenAI 的首席执行官 Sam Altman 提到了正在进行的讨论,但没有给出明确的答复(Bhuiyan, 2023)。使用 AI 模型进行训练的本地新闻出版物的内容也引起了关注,Altman 表示希望支持记者,同时考虑可能的行动(Bhuiyan, 2023)。尽管如此,外部监管解决这些问题的必要性是显而易见的(Bhuiyan, 2023)。
人工智能技术对环境的影响,尤其是大型语言模型,正日益成为关注的焦点。为像 ChatGPT 这样的 AI 模型提供强大服务器的数据中心,对碳排放做出了重大贡献(McLean, 2023)。电力来源,无论是煤炭还是可再生能源,都会进一步影响排放水平(McLean, 2023)。此外,AI 模型的用水足迹也非常大;例如,在 GPT-3 的训练过程中,微软的数据中心使用了大约 70 万升淡水,相当于数百辆汽车所需的用水量(McLean, 2023)。因此,解决这些环境问题至关重要,并且迫切需要发现可持续的解决方案,因为这些模型继续扩大其规模(McLean, 2023)。
人工智能对就业市场的影响
人工智能不再是我们在电影中看到的未来概念;它现在是我们日常生活中的一部分——从个人到组织,从企业到政府。人工智能技术的进步导致了其快速部署,但权力越大,责任越大。历史学家尤瓦尔·赫拉利(2018 年)建议,为了理解这些技术挑战的本质,我们应该从询问关于就业市场的问题开始:2050 年的就业市场会是什么样子?人工智能会影响所有行业吗?如果是这样,会如何以及何时?在未来的十年或二十年内,数十亿人可能会变得经济上过剩吗?或者,自动化是否会继续创造新的工作并为所有人带来更大的繁荣?这会反映出工业革命带来的积极影响,还是这次情况不同?鉴于专家之间的持续辩论和缺乏共识,本节旨在对上述问题提供一些答案。
我们现在开始听到越来越多的主流对话,讨论人工智能和人工智能聊天机器人将对社会和产业产生的社会经济影响。根据 2023 年人工智能指数报告,除了农业、林业、渔业和狩猎外,人工智能相关技能的需求在美国经济几乎所有部门都在迅速增长。报告强调,在 2021 年和 2022 年之间,人工智能相关职位发布数量平均从 1.7%增加到 1.9%(Maslej 等人,2023 年)。据 Business Insider 报道,像 ChatGPT 这样的 AI 技术可能会彻底改变金融、客户服务、媒体、软件工程、法律和教学等各个行业的就业,包括潜在的收益和损失(Mok 和 Zinkula,2023 年)。这可能会以下列方式发生。
在金融领域,人们认为,不久的将来,AI 驱动的机器人将处理复杂的金融问题,使顾问和首席财务官能够通过利用 AI 的知识做出实时决策。他们还将能够执行信息分析、模式检测和预测。此外,ChatGPT 将通过分析数据和提供关于客户行为的见解,以及组织信息和生成营销材料,为金融领域的营销人员节省时间(“ChatGPT 和 AI 将如何影响金融行业?”2023 年)。此外,ChatGPT 有可能颠覆华尔街各个行业的就业,包括交易和投资银行。这是因为 ChatGPT 可以自动化知识工作者今天执行的一些任务。一个优势是,这将使他们能够专注于更高价值的工作。然而,这也意味着 AI 可能会做某些工作,这些工作目前是由在投资银行工作的大学毕业生做的(Mok 和 Zinkula,2023 年)。这可能会导致低级或入门级工作的消失。
当谈到客户服务和参与度时,根据福布斯的说法,对话式 AI,如 ChatGPT,有可能通过提供类似人类的对话来应对每个用户的关注点,从而彻底改变客户服务。与遵循预定路径且缺乏灵活性的传统聊天机器人不同,对话式 AI 可以自动化客户服务代表所需的前期工作,使他们能够专注于高价值客户和需要人类互动的复杂案例(Fowler, 2023)。
那么,关于创意艺术领域呢?福布斯预测,ChatGPT 预计将对广告、内容创作、文案写作、文案编辑和新闻业的工作产生重大影响(Fowler, 2023)。此外,由于 AI 分析和理解文本的能力,ChatGPT 很可能会改变与媒体相关的各种工作,包括使文章写作、编辑和事实核查、为内容创作者编写剧本以及为社交媒体帖子撰写广告文案等任务成为可能(Fowler, 2023)。实际上,我们已经开始看到聊天机器人起草剧本(Stern, 2023),撰写演讲稿(Karp, 2023),撰写小说(Bensinger, 2023),并被公关公司用来“在几秒钟内研究、开发、识别客户价值或变化趋势,并为……客户制定最佳营销策略”(Martinez, 2023)。受影响的员工对这些发展已经有了明显的反应。2023 年 5 月初在洛杉矶,数千名电影和电视编剧发起了罢工,后来演员和其他电影界人士也加入了进来,目的不仅是为了解决财务问题,还旨在制定规则,防止制片厂使用 AI 生成剧本,排除人类在创作过程中的参与(Hinsliff, 2023)。这种转变也在 Buzzfeed 上得到了体现,Buzzfeed 是许多开始使用 AI 生成内容来创建文章和社交媒体帖子的出版商之一,目的是提高效率和产出(Tarantola, 2023)。然而,许多人对 AI 生成内容的品质仍然表示担忧(Tarantola, 2023)。另一个受到影响领域是时尚业,AI 在这里被用于从分析数据以设计即将推出的系列到从创意总监的草图和细节中生成各种风格(Harreis, 2023)。
当谈到工程时,虽然 ChatGPT 可能能够通过生成工程计算答案和提供一般工程知识信息来帮助工程师工作,但它无法取代工程师在设计和生产开发过程中带来的知识、专业和创新(Brown-Siebenaler,2023)。然而,在软件工程方面,可能会有很多变化。软件工程涉及大量手动工作和对细节的关注。然而,ChatGPT 可以比人类更快地生成代码,这将提高效率、识别错误和增加代码生成速度,同时降低资源成本(Mok & Zinkula,2023)。
关于医疗保健,哈拉里(2018)通过比较医生和护士的工作来给出以下例子。医生主要处理医疗信息,而护士在履行职责时不仅需要认知技能,还需要运动和情感技能。哈拉里认为这使我们更有可能在智能手机上拥有一个可靠的护士机器人之前,先拥有一个 AI 家庭医生。因此,他预计人类护理行业将长期由人类主导,并且由于人口老龄化,这很可能是增长行业。现在有证据出现来支持哈拉里的观点。加州大学圣地亚哥分校最近进行的一项研究,比较了医生和 ChatGPT 对现实世界健康查询的书面回应,医疗保健专业人士中有 79%的时间更喜欢 ChatGPT 的回应(Tilley,2023)。他们还发现,ChatGPT 的回答在提供信息和感知同理心方面质量更高,而不知道哪些回应来自 AI 系统(Tilley,2023)。此外,ChatGPT 甚至展示了通过美国严格的医学执照考试的能力,得分在 52.4%到 75%之间(Tilley,2023)。
根据最近高盛的报告,生成式 AI 也可能对法律工作者产生深远的影响,因为以语言为导向的工作,如律师助理和法律顾问,容易受到自动化的影响。这些工作负责消耗大量信息,综合所学内容,并通过法律简报或意见使其易于消化。这些工作往往属于低级或入门级别。然而,AI 不会完全自动化这些工作,因为这需要人类的判断来理解客户或雇主的需求(Mok & Zinkula,2023)。我们已经开始看到 AI 在法律领域的应用实例。成立于 2015 年的 DoNotPay 是一个帮助个人对抗大型组织的机器人,用于处理如错误收费、自动电话和停车罚单等问题(Paleja,2023a)。2023 年 2 月,DoNotPay 被用于帮助一名被告在美国法庭上对超速罚单提出异议,程序在智能手机上运行,并通过耳机向被告提供适当的回应(Paleja,2023a)。此外,爱沙尼亚已经开始使用 AI 法官来解决小额合同纠纷,这使人类法官有更多时间处理复杂案件(Hunt,2022)。此外,澳大利亚的一个联合研究项目目前正在研究法院中 AI 的益处和挑战(Hunt,2022)。总的来说,我们看到 AI 在全球法院中越来越受欢迎。这当然也包括中国。2021 年 3 月,中国全国人民代表大会批准了第十四个五年计划,旨在继续推进国家的司法改革,包括实施“智能法院”以数字化司法系统(Cousineau,2021)。ChatGPT 也展示了其在法律考试中的卓越能力。AI 程序的最新版本 GPT-4 最近超过了亚利桑那州在统一律师资格考试中设定的标准(Cassens Weiss,2023)。总分 297 分,取得了显著的胜利,值得注意的是,ChatGPT 的表现接近测试者的第 90 百分位数(Cassens Weiss,2023)。
就像其他行业一样,ChatGPT 的出现迫使教育公司重新评估和审视他们的商业模式。根据《泰晤士高等教育》的作者汤姆·威廉姆斯和杰克·格罗夫的说法,教育技术公司 Chegg 的首席执行官丹·罗森斯维格将他们教科书和课程辅导服务的用户注册量下降归因于 ChatGPT,认为随着期中和期末考试的临近,许多潜在客户选择寻求基于 AI 的帮助(2023 年)。威廉姆斯和格罗夫认为,这种消费者行为的转变是生成式 AI 崛起将如何颠覆教育企业的“预兆”,并促使公司匆忙适应并确保其产品面向未来(2023 年)。他们以 Turnitin 为例,该公司加快了 AI 检测器的引入,以及 Duolingo,该公司将 GPT-4 集成到帮助语言学习者评估其语言技能中(2023 年)。威廉姆斯和格罗夫还指出,同时,一波新成立的企业也涌现出来,提供包括个性化辅导聊天机器人和专有 AI 检测器在内的广泛服务,每个服务的准确性水平各不相同(2023 年)。他们引用了开放大学教育技术研究所荣誉教授迈克·夏普尔斯的话,他说,成功将 AI 整合到其现有和成熟产品中的大型公司正在蓬勃发展。相反,夏普尔斯警告说,其他公司面临的风险是变成 20 世纪 90 年代末的“柯达”,无法迅速或有效地适应竞争市场(威廉姆斯和格罗夫,2023 年)。夏普尔斯接着说,他预计教育领域的许多公司,尤其是远程学习机构,在生存方面将面临重大挑战,因为学生可能会认为 AI 能够更好地完成他们的任务;然而,他警告说,这究竟是不是事实还有待观察(威廉姆斯和格罗夫,2023 年)。威廉姆斯和格罗夫还引用了伦敦大学学院知识实验室学习者中心设计教授罗丝·卢金的言论。卢金描述了 ChatGPT 等平台的优势,例如能够轻松生成教科书和课程材料;然而,她警告说,将需要大量的质量控制来处理错误(威廉姆斯和格罗夫,2023 年)。然而,她指出,这比从头开始制作材料要显著节省成本(威廉姆斯和格罗夫,2023 年)。因此,威廉姆斯和格罗夫得出结论,由于这些发展,出版和教育技术行业将经历重大变革,并强调公司必须认识到这些变化,并评估学生需求和行业要求是如何演变的。这将最终帮助他们确定 ChatGPT 的不足之处,之后他们可以有效地填补这些空白(2023 年)。
正如我们所见,人工智能正在引领就业市场的重大变革,包括岗位的增加和减少。然而,有趣的是,ChatGPT 可能不仅会改变工作,还会创造新的工作。实际上,OpenAI 的联合创始人 Greg Brockman 表示,关于人工智能工具剥夺人类工作的担忧被夸大了,人工智能将使人们能够专注于核心工作。Brockman 认为,未来的关键将是更高层次的能力,例如辨别力和确定何时深入细节的能力,而人工智能将增强人类所能完成的事情(Waugh,2023)。根据技术作家 Fiona Jackson 的说法,一些远程工作者已经在秘密地使用人工智能同时完成多项工作,他们自称为“过度就业”,因为 ChatGPT 帮助他们以创纪录的时间完成每项工作的工作量(2023)。她报告说,他们正在使用这个工具来制作高质量的书面内容,这可能包括从撰写营销材料到文章再到博客帖子,因此能够在雇主不知情的情况下同时从事多项全职工作(Jackson,2023)。她指出,这种远程工作的出现可以追溯到疫情的爆发,这迫使许多员工承担额外的工作以在经济不稳定之后维持生计。在此基础上,她指出,ChatGPT 的出现似乎为工作者提供了一种更先进的在线工具,增强了他们的远程工作能力,帮助他们同时有效地管理多个角色(Jackson,2023)。然而,Jackson 指出,ChatGPT 生成的文本常常包含错误,一些工作者认为这是一个积极的信号,因为这意味着他们仍需要检查人工智能的工作(Jackson,2023)。Jackson 进一步报告说,许多使用 ChatGPT 来增加收入的工人生活在失去工作的恐惧中。这些专业人士认识到,人工智能的快速进步最终可能会使他们的职位变得过时(Jackson,2023)。显然,一位工作者甚至将人工智能对劳动力的影响比作纺织业从织工到单一织布机操作者的历史性转变(Jackson,2023)。因此,虽然人工智能可以是一个有用的工具,但它也给那些依赖传统就业的人带来了一些显著的风险。那么,非传统就业又如何呢?新兴的工作岗位又如何呢?
我们甚至看到 ChatGPT 的出现导致了一个新的就业市场的形成,公司正在积极寻找提示工程师来利用机器人的潜力;这项工作涉及提升 ChatGPT 的性能并教育公司员工如何充分利用这项技术(Tonkin,2023)。通常被称为“AI 占卜师”,提示工程师专注于为 AI 机器人如 ChatGPT 编写提示,并且通常来自历史、哲学或英语语言等背景,在这些领域中,对语言和文字游戏的掌握是必不可少的(Tonkin,2023)。目前,我们正看到对提示工程师的强烈需求,谷歌支持的初创公司 Anthropic 在旧金山为“提示工程师和图书管理员”职位广告了高达$335,000 的丰厚薪酬;这个角色包括整理提示和提示链的图书馆并为客户创建教程(Tonkin,2023)。此外,另一份工作广告为具有提示工程经验的机器学习工程师提供$230,000 的薪酬,以产生最佳的 AI 输出(Tonkin,2023)。有趣的是,工作广告鼓励即使不符合所有资格的候选人也申请。Sam Altman 目前正在强调提示工程师的重要性,他表示:“为聊天机器人角色编写一个真正出色的提示是一项惊人的高杠杆技能”(Tonkin,2023)。因此,一个新的就业市场已经打开。但为什么这一切发生得如此之快且如此顺畅?为什么要求那些不符合所有资格的人申请?这一切都归结于释放能力过剩的潜力。
促使工程师不需要具备计算机科学或机器学习背景的一个原因与“能力超限”这一概念有关。在文章《ChatGPT 证明人工智能终于成为主流——而且事情只会变得更加奇怪》中,詹姆斯·文森特(James Vincent)突出了人工智能(AI)中“能力超限”的概念,这指的是 AI 系统尚未挖掘的潜力,包括研究人员尚未探索的潜在技能和能力(2022 年)。由于 AI 模型的复杂性,其潜力在很大程度上尚未得到挖掘,这些模型被称为“黑盒”。这种复杂性使得理解 AI 如何运作以及如何得出特定结果变得具有挑战性。然而,这种缺乏理解为未来 AI 的进步开辟了广阔的可能性(文森特,2022 年)。文森特引用了 AI 政策专家杰克·克拉克(Jack Clark)对“能力超限”概念的描述:“今天的模型比我们想象的要强大得多,而我们探索它们的技巧却非常不成熟。那么,我们还没有测试过的所有能力又是什么呢?”(文森特,2022 年)。文森特将 ChatGPT 作为可访问性阻碍 AI 进步的一个主要例证。尽管 ChatGPT 建立在 GPT-3.5 之上,这是 GPT-3 的改进版本,但直到 OpenAI 将其发布到网络上,其触及更广泛受众的潜力才得到充分实现。此外,由于它是免费发布的,这也进一步增加了其可访问性。此外,尽管在探索 AI 模型的能力和限制方面进行了广泛的研究和创新,但互联网的庞大而复杂的智能仍然无与伦比。现在,随着 AI 能力对公众的突然可访问性,根据文森特的说法,潜在的超限可能已经触手可及(2022 年)。
那么,专家们对人工智能对就业市场潜在影响的看法是什么?山姆·阿尔特曼持乐观观点,承认虽然技术无疑会影响就业市场,但他相信由此将产生更多的就业机会。阿尔特曼强调,认识到像 GPT 这样的 AI 工具是工具,而不是自主实体(Bhuiyan,2023)。在阿尔特曼看来,GPT-4 和类似工具有望在特定任务上表现出色,而不是完全取代整个工作(Bhuiyan,2023)。他设想 GPT-4 将自动化某些任务,同时产生新的、改进的工作角色(Bhuiyan,2023)。然而,阿尔特曼的乐观态度与英国政府即将离职的科学顾问帕特里克·瓦兰斯爵士的观点形成对比(Milmo,2023c)。瓦兰斯采取更为谨慎的立场,预测 AI 将引发深刻的社会和经济变革,其对就业的影响可能堪比工业革命(Milmo,2023c)。此外,经济合作与发展组织(OECD)认为,主要经济体正站在 AI 革命的边缘,这可能导致法律、医学和金融等技能型职业的失业。根据 OECD 的数据,在其 38 个成员国中,包括英国、美国和加拿大,大约 27%的就业岗位,即约 27%的就业岗位,容易受到 AI 驱动的自动化的影响。OECD 特别指出,在金融、医学和法律活动等需要广泛教育和积累经验的领域,这些角色突然变得容易受到 AI 驱动的自动化影响(Milmo,2023e)。事实上,这些预测已经开始实现。2023 年 5 月,IBM 的 CEO 宣布暂停招聘可能被 AI 取代的职位,估计大约三分之一的非客户服务岗位,即大约 7,800 个岗位,可能受到影响(Milmo,2023c)。AI 的影响也波及到股市,正如英国教育公司 Pearson 在美国公司 Chegg 修订财务预测后股价大幅下跌,将影响归因于 ChatGPT 及其对客户增长的影响(Milmo,2023c)。因此,我们可以看到,AI 的负面影响已经到来,它正在发生。
人工智能对教育的影响
在 2023 年,Felten 等人进行了一项研究,以评估人工智能语言建模能力进步对各种职业可能产生的影响程度。他们的研究发现,教育行业将受到特别严重的打击。在他们确定的 20 个最易受影响的职业中,85%的预期失业发生在教育领域。从风险最高的开始,这些包括:心理学教师;传播学教师;政治学家;文化研究教师;地理学教师;图书馆学教师;临床、咨询和学校心理学家;社会工作教师;英语语言和文学教师;外语和文学教师;历史教师;法学教师;哲学和宗教教师;社会学教师;政治学教师;刑事司法和执法教师以及社会学家(Felten 等人,2023 年)。
我们也开始看到毕业生受到的影响发生了变化。根据 2023 年人工智能报告,美国大学中专注于人工智能的新计算机科学博士毕业生的比例在近年来稳步上升。到 2021 年,19.1%的新毕业生专注于人工智能,高于 2020 年的 14.9%和 2010 年的 10.2%(Maslej 等人,2023 年)。趋势正在转向人工智能博士选择工业界而非学术界。2011 年,类似数量的 AI 博士毕业生在工业界(40.9%)和学术界(41.6%)找到了工作。然而,从那时起,大多数 AI 博士选择工业界,2021 年有 65.4%的 AI 博士在工业界找到了工作,这比选择学术界的 28.2%的人数多出近两倍(Maslej 等人,2023 年)。此外,过去十年中北美计算机科学、计算机工程和信息领域的新的教职员工招聘数量相对稳定(Maslej 等人,2023 年)。到 2021 年,共招聘了 710 名新员工,略低于 2012 年的 733 名招聘人数。此外,终身教职招聘人数在 2019 年达到峰值,为 422 人,但随后在 2021 年降至 324 人(Maslej 等人,2023 年)。
在美国,私立和公立计算机科学系之间的外部研究资金差异也在不断扩大。十年前,美国私立和公立计算机科学系在计算研究方面的外部资金总支出中位数相似。然而,随着时间的推移,差距已经扩大,私立大学获得的资金比公立大学多出数百万(Maslej 等人,2023 年)。截至 2021 年,私立大学的平均支出为 970 万美元,而公立大学的平均支出为 570 万美元(Maslej 等人,2023 年)。针对这些变化,大学正在采取各种措施来适应。它们正专注于几个关键领域,包括基础设施、课程设置、教师招聘和教师保留。Inside Higher Ed 的 Susan D'Agostino 在 2023 年 5 月的文章中提供了关于大学如何反应的最新信息。关于大学在人工智能教师和基础设施方面的增加投资,她给出了以下例子。纽约州立大学、普渡大学和埃默里大学目前正在积极招聘大量人工智能教师,而南加州大学正在投资 10 亿美元用于人工智能,以招聘 90 名新教师并建立一所专门的人工智能学校(D'Agostino,2023 年)。同样,佛罗里达大学正在创建人工智能学术倡议中心,而俄勒冈州立大学正在建立一个配备尖端设施的高级人工智能研究中心(D'Agostino,2023 年)。为了支持这些努力,美国国家科学基金会承诺投资 1.4 亿美元,在美国大学建立七个国家人工智能研究机构,每个机构都有一个特定的重点领域(D'Agostino,2023 年)。然而,D'Agostino 引用斯坦福大学教育学院副教授 Victor Lee 的话,强调将人工智能倡议扩展到计算机科学部门之外的重要性,建议将写作、艺术、哲学和人文学科等多元化学科整合起来,以培养人工智能发展和理解所需的各种观点和批判性思维(2023 年)。根据 D'Agostino 的说法,学院也在建立新的 AI 学术项目。例如,休斯顿社区学院将推出四年制人工智能应用技术和医疗保健管理应用科学学位课程,罗切斯特理工学院计划提供跨学科的人工智能研究生学位(D'Agostino,2023 年)。此外,新泽西理工学院将启动两个 AI 研究生项目,而乔治亚理工学院将投资 6500 万美元领导全州的人工智能倡议,将一个设施转变为 AI 制造试点设施(D'Agostino,2023 年)。此外,棕榈滩州立学院正在推出 AI 项目,并旨在建立一个提供 AI 课程的研究生院(D'Agostino,2023 年)。
如所见,许多大学正在积极扩展其基础设施和项目,以适应对人工智能日益增长的兴趣。然而,这些努力并非没有挑战,尤其是在招聘人工智能教师方面。而且,由于计算机科学家的现有短缺,这个问题进一步加剧。事实上,这些挑战早于公众对人工智能潜力的广泛认识,因为美国学院长期以来一直在努力满足对计算机科学课程的巨大需求,同时应对合格教师短缺的问题(D'Agostino,2023)。D'Agostino 引用了密歇根大学的教授 Kentaro Toyama 的话,他承认,计划招聘大量教师的机构可能难以找到这些专业课程所需的教学技能(2023)。因此,很明显,大学在以满足需求的速度招聘教师方面面临着困难。然而,即使他们能够成功招聘新教师,由于行业对他们的需求很高,他们还面临着保留这些新成员的额外挑战。D'Agostino 引用了南加州大学研究与创新高级副总裁 Ishwar K. Puri 的话,他说,一旦被聘用,大学应仔细考虑保留计算机科学家的难度(2023)。这是因为随着教师获得专业知识和确立自己,他们成为私营部门高度追捧的对象,私营部门提供的薪水是大学无法匹敌的。此外,Puri 指出,大学无法提供目前在人工智能公司可获得的突破性人工智能工作的机会,这可能是学者选择离开大学而转向行业的原因之一(D'Agostino,2023)。为了解决这个问题,D'Agostino 引用了埃默里大学教务长兼学术事务执行副总裁 Ravi Bellamkonda 的话,他提出了以下建议:将计算机科学系的起薪与其他系相比提高,即使这可能会在大学内部引发其他挑战;并提供非常规激励措施(2023)。他给出的一个非常规激励措施的例子是允许教师每周咨询一天,从而模糊了学术界和产业界的界限(D'Agostino,2023)。因此,埃默里大学现在正在支持与谷歌或亚马逊等公司的合作,许多教师已经参与这些合作或选择在公司而不是另一所学术机构度过他们的休假(D'Agostino,2023)。
有关英国学校因人工智能发展的迅猛步伐以及对科技公司保护学生和教育机构能力的不信任而出现的问题,也有报道出现(Milmo, 2023d)。为了解决这些担忧,一群校长成立了一个旨在向学校提供咨询和保护,以防范与人工智能相关的风险的机构(Milmo, 2023d)。然而,他们的担忧并不仅限于人工智能驱动的聊天机器人仅仅促进作弊,而是扩展到了对儿童福祉以及教学职业本身可能产生的影响(2023d)。这些担忧在致《泰晤士报》的一封信中得到了表达,强调了人工智能,尤其是能够生成逼真文本、图像和声音模仿的生成式人工智能突破带来的“非常真实且紧迫的危险和危害”(Milmo, 2023d)。由 Epsom College(一所收费学校)的校长 Anthony Seldon 爵士领导,该小组由来自各种私立和公立学校的校长组成(Milmo, 2023d)。该小组的主要目标是,在人工智能快速发展的背景下,为学校提供安全的指导,同时质疑大型数字公司自我监管以最好地服务于学生和学校的能力(Milmo, 2023d)。他们的信件还批评政府没有充分监管人工智能。因此,为了应对这些挑战,该小组计划建立一个跨部门的机构,由领先的教师和独立的数字和人工智能专家组成。该机构将就人工智能的发展提供指导,并协助学校决定采用或避免哪些技术。联合国教科文组织(UNESCO)对这些担忧产生了共鸣,通过其《全球教育监测报告》(2023)放大了这些担忧。报告突出了教育技术领域监管不足的问题,将儿童福祉置于风险之中。尽管他们指出,82%的国家存在教育技术监管,但来自私人行为者的挑战仍然存在。因此,报告强调了监管隐私、安全和福祉的必要性。此外,报告揭示了在大流行期间推荐的 163 个教育技术产品中,有 89%收集儿童信息。然而,只有 16%的国家确保了教育中的数据隐私。报告还提出了人工智能算法加剧不平等的问题,特别是影响了美国的土著群体。此外,它还强调了针对教育的网络攻击激增,2021 年至 2022 年间,45 个美国地区的此类事件翻了一番。报告中的另一个担忧是过度使用屏幕对儿童福祉的负面影响,指出美国儿童每天在屏幕上花费多达九个小时。尽管如此,报告指出,对屏幕时间的监管有限,大多数国家不禁止在学校使用手机。为了应对这些挑战,联合国教科文组织建议各国需要为儿童采用全面和定制的数据保护法律和标准,并且政策制定者应考虑儿童的呼声,以保护他们在在线活动中的权利。他们呼吁建立良好的教育技术和数据治理,以确保公平和高质量的技术利益,同时保护儿童隐私和教育的权利。他们还呼吁建立清晰的框架、有效的法规和监督机制,以保护在一个数据交换广泛的世界中儿童的权益(*《全球教育监测报告 2023:教育中的技术——一个谁说了算的工具?》2023)。
人工智能对世界的影响
到目前为止,在本章中,我们已经探讨了人工智能的各个方面,包括聊天机器人的出现和增长、人工智能中的挑战和伦理考量,以及人工智能对就业市场和其对教育的影响。然而,一个更为广泛的探究仍然存在:人工智能将对世界产生什么影响?为了更深入地探讨这个问题,我们调查了该领域专家的观点。我们首先考虑在 ChatGPT 公开推出之前表达的意见,然后过渡到其发布后分享的视角。
在 2017 年,在 ChatGPT 推出之前,著名物理学家和宇宙学家,以其在理论物理和人工智能领域的工作而闻名的马克斯·特格马克(Max Tegmark)发布了《生命 3.0:人工智能时代的人类》(Tegmark, 2017)。在这本书中,特格马克探讨了人工智能对人类社会可能产生的影响,并展望了人工智能进步可能带来的潜在未来。特别是,他深入研究了通用人工智能(AGI)的领域,分析了潜在的利弊,他认为这些利弊从潜在的积极方面——如科学、医学和技术的进步——到潜在的消极方面,包括伦理困境和生存风险。特格马克还提出了一系列假设情景,这些情景可能随着 AGI 的发展而发生,包括乌托邦式的结果、反乌托邦的愿景以及人类与人工智能和谐共存的中间地带。他进一步研究了 AGI 的社会影响,包括其对就业市场、经济和治理的潜在影响。基于此,他强调了伦理考虑和负责任的发展的重要性,以确保 AGI 最终服务于全人类的共同利益。2019 年,在特格马克的书籍之后,认知科学家和计算机科学家加里·马库斯(Gary Marcus)和计算机科学教授欧内斯特·戴维斯(Ernest Davis)出版了《重启人工智能:构建我们可以信赖的人工智能》(Rebooting AI: Building Artificial Intelligence We Can Trust),在这本书中,他们调查了人工智能领域的关键方面和挑战,特别是关注当前人工智能系统中普遍存在的局限性和不足。通过这样做,他们提出了关于人工智能进步轨迹的批判性问题。马库斯和戴维斯认为,尽管人工智能技术在某些方面取得了显著进步,但基本的限制仍然存在,阻碍了真正智能和可靠的人工智能系统的开发。他们强调,许多当代人工智能系统中缺乏常识推理、鲁棒性和对世界的深刻理解——这些都是人类认知固有的品质。基于此,他们认为,以深度学习和神经网络为中心的现行人工智能发展方法在实现人类水平智能和真正理解方面存在不足。在他们的工作中,马库斯和戴维斯将透明度、可解释性和问责制作为突出的主题,强调使人工智能系统透明和可解释的重要性,特别是在其决策影响人类生活的领域。他们断言,这些考虑因素至关重要,特别是在医疗保健、金融和法律等领域,理解人工智能如何做出决策对于确保道德和公平的决策至关重要(Marcus & Davis, 2019)。2019 年还有另一部出版物,即斯图尔特·罗素(Stuart Russell)的《人类兼容:人工智能与控制问题》(Human Compatible: Artificial Intelligence and the Problem of Control),罗素是加州大学伯克利分校的计算机科学家和教授,他在人工智能领域,特别是在机器学习、决策理论和人工智能系统中的控制复杂问题方面做出了重大贡献。在他的书中,罗素探讨了人工智能进步中的一个关键问题:确保人工智能系统与人类价值观和愿望和谐共处的必要性。他工作的中心主题是控制,解决设计对人类有益而不带来风险或意外结果的人工智能系统的复杂挑战。罗素认为,目前人工智能发展的轨迹,即专注于最大化特定目标而不充分考虑人类价值观,可能导致难以管理和可能有害的人工智能系统。因此,他强调人工智能系统与人类价值观早期对齐的极端重要性,并主张建立一个能够规范人工智能行为的框架(Russell, 2019)。
如我们所见,甚至在 2022 年 11 月 ChatGPT 公开发布之前,专家们就已经在讨论关于 AI 发展的担忧。但是,现在 AI,如 ChatGPT,已经向公众发布,人们都在说什么呢?看起来情绪是复杂的。有些人认为这是一个存在主义的威胁,而另一些人则认为风险太遥远,不值得担忧。有些人称其为“我们这个时代最重要的创新”(Liberatore & Smith, 2023),而有些人则警告说它“对社会和人类构成了深刻的威胁”(Smith, 2023)。但是,AI 公司本身的立场是什么呢?比尔·盖茨、桑达尔·皮查伊和雷·库兹韦尔都支持 ChatGPT,强调其在应对气候变化、寻找癌症治疗方法以及提高生产力方面的潜力(Liberatore & Smith, 2023)。相比之下,埃隆·马斯克、史蒂夫·沃兹尼亚克和 2500 名个人对大型语言模型表示了保留。2023 年 3 月,他们发布了一封公开信,呼吁暂停其发展,以应对潜在的风险和社会影响(Pause Giant AI Experiments: An Open Letter, 2023)。此外,2023 年 5 月,AI 领域的杰出人物杰弗里·辛顿博士辞去了在谷歌的职务,理由是对虚假信息、就业中断以及 AI 带来的存在主义威胁的担忧(Taylor & Hern, 2023)。特别是,他担心 AI 可能超越人类智能并容易受到滥用(Taylor & Hern, 2023)。尽管盖茨对 AI 持有积极的看法,但他支持加强增强型 AI 的监管,特别是由于虚假信息和深度伪造等问题(Gates, 2023)。同样,桑达尔·皮查伊强调 AI 监管的必要性,并反对自主武器的进步(Milmo, 2023b)。此外,包括 DeepMind、OpenAI 和 Anthropic 的首席执行官在内的技术专家正在积极倡导监管以应对存在主义担忧(Abdul, 2023)。但是,这些对监管的呼吁是否得到了重视?
探索 AI 政策和行动的动态变化格局
全球范围内,人工智能政策的格局正在经历显著的扩张,这标志着提及“人工智能”的法律措施和立法活动的激增(Maslej 等人,2023 年)。在英国,竞争与市场管理局(CMA)正在积极进行对人工智能的全面审查,特别关注解决围绕虚假信息和潜在就业中断的担忧(Milmo,2023c)。CMA 的这次全面评估直接针对基础模型,如 ChatGPT,旨在促进健康竞争并确保保护消费者利益(Milmo,2023c)。部长们赋予 CMA 一个多方面的任务,包括安全、透明度、公平性、问责制以及新兴玩家挑战现有 AI 实体的潜力(Milmo,2023c)。这些举措凸显了监管机构加强对人工智能技术审查的压力。同时,英国政府正在积极更新人工智能法规,以应对潜在风险(Stacey & Mason,2023)。在大西洋彼岸,美国副总统于 2023 年 5 月在白宫召集了与 AI 首席执行官的讨论,主要关注安全考虑(Milmo,2023c)。与此平行,联邦贸易委员会和白宫都在调查人工智能的深远影响(Milmo,2023c)(人工智能权利法案蓝图,不详)。在更广泛的国际层面,欧盟的人工智能法案引入了一个全面和结构化的监管框架(“欧盟人工智能法案:关于人工智能的第一项法规”,2023)。该框架根据不同的风险水平对人工智能应用进行分类,并寻求成为促进负责任人工智能实践的全球标准(“欧盟人工智能法案:关于人工智能的第一项法规”,2023)。2023 年 7 月,在之前概述的倡议的基础上,包括 OpenAI、Anthropic、微软和谷歌(DeepMind 的所有者)在内的知名科技公司联盟推出了前沿模型论坛(Milmo,2023f)。该论坛声称其首要目标是刺激人工智能安全研究,建立模型评估的基准,倡导高级人工智能的负责任部署,与政策制定者和学者就信任和安全问题进行对话,并探索人工智能的有利应用,如应对气候变化和检测癌症(Milmo,2023f)。论坛承认,它是在英国政府、欧盟等实体在人工智能安全领域的重大贡献的基础上建立的(Milmo,2023f)。此外,值得注意的是,科技公司,尤其是那些领导前沿模型论坛的公司,最近通过与白宫的对话达成了新的 AI 安全协议;这些协议包括水印 AI 内容以识别深度伪造等欺骗性材料,并允许独立专家评估 AI 模型(Milmo,2023f)。确实,似乎在科技公司领域正在发生一些发展。然而,一个问题随之而来,那就是我们是否可以对其履行承诺的承诺有信心。有些人对此表示怀疑,这并不令人惊讶,鉴于我们看到了一些 AI 公司和个人的所作所为和所说的话。
例如,在 2022 年 10 月 ChatGPT 发布之前,据报道,微软对其伦理与社会团队规模进行了显著缩减(Bellan, 2023)。据内部人士透露,CTO 和 CEO 日益增长的压力可能是这一决策的原因,目的是尽快将最新的 OpenAI 模型推向客户(Bellan, 2023)。随后,在 2023 年 3 月,据报道,微软决定裁减该团队的剩余成员(Bellan, 2023)。团队内部成员普遍认为,这些裁员可能受到了微软加强快速发布 AI 产品以在竞争中取得优势的决策影响,这可能导致对长期、负责任的讨论的重视程度降低(Bellan, 2023)。尽管如此,值得注意的是,微软保留了其负责任 AI 办公室,该办公室负责通过治理和公共政策倡议制定伦理 AI 指南(Bellan, 2023)。然而,解散伦理与社会团队的行动引发了关于微软将伦理 AI 原则真正融入产品设计承诺程度的合理质疑。另一个例子直接来自 OpenAI 首席执行官山姆·奥特曼的口中,他刚刚在美国国会倡导 AI 监管后不久,就表达了对欧盟监管人工智能努力的担忧(Ray, 2023)。奥特曼表示,他对欧盟 AI 法案草案的监管过于严格,并警告称,如果合规性证明过于困难,OpenAI 可能会从该地区撤回其服务(Ray, 2023)。这种立场的变化既突然又意义重大,凸显了个人可以产生的重要影响。
正是这些权力和行动的实例引起了人工智能领域知名人物 Rumman Chowdhury 的关注。Chowdhury 认识到人工智能行业中反复出现的模式,类似于上述案例,她将其视为警示信号(Aceves, 2023)。她强调的一个关键问题是,实体在呼吁监管的同时,又投入大量资源游说反对监管法律,对叙事施加控制(Aceves, 2023)。这种矛盾的方法阻碍了建立稳健和全面的监管框架,这些框架本可以确保人工智能技术的负责任使用。此外,Chowdhury 强调,缺乏问责制是人工智能开发和部署中的一个基本问题(Aceves, 2023)。她指出,公司内部的内部风险评估往往忽视道德考虑,主要关注评估风险和承担风险的意愿(Aceves, 2023),正如我们看到的微软的情况。当失败或声誉损害的可能性变得很大时,竞争场就会被操纵以有利于特定的当事人,使他们因可利用的资源而获得优势(Aceves, 2023)。这引发了关于权力集中在少数人手中的担忧,可能导致潜在的偏见和对更广泛人群的不利后果。Chowdhury 进一步强调,与机器不同,个人拥有多样且不确定的优先级和动机,这使得将他们归类为天生善良或邪恶变得具有挑战性(Aceves, 2023)。因此,为了推动有意义的变革,她主张利用激励机制和重新分配人工智能治理中的权力来源(Aceves, 2023)。这包括促进政府、行业、学术界和民间社会等各方之间的合作,共同解决复杂的与人工智能相关的问题,促进合作并在大规模上达成妥协(Aceves, 2023)。通过这样做,她相信我们可以确保人工智能技术以有利于整个社会的方式开发和部署,而不是服务于少数人的利益。除了 Chowdhury 的担忧之外,MIT Technology Review 的高级人工智能编辑 Karen Hao 对高级人工智能与世界上最大的公司之间的相互关联表示严重的保留意见(Hao, 2020)。她指出,随着最复杂的人工智能方法需要庞大的计算资源,只有最富有的公司才能负担得起投资和控制这些技术,因此,科技巨头不仅对人工智能研究的方向有重大影响,而且对影响我们日常生活的算法的创建和管理也有重大影响(Hao, 2020)。这些担忧突出了在塑造人工智能政策和法规中透明度、包容性和多利益相关者合作的关键重要性。围绕人工智能治理的对话和行动必须涉及各种声音和观点,以确保人工智能技术以道德的方式开发、负责任地部署,并服务于人类的共同利益。我们将在本书的后面回到这些担忧。然而,现在我们的焦点转向创建一个理论框架,这将使我们能够深入探讨人工智能的复杂性。
第三章
研究 ChatGPT 在高等教育中作用的理论框架
探索建立理论框架的必要性
在我们的研究研究中,我们进行了一项探索性案例研究,以调查 Chat Generative Pre-trained Transformer(ChatGPT)对学生、教师和高等教育机构角色的潜在影响。这种现场实验提供了宝贵的现实生活见解,并使我们能够验证理论考虑。然而,在深入研究之前,建立我们的理论框架是至关重要的。理论框架,基于哲学,在后现代定性研究中被普遍采用,以考察现象的多样视角和解释。它们有助于使研究与其目标保持一致,考虑社会和文化因素对我们对现实理解的影响,并从批判的角度提供有价值的见解。在我们的研究中,我们选择了定性研究范式来探索与 ChatGPT 相关的主体经验和意义,旨在理解它对我们机构内各利益相关者的影响。基于此,我们需要选择能够全面解决 ChatGPT 在高等教育中整合的社会政治含义和个人生活经历的理论框架。为了实现这一目标,我们决定采用批判理论和现象学的理论框架。批判理论,以其对社会组织结构和权力动态的关注,提供了一个视角,通过它可以批判性地质疑教育环境中技术的更广泛影响。另一方面,现象学,基于对人类经验的了解,提供了一个深入探讨与 ChatGPT 互动的利益相关者的个人和集体意识的途径。这两个框架的联合优势使我们能够提供一个平衡和全面的视角,不仅捕捉到对机构动态的宏观层面影响,还捕捉到个人经验和解释的微观层面细微差别。随着我们研究的深入,我们使用这些视角深入探讨每个主题,随着其出现。这使得我们能够阐明我们研究主题的更广泛含义,全面理解其重要性。
批判理论与 ChatGPT:剖析权力动态和社会结构
批判理论是一个强大的理论框架,深入探讨权力动态、社会结构和意识形态,以审查和挑战现有的不平等和压迫体系。这种方法旨在揭示塑造我们现实感知的潜在社会和政治因素,最终目标是赋权边缘化群体(Tyson,2023)。在考虑 ChatGPT 对大学内各种利益相关者的影响时,批判理论因其几个令人信服的原因而变得非常有价值:
-
考察权力动态
-
批判理论促进了对 ChatGPT 如何可能颠覆或加强教育环境中的权力动态的探索。它提供了一个视角,可以揭示技术利用可能产生的潜在不平等,并鼓励对这些动态如何影响教学和学习格局进行深思熟虑的分析。
-
重新定义教师角色
-
ChatGPT 的变革潜力延伸到通过提供自动响应和学生辅助来重塑教师的角色。在这个背景下,批判理论在剖析这种转变可能如何影响教师与学生的权威、专业知识和互动动态方面发挥了关键作用。通过引发批判性审视,它打开了探究这些变化的影响和后果的大门。
-
重新评估学生角色
-
随着学生越来越多地与 ChatGPT 等人工智能(AI)工具互动,他们在学习过程中的角色可能会发生变化。批判理论提供了一个框架来审视这种转变如何影响学生的能动性、批判性思维和独立学习技能的发展。它邀请人们探索学生是否会成为信息的被动消费者,还是成为塑造他们教育旅程的积极参与者。
-
机构影响
-
批判理论的视角扩展到涵盖高等教育机构在整合 ChatGPT 时的更广泛领域。它鼓励对在采用人工智能技术过程中,机构政策、结构和实践需要重新考虑的方式进行严格分析。这种内省对于理解这些变化可能如何加强或挑战教育生态系统中现有的权力结构和不平等至关重要。
为了进一步加深我们的理解,我们决定研究批判理论领域的知名理论家的作品:克莱顿·克里斯滕森、皮埃尔·布迪厄和卡尔·马克思。
克里斯滕森的颠覆性创新与 ChatGPT 的变革潜力
商业战略理论的尖端是克莱顿·克里斯滕森的开创性作品,《创新者的窘境》(Christensen, 1997)。在这里,他向世界介绍了“颠覆性创新”,这是一种现象,即资源有限的小公司崛起,挑战并最终超越根深蒂固的行业巨头。尽管他们的产品可能最初在利基市场中出现,并显得劣质,但它们因其可负担性和可及性而脱颖而出。随着时间的推移,这些创新获得了动力,吸引了更广泛的受众,并动摇了主导市场的玩家。虽然克里斯滕森的颠覆性创新和批判性理论最初可能看似不相关,但更深入的考察揭示了错综复杂的交汇点。颠覆性创新的核心是权力动态的转变:初创公司不仅挑战,有时甚至推翻了既有的巨头。这一运动反映了批判性理论的原则,该理论深入研究权力关系。此外,颠覆性创新以其民主化潜力为特征。它们将产品和服务从一度被视为专属奢侈品转变为可及的必需品。通过批判性理论的观点来看,这一民主化过程变得更加引人入胜,提供了关于社会接入和公平的见解。除了市场颠覆之外,克里斯滕森与他的同事共同提供了一种分析工具:完成工作理论(Christensen et al., 2016)。他们提出,消费者并非仅仅因为产品的特性而购买产品或服务;他们“雇佣”它们来完成特定的任务或“工作”。这些工作可以是功能性的,比如用手机打电话,社交的,比如购买豪华车以表明地位,或者情感的,类似于购买健身追踪器以获得满足感。通过理解这些工作,公司可以设计出更好、更有针对性的产品。然而,保持相关性需要持续的监控和适应,因为这些工作可能会演变。
将克里斯蒂安森的“完成工作”理论应用于研究 ChatGPT 对各种教育角色的冲击,可以提供对利益相关者具体需求和动机的宝贵见解。通过理解 ChatGPT 可能为每个角色完成的“工作”,我们可以更好地分析其对学生、教师和高等教育机构潜在的影响。关于学生的角色,克里斯蒂安森的理论可以帮助我们揭示学生在教育旅程中旨在完成的工作。ChatGPT 可能支持学生在研究和获取信息(功能性工作)、促进协作学习和同伴互动(社交工作)或增强他们的动力和自信心(情感工作)。考察这些工作可以阐明 ChatGPT 可能如何影响学生的学习和成果。当谈到教师时,通过应用“完成工作”理论,我们可以检查教师在角色中寻求完成的具体任务和目标。ChatGPT 可能帮助教师自动化行政任务(功能性工作)、促进学生的参与和互动(社交工作)或激发课程规划中的创造力(情感工作)。这种理解可以指导探索 ChatGPT 如何增强或转变教师的职责。通过分析高等教育机构旨在完成的工作,我们可以深入了解 ChatGPT 可能对其运营的影响。这可以包括增强可访问性和包容性(功能性工作)、促进跨部门的创新和协作(社交工作)或适应不断变化的教育需求(情感工作)。理解这些工作可以就 ChatGPT 在教育机构中的整合和利用方面的战略决策提供信息。因此,我们认为将克里斯蒂安森的颠覆性创新与批判性理论相结合,提供了一个多维框架,因为它允许对像 ChatGPT 这样的技术进行全面探索,而不仅仅是作为工具,而是作为行业和社会中潜在的变革者。
从布迪厄的社会视角看 ChatGPT
我们的第二位理论家皮埃尔·布迪厄是一位社会学家和哲学家,他的研究集中在社会结构、文化实践与个人行为之间的关系。他的习惯性理论、场域理论和文化资本理论为理解社会结构如何塑造人类行为以及个人如何在这些结构中导航以实现成功提供了一个视角(Webb 等人,2002 年)。布迪厄的习惯性理论认为,个人的环境塑造了他们的习惯,这些习惯无意识地引导他们的思想、行动和偏好(Webb 等人,2002 年)。这些习惯持续着社会结构,并为社会群体中权力的发展和维持做出了贡献。他的场域理论强调社会结构与人类行为之间的相互作用,认为社会现实由各种场域组成,每个场域都有其自身的规则和权力关系(Webb 等人,2002 年)。布迪厄的资本理论表明,社会阶级不仅由经济因素决定,还由文化和象征资本决定。他确定了三种资本形式:经济、文化和社会资本,不同社会阶级的个人拥有这些资本以维持或提高他们的社会地位(Webb 等人,2002 年)。布迪厄(1982 年)认为,文化资本在其外在形式上表现为一个自足且一致的实体。尽管它根植于历史行动,但它遵循其自身的独特规则,超越了个人的欲望。这一观点在语言中得到了清晰的体现,语言并不属于任何单个个体或集体。重要的是,文化资本不仅仅是一个理论构建;它具有现实世界的、象征的和有形的权力。这种权力在人们利用它在各种文化领域,从艺术到科学中发挥作用时变得明显。在这些领域,个人的成功通常与他们对这种外部资本形式及其内在文化资源的理解成比例。关于语言,皮埃尔·布迪厄将语言理解为一个不仅仅是沟通工具的资本形式,他称之为“语言资本”。这一概念的核心是“语言习惯”与“语言市场”之间的相互作用,布迪厄在以下公式中提出了这一观点:
语言学习惯 + 语言学市场 = 语言学表达,言语
在其核心,布迪厄的语言习惯反映了个人的社会历史,并且是固有的,存在于个体之中(布迪厄,1986)。这种习惯是社会条件的产物,决定了针对特定社会情境或市场的言语表达。虽然人们可能会倾向于认为对语言的了解确保了有效的沟通,但布迪厄提出,实际的语言执行受制于情境的内在规则——包括正式程度和对话者的期望(布迪厄,1978)。这引出了他的“语言市场”概念。布迪厄认为,仅仅正确地说一种语言是不够的,一个人还必须理解自己说话的社会语言学的细微差别(布迪厄,1978)。这个市场既是具体的又是难以捉摸的。在最具体的形式上,它涉及熟悉的社会仪式和对个人在社会等级中位置的明确理解。然而,其抽象性在于不断演变的语言规范和影响我们言语的无意识因素。布迪厄的“语言资本”概括了特定说话者可以积累的实质性利益(布迪厄,1978)。布迪厄的视角解释了存在没有真正沟通的言语的情况。考虑“权威之声”,一个说话者,在社会和制度支持的背后,可能说了很多,但传达的却很少(布迪厄,1978,第 80 页)。布迪厄认为语言资本与权力动态内在地联系在一起。它塑造了价值判断,使某些说话者能够利用语言为自己谋利。“每一次互动,每一次语言沟通,即使是两个人、两个朋友、男孩和女孩之间的沟通,在某种意义上都是微观市场,这些市场始终受制于整体结构”(布迪厄,1978,第 83 页)。在布迪厄的洞察基础上,韦伯等人(2002)强调了语言作为由个人社会地位塑造的权力机制的角色的作用。互动,无论是口头还是其他形式,都反映了参与者的社会地位。布迪厄对语言作为社会资本库的强调尤为深刻。当语言被视为一种资源时,它就成为了文化资本的混合体。这种融合可以用来建立强大的关系,使说话者能够获得社区或机构中宝贵的资源(韦伯等人,2002)。布迪厄的文化再生产理论,或遗产理论,表明社会不平等通过文化价值观和实践的传递从一代传到下一代(韦伯等人,2002)。这种传递是通过家庭教养、教育和不同机构中的社会化来实现的。布迪厄认为,主导阶级的文化实践和信仰通过教育体系得到合法化和加强,教育体系作为社会再生产的重要工具(韦伯等人,2002)。
将布迪厄的理论应用于研究 ChatGPT 对各种教育角色的冲击,使我们能够审视社会结构、文化实践和个人行为如何与这一技术的整合相互交织。布迪厄的习性、场域、文化资本和文化再生产等概念可以为 ChatGPT 在学生、教师和高等教育机构角色方面的动态和潜在后果提供洞见。关于学生的角色,随着 ChatGPT 的引入,学生可能会经历其习性和文化资本的变化。这项技术可能会影响他们的学习实践,以及他们获取和利用知识的方式。ChatGPT 对语言互动和沟通的影响可能会塑造学生表达自己、与课程材料互动以及与同伴合作的方式。它还可能影响学生对权威和专业知识的关系,可能挑战传统的等级和知识来源。ChatGPT 的整合可能会影响教育领域内的权力动态,因为教师需要在自身习性、文化资本以及使用 ChatGPT 的期望和要求之间进行权衡。这项技术可能会改变象征资本的分配,并重新定义教学职业中哪些知识和专业知识受到重视。教师可能需要就 ChatGPT 相对于他们的位置和权威进行协商,这可能导致教师角色的重新配置以及有效教育者所需技能的重新定义。最后,关于高等教育机构的作用,布迪厄的理论表明,ChatGPT 的整合可能有助于高等教育机构内的文化再生产。它可能会通过赋予某些知识形式和沟通方式特权来延续现有的权力结构。ChatGPT 的使用可能会影响机构的实践、课程开发和评估方法。因此,机构需要批判性地考虑采用 ChatGPT 的潜在后果,以及它与他们的教育目标、价值观和对社会公平的承诺是否一致。
在 ChatGPT 背景下探讨马克思的异化理论
卡尔·马克思,这位著名的德国哲学家、经济学家、社会学家和革命社会主义者,在历史上占据着关键地位。他的哲学和社会思想的核心是共产主义的概念,这是一种主张财产和资源集体所有制的替代性社会经济体系,与私有制相对立(Elster,1986)。作为一名革命社会主义者,马克思相信需要通过革命手段进行根本的、深刻的制度变革,而不是渐进的改革。挑战人类本性的静态观念,马克思提出,人的本质是不断由历史和社会环境塑造的(Elster,1986)。他将劳动置于社会结构的前沿,断言它是所有财富的主要创造者(Elster,1986)。马克思指出了资本主义的重大关切:资本家通过占有工人劳动产生的剩余价值来剥削工人(Elster,1986)。这种剥削导致了阶级斗争,主要是资产阶级、资本家和工人阶级之间的斗争(Elster,1986)。他设想了一个未来,在那里工人阶级将推翻资产阶级,为社会主义社会铺平道路,实现生产手段的集体所有和控制(Elster,1986)。虽然马克思的理论突出了工人阶级对他们的利益与统治阶级利益一致的错误认识,这种观点通常被称为“虚假意识”,但重要的是要认识到马克思从未直接使用过这个术语(Althusser,1971)。马克思将他的政治经济学批判旨在揭示资本主义的矛盾,强调物质条件,尤其是经济关系在塑造历史中的作用(Elster,1986)。对马克思来说,资本主义是历史发展中的一个阶段,注定要过渡到社会主义,最终过渡到共产主义(Elster,1986)。马克思批判的一个重要支柱是异化理论。他详细阐述了在资本主义下,个人如何与其劳动产品、劳动过程、同胞和内在的创造潜力疏远(Mészáros,2005)。在资本主义机器中,工人失去了对生产手段的控制,导致他们为了工资而出售自己的劳动。马克思区分了四种异化类型:对创造产品的异化,这些产品成为被剥削资本家控制的商品;对劳动过程的异化,在资本家利润驱动动机下变得单调乏味;对同伴工人的异化,因为资本主义促进了竞争和个人主义;以及对个人内在创造本质的异化,因为资本主义体系将个人降低为仅仅的生产工具(Mészáros,2005)。这些异化的方面导致了社会问题,如不平等、剥削和真正的人际关系的崩溃(Mészáros,2005)。为了解决这些根深蒂固的问题,马克思主张废除生产手段的私人所有制,迎来一个无阶级社会,在那里集体控制赋予个人塑造其工作和其成果的能力(Mészáros,2005)。总之,马克思的思想描绘了一幅深刻关注经济机制与社会互动之间复杂联系的图景。他的理论产生了持久的影响,即使在当代,也仍在各种社会政治运动和分析中产生共鸣。但这些都是如何与 ChatGPT 相关的呢?
卡尔·马克思关于异化的框架强调了工人与其劳动本质之间的关系。通过将这一理论应用于现代高等教育的背景,我们可以确定像 ChatGPT 这样的技术对学生、教师和机构可能产生的潜在后果和影响。对马克思来说,教育可以被视为一种劳动,学生通过投入努力来获取知识和技能。引入 ChatGPT 可能会改变这种动态,改变学生与他们的教育劳动之间的关系。虽然 ChatGPT 可能提供快速获取信息的能力,这可能对协作研究或独立学习有利,但过度依赖可能会抑制学生的批判性思维能力,并减少他们在学习过程中的积极参与。而且,尽管 ChatGPT 有可能使信息获取民主化,但越来越多的人担心教育可能会进一步成为一种商品,加剧经济多元学生群体之间的差距,尤其是如果优质教育工具根据购买力分层。将马克思的视角扩展到教师,如果 ChatGPT 或类似技术过于深入地侵入他们的领域,教育工作者可能会感到与他们的专业本质疏远。尽管 ChatGPT 可以自动化某些教学任务,通过允许教育工作者专注于教学的人性化、细微方面来提高教育质量,但存在风险。如果机构优先考虑技术而不是教育工作者,可能会导致一种职业异化,将教育工作者降为次要角色,并可能降低他们在教育过程中的感知价值。从马克思主义的角度来看,像 ChatGPT 这样的技术可能会放大机构的资本主义倾向。这些工具可能被视为更少的作为教育增强工具,而是作为节约成本或盈利的机制。这可能会将重点从全面教育转向市场驱动目标,呼应马克思对资本主义结构掩盖真正价值的担忧。然而,这种情况并不一定发生。ChatGPT 的道德、以学生为中心的整合可以导致丰富的协作体验,将传统教学法与现代技术相结合。本质上,虽然 ChatGPT 和类似的人工智能技术具有重塑高等教育的巨大潜力,但马克思的异化理论提醒我们要考虑这些限制。挑战在于道德地整合这些工具,关注增强人类能力而不是边缘化它们。它强调了不断重新评估机构政策的重要性,强调教育的以人为本方面,并确保技术进步真正服务于其主要利益相关者——学生、教师和更广泛的教育社区。
现象学:揭示 ChatGPT 的洞察
作为一种理论框架,现象学集中于理解个体赋予主观经历的意义。它深入到个体的生活经历中,努力揭示那些参与其中的人所感知的现象的核心本质(Patton,2002)。在考察 ChatGPT 对大学内各种利益相关者角色影响的背景下,现象学提供了一个有价值的理论方法,具有以下影响:
-
主观经历的探索
-
现象学使研究人员能够深入到使用 ChatGPT 参与教学和学习的个体的主观经历中。它有助于揭示学生和教师与该技术相关的亲身经历、感知和情感。
-
理解意义构建过程
-
现象学试图理解个体如何理解他们的经历以及他们赋予这些经历的意义。在 ChatGPT 的背景下,它可以帮助我们了解学生和教师如何诠释和理解技术对他们角色以及整个教育过程的影响。
-
教学与学习变化的考察
-
通过调查可能需要的教学实践和教学策略的变化,现象学可以帮助研究人员探索 ChatGPT 可能如何影响教学和学习的角色。它提供了关于技术可能如何影响学生和教师之间的互动以及整体教育体验的见解。
-
揭示新的可能性和限制
-
现象学使研究人员能够识别 ChatGPT 在教育中提供的机遇和限制。它允许探索潜在的益处,如增加信息获取或个性化学习体验,以及挑战,如围绕人工智能技术的潜在人际互动减少。
-
强调生活体验
-
现象学强调第一人称视角和个体的经验知识。这种关注与理解学生和教师在整合 ChatGPT 过程中所经历的亲身经历的目标相一致。
为了进一步加深我们的理解,我们研究了现象学研究中最著名的理论家之一马丁·海德格尔的作品。
海德格尔反思:人工智能与存在的本质
海德格尔,一位德国哲学家,对现象学、诠释学和存在主义做出了重大贡献。尽管因与纳粹党的关系受到批评,但他的哲学为我们提供了关于技术对人际关系以及我们对世界真实性和与世界联系感的深刻见解(Inwood,2019)。海德格尔哲学的核心概念是 Dasein,它指的是人类存在及其独特的质疑自身存在的能力(Girdher,2019)。海德格尔的哲学强调塑造人类存在的先验的世界理解,称为“在世界之中存在”(Girdher,2019)。海德格尔对存在意义的探究围绕着是什么使存在者成为可理解的存在。他区分了存在论和本体论方面,其中存在论与特定的存在者相关,而本体论则关注实体背后的基本意义,被称为“本体论差异”(Inwood,2019)。这种区分构成了基础本体论的基础,旨在理解存在本身的意义。时间在海德格尔的哲学中是一个关键方面,不仅仅是事件的线性序列,而是所有存在的根本方面,塑造了我们理解世界和我们在这个世界中的位置(Inwood,2019)。在海德格尔的哲学中,技术被视为从根本上改变我们与世界的关系,以特定的方式揭示和整理它,被称为技术的“框定”或“挑战性揭示”性质(Inwood,2019)。这种观点导致了一种被称为“站立储备”的存在方式,其中一切,包括人类,都被对象化并简化为达到目的的手段(Inwood,2019)。他警告说,这种方式的存在遮蔽了我们与世界真实的联系,使我们与我们的真实本质脱节(Inwood,2019)。然而,海德格尔也承认技术具有积极变革的潜力,提出了以“诗意居住”或“释放”为特征的另一种方法(Bida,2018)。他引入了“在手边”的概念,描述了我们在日常生活中与工具和物体的无缝互动,其中工具成为我们自身的延伸,使我们能够感受到流畅和效率(Inwood,2019)。从这种观点来看,技术应该促进开放性、注意力和与世界更深的联系,揭示并使我们能够与之互动(Bida,2018)。海德格尔的技术哲学对当代关于技术的伦理和存在维度的讨论产生了重大影响。它促使我们反思技术对我们生活的影响,质疑我们技术世界观背后的假设,并探索与技术的不同关系方式,以实现更有意义和可持续的存在。
当考虑学生的角色时,海德格尔的哲学强调他们质疑自身存在和存在时间性质的独特能力。ChatGPT 在教育中的出现引发了关于学生与知识之间关系的疑问。作为获取信息的一种工具,ChatGPT 可能增强学生的即手可用体验。通过提供即时和相关的回应,ChatGPT 可以简化获取信息的过程,减少认知负荷,使学生能够更多地专注于理解和应用知识。然而,这也带来了一种风险,即过度依赖 ChatGPT 可能会导致被动学习,减少学生探索和批判性思考的倾向。为了防止这种情况,学生可能需要反思技术在他们的学习过程中的作用,并积极参与塑造他们对存在状态的认知。就教师而言,海德格尔的“在世界中存在”的概念表明,他们的角色与他们的存在和对世界的理解交织在一起。ChatGPT 的引入可能挑战了他们作为知识主要来源的传统角色。这项技术可以帮助他们准备课程材料,提供及时的反馈,并回答学生常见的疑问。然而,这也引发了关于教学即手可用体验的问题。教师应该意识到他们对人工智能辅助的依赖可能如何影响他们与学生的真实互动和学习过程。因此,教师可能需要在他们的教学实践中导航技术的整合,重新评估他们与知识的关系以及促进真实学习体验的能力。因此,教师的角色可能转向指导学生在与技术互动中的参与,培养批判性反思,并帮助学生揭示他们自己对存在状态的认知。ChatGPT 的引入也促使高等教育机构重新评估教育的时序维度。机构应批判性地评估这项技术与他们的教育价值观和目标的一致性。他们必须反思效率与有意义学习体验所需时间的平衡。这种人工智能技术的整合可能会影响机构结构、课程设计和整体教育环境。通过将 ChatGPT 整合到高等教育机构中,可以简化信息和资源的获取,可能提高效率并减少行政负担。然而,必须谨慎行事,避免过度依赖人工智能技术。机构必须仔细考虑效率与真实学习体验所需时间空间之间的平衡。此外,他们应确保人工智能的整合既保留了学生和教师即手可用体验,又与他们的教育价值观和目标相一致。这将有助于在拥抱人工智能技术优势的同时,保持全面有效的学习环境。因此,总的来说,通过将海德格尔的哲学应用于教育中 ChatGPT 的考察,我们可以更深入地理解对学生、教师和机构可能产生的潜在影响。这促使我们反思教育的存在和时序维度,鼓励对技术如何塑造我们与知识、真实性和我们存在状态的感知进行批判性评估。
在本章中,我们构建了一个理论框架,以促进对 ChatGPT 和类似人工智能技术的考察。我们的框架包括两个关键组成部分:批判理论,深入探讨权力动态、社会差异和文化传统;以及现象学,使人们能够理解个体直接感知到的意识体验。在第六章中,我们将回顾这些理论,并使用它们作为指导,对我们的发现进行全面分析。
第四章
探索 ChatGPT 在高等教育中的作用:文献综述
确定文献综述的范围
在本章中,我们展示了我们在 2023 年 4 月初进行的文献综述,我们利用 Google Scholar 搜索了关注 ChatGPT 对学生、教师和高等教育影响的文章。我们的主要目标是确定探索 ChatGPT 在教育环境中整合的案例研究,以获得其实际影响的宝贵见解。由于 ChatGPT 仅在 2022 年 11 月 30 日公开发布,距离我们的文献综述开始仅超过 4 个月,我们预计案例研究将因深入研究与分析的时间有限而较少。正如预期的那样,我们的搜索揭示了与涉及 ChatGPT 的实际案例研究相关的有限文献。然而,我们发现了一个在内容与文档分析研究中出现的趋势,这些研究考察了次级来源,如媒体发布和社交媒体讨论。此外,我们还确定了综合围绕 ChatGPT 不断增长的研究文献的元文献综述,通常包括预印本,因为 ChatGPT 最近公开发布,以及关于这个主题同行评审出版物的时间有限。此外,我们还发现了几个关注教师和研究人员在 ChatGPT 方面进行实验的个人体验的用户案例研究。鉴于我们特别关注 ChatGPT 在教育环境中的实施,我们将范围限制在其 2022 年 11 月 30 日公开发布之后发布的论文上,集中在研究开始前 4 个月的时期。在完成初步审查后,我们选择了九篇我们认为与我们研究问题最相关的论文。这些论文被分为三类:内容与文档分析论文(三篇)、文献综述论文(两篇)和关注用户体验的案例研究(四篇)。以下是对这些论文的概述。
ChatGPT 的内容与文档分析论文
分析 ChatGPT 在提高高等教育学生生产力中的作用
在他们的研究《分析 ChatGPT 在提高高等教育学生生产力中的作用》中,Fauzi 等人(2023 年)旨在探讨 ChatGPT 在高等教育环境中对学生生产力的影响。采用定性研究方法,研究人员采用了桌面研究方法,并依赖次级信息来源进行数据收集。通过查阅各种参考资料,包括在线媒体和期刊数据库,他们确保了全面覆盖与 ChatGPT 在提高学生生产力方面相关信息的全面性。在数据收集过程中,Fauzi 等人(2023 年)记录了相关信息,随后他们使用数据缩减和数据展示技术进行分析。通过简化、分类和消除无关数据,他们获得了 ChatGPT 对学生生产力潜在影响的见解。他们的数据展示涉及系统地组织数据,并使用形式为田野笔记的书面话语来促进理解和支持得出结论的过程。该研究的发现揭示了 ChatGPT 在高等教育学生生产力的各个方面具有潜在的贡献。值得注意的是,ChatGPT 通过为学生提供相关信息和资源,为他们的作业和项目提供了宝贵的帮助。ChatGPT 还帮助学生提高他们的语言技能、语法、词汇和写作风格。此外,ChatGPT 促进了学生之间的合作,使有效沟通、思想交流和项目协作成为可能。此外,它通过帮助学生安排日程、作业截止日期和任务列表,提高了时间效率和有效性。除此之外,ChatGPT 还作为学生支持和动力的来源,提供有关压力管理和时间及任务管理策略的指导。基于他们的发现,Fauzi 等人(2023 年)提出了几项建议。首先,他们建议学生应谨慎使用 ChatGPT,并批判性地评估其提供信息的可信度。其次,他们强调教育工作者和教育机构应考虑将 ChatGPT 整合到学习过程中,以提高学生生产力,同时保持一种平衡的方法,重视人际互动和学生参与。第三,他们建议技术公司继续推进和改进像 ChatGPT 这样的语言模型,以进一步促进学生生产力和在线学习质量的提高。Fauzi 等人(2023 年)的研究揭示了 ChatGPT 在高等教育中的积极影响,特别是其提高学生生产力的潜力。然而,解决该研究的弱点,如对次级信息的过度依赖和对 ChatGPT 对教育其他方面影响探索的有限性,是至关重要的。为了加强发现的效度和可靠性,建议未来的研究应考虑采用初级研究方法并进行更广泛的调查。
Fauzi 等人(2023)的论文对我们研究具有重大意义,因为它直接针对我们的研究主题,即探讨 ChatGPT 可能如何影响学生、教师和高等教育机构的作用。这篇论文以几种关键方式增加了我们对研究主题的理解。
-
关注学生生产力
-
论文对 ChatGPT 对高等教育中学生生产力的影响进行了具体分析。它通过各种支持方式提供了关于 ChatGPT 在影响学生学习成果和学术表现中所起作用的有关见解。
-
实际建议
-
研究的建议为寻求在保持人际互动和个性化指导平衡的同时,有效整合 ChatGPT 到学习过程中的教育者和机构提供了宝贵的指导。
-
更广泛的影响
-
虽然研究关注学生生产力,但它间接地为我们关于教师和高等教育机构作用的研究提供了信息。它说明了学生与 ChatGPT 的互动如何可能影响教师的授课实践和机构支持学生学习及学术成功的策略。
总体而言,Fauzi 等人(2023)的研究发现和建议为有效导航 ChatGPT 的整合提供了宝贵的指导,同时也提出了在人工智能(AI)驱动技术背景下考察教师和高等教育机构作用的重要考虑。
教育中的 Open AI,ChatGPT 的负责任和道德使用以促进终身学习
大卫·姆兰加(David Mhlanga)2023 年的文章《Open AI in Education: The Responsible and Ethical Use of ChatGPT Towards Lifelong Learning》采用了文献分析法,审查了包括新闻媒体、博客文章、已发表的期刊文章和书籍在内的各种来源(Mhlanga, 2023)。为了进行研究,姆兰加进行了全球搜索,以识别研究 OpenAI、教育中负责任 AI 使用原则以及 AI 在教育中的伦理影响的论文(Mhlanga, 2023)。从这次搜索中,他选择了 23 篇出版物作为他的主要来源,从中提炼出了一些关键主题。其中之一的关键主题围绕着在教育中使用 ChatGPT 所面临的挑战,他警告说,使用 ChatGPT 来评分书面任务可能会威胁到传统的评估方法,如论文。此外,他还提出了担忧,认为学生可能会将他们的工作外包给 ChatGPT,这使得检测剽窃行为变得更加困难。尽管存在这些挑战,姆兰加认为全面禁止 ChatGPT 可能不是最佳方法。相反,他敦促教育工作者和政策制定者深思熟虑地应对这些挑战,同时考虑 ChatGPT 在教育中的潜在益处。尽管有这些担忧,姆兰加也强调了 ChatGPT 带来的各种机会,建议 ChatGPT 生成论文和书面内容的能力可以成为增强学习的强大工具。此外,他还建议它可以用于改进评估程序、促进学生的协作和参与以及促进体验式学习。虽然姆兰加承认 ChatGPT 可能会造成干扰,但他也认为它为现代化和革命化教育提供了一个极好的机会(Mhlanga, 2023)。然而,如果在教育环境中实施 ChatGPT,姆兰加强调遵守负责任和道德实践的重要性,指出保护用户数据隐私至关重要,学生必须了解数据收集、使用和安全措施。同样,他警告说,负责任地使用 ChatGPT 需要解决潜在的偏见,并确保公平和非歧视,特别是在评分和评估方面。姆兰加还强调,ChatGPT 不应被视为替代人类教师,而应被视为课堂教学的补充。这是因为他认为人类教师在理解学生的独特需求、培养创造力和提供 ChatGPT 无法复制的动手经验方面发挥着至关重要的作用(Mhlanga, 2023)。此外,姆兰加指出 ChatGPT 的一些局限性,例如它无法理解学生周围的环境,如他们的文化和背景。他认为这一局限性使得 ChatGPT 不适合提供个性化的体验式教育,而他指出,这种教育对于学生的全面发展至关重要。因此,他建议教育工作者必须教育学生关于 ChatGPT 的局限性,并鼓励他们批判性地评估其输出(Mhlanga, 2023)。为确保教育中 AI 的道德使用,姆兰加认为透明度至关重要。因此,他建议为学生和教师提供开放的论坛、研讨会和讨论小组,以了解 ChatGPT 的功能和其能力。对于姆兰加来说,透明度应包括向学生告知所使用的算法和数据来源以及技术中的潜在偏见。他还认为,优先采用开源或透明 AI 技术,以提供访问源代码和底层数据至关重要。他认为,通过教育学生关于 AI 的局限性和潜在偏见,我们可以赋权他们负责任地使用这项技术(Mhlanga, 2023)。此外,姆兰加强调了教育中准确性的重要性,指出确保 AI 生成的内容准确可靠对于防止学生在误解和错误信息中至关重要。因此,他声明,在教育过程中使用 AI 工具时必须鼓励批判性思维和事实核查(Mhlanga, 2023)。
Mhlanga 的研究突出了在教育环境中使用人工智能所带来的挑战和机遇,并强调了负责任和透明实践的重要性。研究强调了教育学生和教师了解人工智能的局限性和潜在偏见,并强调了人类教师在学习过程中的不可替代作用。总的来说,Mhlanga 的研究为 ChatGPT 对学生、教师和高等教育机构的影响提供了宝贵的见解,解决了我们研究问题的关键方面。然而,建议进行进一步的研究,以扩大样本量,并考虑人工智能在教育中的更广泛应用。
Mhlanga(2023)的研究以以下方式与我们的研究相关:
-
教育的挑战与机遇
-
Mhlanga 的研究确定了在教育中使用 ChatGPT 所面临的挑战和机遇。了解这些方面可以帮助指导学生和教师如何以何种方式利用 ChatGPT 在教育环境中。关于潜在剽窃的担忧和教育者需要调整评估方法的需求突显了机构在实施 AI 工具时可能面临挑战。相反,ChatGPT 带来的机遇,如改进的评估程序和创新的教学方法,可以激励教育者以负责任的方式探索其整合。
-
补充人类教师
-
Mhlanga 的研究结果表明,ChatGPT 不应取代人类教师,而应补充他们的努力。这与我们关于学生在人工智能驱动的教育格局中角色的研究问题非常吻合。深入了解 ChatGPT 如何促进和改进人类教学可以为教师调整教学方法以及学生有效参与人工智能技术提供宝贵的指导。
-
局限性与意识
-
Mhlanga 的研究强调了教育学生了解 ChatGPT 局限性的重要性。了解人工智能的能力和局限性对于学生批判性地评估人工智能生成的内容并有效地使用这项技术至关重要。这一方面与我们关于学生如何互动和感知像 ChatGPT 这样的 AI 工具的研究高度相关。
-
整合与适应
-
Mhlanga(2023)的研究聚焦于将 ChatGPT 整合到教育中的挑战和机遇,这可以为高等教育机构如何适应由人工智能驱动的格局提供信息。了解潜在的干扰和好处可以帮助机构在采用人工智能技术时做出明智的决定。
-
进一步研究的范围
-
Mhlanga 的文章鼓励进一步研究并就 AI 在教育中的负责任使用进行辩论。这与我们探索 AI 对学生、教师和教育机构更广泛影响的研究目标相一致。我们的研究可以扩展 Mhlanga 的发现,深入研究 AI 在教育中具体的应用案例和最佳实践。
总之,David Mhlanga 的 2023 年文章对我们研究高度相关,因为它提供了关于 ChatGPT 在教育中负责任和道德实施的宝贵见解。该研究解决了 ChatGPT 如何影响学生、教师和高等教育机构的关键方面,提供了关于挑战、机遇、伦理考虑和潜在未来方向的有关观点。它作为理解 AI 在教育中影响的基础,并可以指导机构在负责任地导航 AI 驱动的教育景观。
高等教育中的 ChatGPT:关于学术诚信和学生学习的考虑因素
Sullivan 等人(2023)的文章《ChatGPT 在高等教育中的影响:学术诚信与学生学习的考量》对 ChatGPT 对高等教育的颠覆性影响进行了调查。他们的研究集中在两个主要领域:分析有关 ChatGPT 在高等教育背景下的新闻文章中的关键主题,以及评估 ChatGPT 是否被描绘成一种潜在的学习工具或学术诚信风险。他们的研究方法包括使用特定搜索词对来自澳大利亚、新西兰、美国和英国的 100 篇媒体文章进行内容分析,然后将这些文章导入 EndNote,随后导入 Nvivo 进行分析。作者遵循内容分析指南手册,完善了初步的代码簿,并根据识别出的主题对文章进行编码。他们还考察了包括大学员工、学生和 ChatGPT 在内的各种利益相关者在媒体中的表现。为了评估情感和词汇使用,他们使用了 Nvivo 的情感分析和查询功能。总体而言,分析中出现了许多主题。作者发现,文章主要关注与学术诚信相关的担忧,特别是关于作弊、学术不诚实和由 AI(如 ChatGPT)促成的滥用。还发现了使用 ChatGPT 在大学入学考试中作弊的案例。教育学生关于 AI 对学术诚信的影响以及制定明确的指导方针被视为至关重要。文章还探讨了大学在检测作业中 AI 使用方面的努力,提到了各种工具,如 OpenAI 的 Open Text Classifier、Turnitin、GPTZero、Packback、HuggingFace 和 AICheatCheck。然而,一些人对这些检测技术的准确性和复杂性表示怀疑,学者们依赖他们对学生工作的熟悉程度以及检测语气变化来识别 AI 生成的内容。在他们的研究中,Sullivan 等人(2023)还确定了一个关于阻止 ChatGPT 在教育中使用的策略的显著主题。许多文章讨论了大学调整课程、教学大纲或作业以最小化 ChatGPT 生成内容的敏感性,通常选择监考考试。然而,一些人反对仅依赖考试,建议重新设计任务以促进真实性并评估批判性思维。分析还突出了 ChatGPT 易于出错、局限性及其对学习成果的影响的担忧。此外,文章还提出了与学生数据相关的版权、隐私和安全问题。有趣的是,一些文章强调了学习和写作之间的内在联系,强调了写作在探索和巩固对各种主题的想法中的作用。其他担忧包括过度依赖 AI 完成课程作业可能导致批判性思维技能的潜在下降,这可能会损害真正的教育增长。此外,Sullivan 等人(2023)发现,与允许使用 ChatGPT 的机构相比,更多文章提到了实施 ChatGPT 禁令的机构或部门。然而,他们观察到最常见的反应是某些大学在政策上的犹豫不决。这些大学被描述为“更新”、“审查”和“考虑”他们的政策,反映了由于情况迅速变化而采取的谨慎态度。在没有官方机构政策的情况下,一些文章提到个别学术人员会根据每门课程制定修订后的政策。研究人员还指出,选择禁止使用 ChatGPT 的大学已经更新了他们的学术诚信政策或荣誉准则,或者他们认为基于现有的合同作弊定义,AI 的使用已经被禁止。另一方面,在允许使用 ChatGPT 的情况下,通常要求遵守严格的规则,包括在作业中披露或承认其使用。此外,研究人员强调,有两篇文章明确指出,尽管某所大学没有对 ChatGPT 实施禁令,但个别学术人员仍然有权在某些评估或单元中禁止其使用。此外,Sullivan 等人(2023)发现,分析的大量文章讨论了将 ChatGPT 整合到教学实践中。这些文章提倡在教学中有意义地整合 AI,并提出了将 ChatGPT 纳入作业任务的具体方法,如创意生成和对学生工作的反馈。提出了 ChatGPT 在学习体验中的各种应用,包括个性化作业、代码调试辅助、生成草稿、提供示范作业等。文章承认禁止 ChatGPT 的困难,并认识到其在未来工作场所的相关性。完全禁止被认为是不切实际的,导致了对投资 AI 检测系统的辩论。ChatGPT 被比作计算器或维基百科,突显了其颠覆性。然而,对 AI 在职场中具体应用的探讨并不广泛。研究人员指出,缺乏关注使用 ChatGPT 来提高学生的公平成果。很少有文章讨论减轻焦虑或支持校园中的可及性挑战。他们还强调,关于 ChatGPT 有可能提高非母语者的写作技能并促进更公平的学习环境的潜力,只有少数文章有所提及。他们指出,只有一篇文章简要提到了与残疾相关的考虑以及 AI 赋予残疾人权力的潜力。关于声音,Sullivan 等人(2023)发现,包括领导、协调员、研究人员和员工在内的大学人士在媒体中被广泛引用,近一半的文章引用了各自机构的三名或更多代表。相比之下,学生的声音相对较少,只有 30 篇文章提到了学生,其中只有 7 篇文章引用了超过三名学生的引语。一些文章关注 ChatGPT Zero 背后的学生 Edward Tien,而其他文章则使用调查数据来代表学生的集体声音。
基于他们的研究,Sullivan 等人(2023 年)呼吁对 ChatGPT 在大学教学和学习中的风险和机遇进行更平衡的考察,因为他们认为媒体对作弊的强调可能会影响读者对教育价值的看法以及学生对其适当使用的观点。因此,Sullivan 等人(2023 年)建议重新设计评估任务,通过个性化的反思性任务来降低对 AI 工具的依赖性。然而,他们承认在最有效的适应策略以及 ChatGPT 和检测软件的演变性质上存在分歧,这可能会使文章中的一些讨论过时。他们指出,文章强调了关于 AI 工具和学术诚信的政策修订的必要性,但缺乏具体的实施细节。他们建议在 2023 年晚些时候期待更明确的政策立场。他们还认为,鉴于学生的可访问性、复杂性和在各个行业的广泛应用,制定明确的伦理 AI 工具使用指南至关重要。他们认为,考虑到学生的可访问性,完全禁止 AI 工具的使用是不切实际的。Sullivan 等人(2023 年)强调了对 ChatGPT 使用明确指南的需要,包括承认其局限性和偏见。他们强调了对学生学习的潜在益处,简化复杂概念并帮助准备考试。他们认为将 ChatGPT 纳入工作流程可以提高就业能力,但分析 AI 输出的批判性思维技能是必不可少的。他们还建议需要更多的行业参与工作场所的讨论,教育工作者必须培养学生的独特技能,以在就业市场上保持竞争力。此外,Sullivan 等人(2023 年)强调 ChatGPT 有可能提高不同权益群体的学术成功,但指出现有文献中对此关注有限。他们认为 ChatGPT 可以支持非传统学生、非英语母语者和有可访问性需求的学生。然而,他们警告说,潜在的误差和偏见需要引起注意。作者报告说,他们认为机会很有希望,并期待未来在可访问性和包容性方面 AI 的发展。Sullivan 等人(2023 年)承认媒体主要关注 ChatGPT 在学术和机构方面的观点,忽视了学生的观点。他们强调需要更多建设性和以学生为主导的讨论,涉及所有利益相关者,以进行关于 AI 的包容性对话。他们主张学生协会和合作伙伴与大学工作人员合作,增强学生参与度和机构对 AI 的方法。
Sullivan 等人(2023)承认他们研究的局限性,主要集中在主流新闻数据库和相对较少的文章上,我们倾向于同意他们的观点。他们强调考虑社交媒体平台和教育博客等替代来源的重要性,以更全面地理解 ChatGPT 的讨论。他们还建议扩大样本量,探索不同的文化背景,并调查塑造媒体覆盖的来源,以解决现有的偏见。为了解决这些局限性,Sullivan 等人(2023)提出了未来的研究机会,包括探索非西方来源,对学生和学术人员进行调查和焦点小组讨论,以及调查学术人员对 ChatGPT 的看法。他们强调 AI 工具增强学生学习和获取的潜力,强调在讨论中需要更多包容性的学生视角。作者强调媒体框架及其对公众对学术诚信和大学对 ChatGPT 反应认知的影响。作者总结说,他们的发现强调了进一步研究和对话 AI 工具影响的必要性,强调了探索伦理使用、创新的教学和学习实践以及促进教育机会公平获取的必要性。最后,他们断言,随着 AI 技术的持续发展,大学适应并采用支持学生学习并为他们准备日益数字化的世界挑战的方式至关重要。
Sullivan 等人(2023)的研究以以下方式与我们的研究相关。
-
学术诚信担忧
-
Sullivan 等人强调,媒体文章主要关注与学术诚信相关的担忧,例如 ChatGPT 促进的作弊和学术不诚实。这一发现强调了解决这些诚信担忧并为我们研究制定明确的学生使用 AI 工具指南的重要性。
-
任务重设计和规避策略
-
该研究揭示,大学正在采取策略来阻止 ChatGPT 的使用,包括任务重设计和选择监考考试。这些发现可以为我们研究机构如何适应 AI 工具带来的挑战并保持评估的完整性提供信息。
-
政策挑战
-
Sullivan 等人报告了某些大学在 ChatGPT 使用政策上的犹豫不决。这一方面对我们研究特别相关,因为它强调了机构在确保学术诚信的同时,需要制定明确的指南和政策以规范 AI 工具的伦理使用。
-
在教学中使用 ChatGPT
-
尽管存在担忧,这项研究强调了一些媒体报道倡导在教学实践中有意义地整合 ChatGPT。这一发现对我们研究具有重要意义,因为它为我们提供了将 AI 工具融入教育环境中的潜在机会和益处的见解。
-
公平性和可及性考虑
-
研究触及了 ChatGPT 在公平性和可及性方面的潜在益处,例如帮助非母语演讲者和有残疾的学生。这些考虑与我们的研究重点相一致,即了解 AI 工具如何支持我们所有的学生,特别是考虑到我们大多数学生都是非母语演讲者在英语环境中学习。
-
学生参与度
-
他们的研究揭示了学生在媒体报道中的代表性相对较低。这一方面与我们研究直接相关,强调了在涉及 AI 在教育中整合的讨论和决策过程中涉及学生的必要性。
总之,Sullivan 等人(2023)的调查对我们研究具有重大相关性,因为它阐明了理解将 ChatGPT 整合到教育景观中的影响的关键方面。他们关于学术诚信问题、任务重新设计策略、政策挑战、在教学中使用 ChatGPT、公平性和可及性考虑、媒体认知和学生参与度的发现为我们研究提供了宝贵的基石,以探索在我们教育环境中负责任和有效地整合 AI 工具。
ChatGPT 文献综述论文
‘我们需要谈谈 ChatGPT’:人工智能与高等教育的未来
在他们 2023 年发表的论文《我们需要谈谈 ChatGPT:人工智能与高等教育的未来》中,Neumann 等人强调了 ChatGPT 在软件工程学生中的应用多样性。这些应用包括评估准备、翻译和生成特定源代码,以及总结文献和改写科学写作中的文本。这促使他们撰写了一份立场文件,旨在启动关于将 ChatGPT 整合到高等教育中可能策略的讨论。因此,他们决定调查探讨 ChatGPT 对高等教育影响的文章,特别是软件工程和科学写作领域,目的是询问“研究社区中有哪些经验教训可以借鉴?”(Neumann 等人,2023)。然而,由于 ChatGPT 刚刚发布,与我们自己的情况相似,他们在写作时观察到缺乏针对这一主题的同行评审文章。因此,他们决定使用 Google Scholar 进行结构化灰色文献综述,以识别初级研究的预印本。研究人员从 55 篇预印本中选出了 5 篇进行分析。此外,他们与讲师和研究人员进行了非正式的讨论和交流,并检查了他们自己对 ChatGPT 实验的测试结果。通过审查这些预印本,Neumann 等人确定了需要关注的潜在挑战和机遇(2023)。他们认为这些挑战和机遇适用于高等教育的四个领域:教学、论文、课程和法规。在教学方面,Neumann 等人强调早期引入基础概念的重要性,例如编程基础,并明确 ChatGPT 的适当使用(2023)。他们强调需要透明度,确保学生了解 ChatGPT 的功能和限制。他们建议调整现有的指南或手册,协调教师以避免重复,并将 ChatGPT 整合到教学活动中。他们还建议学生练习使用该工具进行特定用例,探索其可能性和局限性。此外,他们指出 ChatGPT 可能整合到现代教学方法,如基于问题的学习或翻转课堂。此外,他们提议邀请实践者提供在课程中整合 ChatGPT 到实际工作中的见解。总体而言,他们的建议旨在促进基于实践的学习并提高透明度。关于论文,根据 Neumann 等人的观点,将 ChatGPT 整合到高等教育中在科学写作方面提出了挑战,特别是在涉及现有知识的部分(2023)。他们建议结合使用抄袭检测器和 AI 检测工具,并将人工检查作为后备。他们强调彻底的参考文献检查和验证是至关重要的。他们还强调 ChatGPT 使用 GPT-3 时的可识别特征,如引用不存在的文献,这有助于检测。他们提出使用额外的口试或文件作为额外措施。此外,他们建议更加重视研究设计和结果部分,以增强科学教育。根据 Neumann 等人的观点,调整课程是一个复杂的过程,需要仔细考虑对其他课程的影响以及符合法规(2023)。然而,他们预计讲师之间将进行大量讨论,因为对将 ChatGPT 整合到讲座中的意见不一。尽管如此,他们认为这些讨论将是宝贵的,因为它们将提供相互学习和解决出现挑战的机会。在法规方面,作者强调评估官方法规文件,如考试法规的重要性(2023)。他们还强调在将 ChatGPT 整合到教学中时需要考虑各种法律方面,如版权和数据保护。为了确保一致性,作者建议重新评估现有的考试法规并为学生制定明确的指南。此外,他们强调在研究计划内讲师之间进行彻底讨论的重要性,以通过调整课程目标、理论基础和考试类型来识别采用机会。通过解决这些领域,他们认为 ChatGPT 成功整合到大学教学是可能的,这将减少不确定性并关注创新教育。Neumann 等人通过总结他们的研究指出,他们的发现突出了基于人工智能的聊天机器人如 ChatGPT 对高等教育的变革性影响,特别是在科学写作领域(2023)。然而,他们承认存在一些需要进一步研究的问题:ChatGPT 生成的文本是否构成抄袭案件?如何引用 ChatGPT 生成的文本?以及使用 ChatGPT 生成的文本在总范围中占多大比例是可接受的?然而,他们也承认可能会出现更多的问题。为了总结,他们强调,作为塑造未来专家的教育者,为学生配备 ChatGPT 负责任使用的必要技能是重要的。因此,他们强调需要解决高等教育中 AI 工具的整合问题,并承认他们的工作是为启动进一步调查、促进讨论和发现解决方案奠定基础。
Neumann 等人(2023)的研究优势在于其关注新兴 AI 技术对高等教育的影响,以及其对整合各个方面进行的全面探索。研究人员通过非正式讨论和与 ChatGPT 的实践实验来补充他们的发现,增强了研究的见解。然而,该研究存在明显的弱点和局限性需要考虑。研究对预印本和非正式讨论的依赖可能引入潜在的偏见,并限制发现的可推广性。预印本的小样本量(只有 55 篇中的 5 篇)可能无法完全代表该主题的研究范围,并且缺乏同行评审的文章可能会影响研究的可信度。此外,研究对软件工程和科学写作的强调可能无法完全捕捉 ChatGPT 对其他学术学科的影响。此外,作者承认存在未解决的问题,表明 ChatGPT 融入高等教育的某些方面尚未得到解决。此外,该研究主要探索研究人员的观点。纳入更多来自不同学科和机构的实践者的不同观点,可以增强发现的有效性和可靠性。总之,Neumann 等人关于将 ChatGPT 融入高等教育的这项研究提供了宝贵的见解,但它面临着与样本量、代表性以及关注点相关的局限性。尽管存在这些局限性,该研究仍然是进一步探讨在教育环境中负责任和有效使用 AI 工具的起点和讨论的基础。
我们认为 Neumann 等人(2023)的研究在以下领域对我们的研究具有重要意义:
-
教学策略和早期引入
-
研究强调了早期引入基础概念和在教学中透明使用 ChatGPT 的重要性。他们对协调教师之间关系和将 ChatGPT 融入教学活动的建议,为教师如何在他们的教学方法中融入 AI 工具提供了见解。
-
课程调整与规定
-
该研究确定了在整合 ChatGPT 时讲师之间进行讨论的需求,以调整课程并遵守规定。这一见解为我们研究机构可能需要如何调整以适应 AI 工具提供了信息。
-
未解决的问题和进一步调查
-
研究承认了与 ChatGPT 在学术环境中使用相关的未解决问题。这为我们可能探索这些未回答方面的研究提供了一个指南,例如如何引用 AI 生成的文本。
尽管 Neumann 等人的研究存在局限性,例如样本量小和潜在的偏见,但他们全面探索人工智能技术对高等教育的影响提供了宝贵的见解。通过建立在他们工作的基础上并开展我们自己的研究,我们可以为基于证据的实践和关于 ChatGPT 在高等教育中负责任和有效整合的知情讨论做出贡献,从而为学生准备未来以 AI 驱动的景观。
ChatGPT:胡言乱语者还是高等教育传统评估的终结?
在他们 2023 年的论文《ChatGPT:胡言乱语者还是高等教育传统评估的终结?》中,Rudolph 等人对 ChatGPT 进行了全面的文献综述和实验分析。他们的文献综述在迄今为止探索 ChatGPT 在高等教育中相关性的开创性同行评审学术期刊文章中脱颖而出,特别是在评估、学习和教学方面。Rudolph 等人的论文主要考察这项技术对高等教育的启示,并深入探讨了在 AI 聊天机器人如 ChatGPT 的背景下学习和教学的未来。他们将 ChatGPT 置于当前教育人工智能(AIEd)研究领域,讨论了其对学生的应用、教师和教育系统的影响。作者分析了 ChatGPT 带来的机遇和威胁,并在文章结尾针对学生、教师和高等教育机构提出了具体建议,特别关注评估。为了他们的研究,Rudolph 等人采用了桌面分析的方法。他们进行了 Google Scholar 搜索,检查了参考文献列表,并探索了非学术文章中嵌入的参考文献以进行文献综述。然而,由于主题的新颖性,再次,类似于我们自己的情况,他们发现只有有限的相关学术资源。截至 2023 年 1 月 18 日,研究人员发现了两篇关于 ChatGPT 在高等教育中应用的同行评审期刊文章和八篇预印本,特别关注评估、学习和教学。基于他们的文献综述,Rudolph 等人(2023)提出了以下 ChatGPT 对教育的启示。
Rudolph 等人(2023 年)强调,AIEd 在教育技术中探索各种工具和应用提供了一个独特的机会。借鉴 Baker 和 Smith(2019 年)的框架,他们将教育环境分为面向学生、面向教师和面向系统的维度,他们认为这些维度有助于他们理解 AI 在教育中的应用。关于面向学生的 AI 应用,Rudolph 等人强调智能辅导系统(ITS)等 AI 应用在通过定制教学个性化学生学习的潜力。他们强调 ITS 模拟人类辅导并提供个性化问题解决辅助的能力。此外,他们讨论了由大数据技术和学习分析进步推动的个性化自适应学习(PAL)的可能性。虽然承认 ChatGPT 在增强语言翻译和问答等任务方面的潜力,但他们也指出其在深入理解学科内容方面的局限性。作者表示,他们认为关于 AI 驱动的写作应用的担忧是讽刺的,因为他们相信 ChatGPT 可以极大地帮助教师培养创新的教学和学习方法。关于面向教师的 AI 应用,Rudolph 等人(2023 年)强调面向教师的 AIEd 系统通过自动化评估、剽窃检测和反馈等任务来减轻教师的工作负担。他们还指出,AI 驱动的应用可以提供有关学生学习进展的宝贵见解,从而实现有针对性的指导和支持。他们的研究探讨了 AI 驱动的评估方法,包括自动作文评分(AES)系统,这些系统为学生提供修改答案的提示,将评估扩展到多项选择题之外。他们得出结论,AI 驱动的作文评分通常与人类评分一致,但一些担忧仍然存在。Rudolph 等人还强调将 AES 与 AI 驱动的自动反馈系统相结合以增强有效性的重要性。反馈系统的自适应评估确保基于布卢姆的认知水平提供适当的答案,并可以向学生推荐额外的学习资源和挑战。他们承认 AI 驱动的评分应用在论文评分方面的良好记录。然而,他们提出了关于 ChatGPT 在支持学生写作技能发展的新兴子领域可能造成的破坏的担忧。此外,他们强调在 ChatGPT 之前开发的基于 AI 的写作工具,旨在通过自动反馈和评估提高写作技能并促进写作过程。作者还强调 Grammarly 和 Wordtune 等 AI 驱动的写作应用作为写作课程的宝贵补充,指出 Grammarly 提供即时反馈和修订建议,通过自动纠正反馈有效地提高写作参与度,而 Wordtune 则利用自然语言处理(NLP)帮助英语作为外语(EFL)学生在构思想法和提升写作质量方面。他们指出,研究强调了基于 AI 的干预对学生自我效能感和 EFL 环境中的学术情绪的积极影响,支持独立学习和改进。他们还建议将 ChatGPT 分析在 AIEd 工具的同一类别中。关于面向系统的应用,Rudolph 等人(2023 年)指出,与面向学生和面向教师的 AI 应用相比,文献中关于面向系统的 AI 驱动的应用受到的关注较少。尽管如此,他们强调在制定利用 ChatGPT 进行教育创新的策略时采取整体方法的重要性,并从微软将其纳入其产品的做法中汲取灵感。他们还提到,由于 ChatGPT 是市场上的一种新产品,因此关于其对教育的潜在影响的实证研究有限。因此,他们认为有必要讨论 ChatGPT 可能为教育实践者、政策制定者和研究人员带来的机遇和挑战(Rudolph 等人,2023 年)。
Rudolph 等人(2023 年)指出 ChatGPT 可能威胁到传统的论文评估方法,指出教师担心学生可能会将作业外包给 ChatGPT,生成未经抄袭检测工具检测到的可接受的文章。他们认为这些担忧可能部分源于教师对适应新评估方法的抵制,因为书面作业有时因评估学生学习效果不力而受到批评。Rudolph 等人(2023 年)还表达了对 ChatGPT 在理解和评估共享信息方面的局限性的担忧,因为它仅仅是一个文本生成机器。他们认为这种担忧可能会促使机构将 AI 应用列入黑名单。然而,随着 ChatGPT 技术可能集成到微软产品中,他们建议采取一种务实的办法来管理未来 ChatGPT 广泛使用带来的挑战。从他们的研究中,Rudolph 等人(2023 年)指出,语言模型为社会提供了广泛的有益应用,例如代码和写作自动完成、语法辅助、游戏叙事生成、改进搜索引擎响应和回答问题。然而,他们也承认这些模型潜在的有害应用,特别是 GPT-3 因其增强的文本生成质量和适应性而突出,使得合成文本与人类撰写的文本难以区分。因此,他们认为语言模型的发展既带来了机遇也带来了风险,在这种情况下,重点应放在探索改进后的语言模型的潜在危害上,而不是暗示危害大于利益,而是鼓励研究和努力应对和减轻潜在风险。Rudolph 等人(2023 年)总结说,课堂中引入颠覆性教育技术通常会在教学和学习中带来各种挑战。因此,教育实践者和政策制定者有责任管理这些情况,以确保避免不充分的教学习惯。
基于他们的研究,Rudolph 等人(2023 年)发现,ChatGPT 生成论文的能力对教育工作者来说提出了挑战,但有些人对这种颠覆性人工智能应用在教育和学习方面带来的创新潜力感到热情。他们引用了文献,表明像 ChatGPT 这样的工具可能会像计算器和计算机在数学和科学中一样普遍。此外,他们指出,一些作者提出应让学生和教师参与塑造和利用 AI 工具以支持学习,而不是限制其使用。从他们的研究中,他们还指出,尽管 ChatGPT 通常被视为对传统论文评估构成威胁,但他们相信它也为教育工作者提供了引入创新评估方法的机会。他们指出,通常,评估被教师用来评估学生的学习,但他们认为许多教师可能缺乏使用评估作为学习和学习手段的技能。因此,他们认为机构应利用这个机会来提高教师的评估技能,并利用像 ChatGPT 这样的颠覆性 AI 应用来增强学生的学习。Rudolph 等人(2023 年)强调,通过利用 ChatGPT,教师还有另一个提高教学策略的机会。例如,他们建议采用翻转学习法,在面对面会议期间完成关键课程作业,从而更侧重于多媒体作业和口头报告,而不是传统作业。此外,他们认为这将使教师能够有更多时间提供反馈和修改学生的作业。根据 Rudolph 等人(2023 年的说法),ChatGPT 的另一个显著优势是其促进体验式学习的潜力。基于他们的文献综述,他们提出学生应通过利用 ChatGPT 进行基于游戏的学习和其他以学生为中心的教学法来探索各种策略和解决问题的方法。此外,他们认为喜欢动手、体验式学习的学生将特别受益于使用 ChatGPT 作为学习工具。根据作者的说法,ChatGPT 可以通过适当的指导策略有效地用于促进参与者之间的协作和团队合作。他们提出将学生为中心的学习活动融入其中,这些活动可以在小组中进行。例如,ChatGPT 应用可以生成各种场景,鼓励学生在解决问题和实现目标时进行合作。他们认为这将培养社区感,使学生能够相互学习和支持。因此,Rudolph 等人(2023 年)断言,与其将 ChatGPT 视为教学和学习过程中的颠覆性力量,不如将其视为学习创新者变革教育的重要机遇。
Rudolph 等人(2023 年)得出结论,以 ChatGPT 等工具为代表的 AI 正在变得越来越主流,其对高等教育的影响仍在展开。虽然他们指出人们对人工智能对就业的潜在影响存在担忧,但他们警告不要过度报道。然而,他们确实强调了对这个快速发展的领域进行监控和参与的必要性,以及调整高等教育中教学和评估方法的需要。此外,他们强调,ChatGPT 的工作在他们的随机测试中没有被反抄袭软件检测到,这引起了对其可能绕过 Grammarly 专业版等抄袭检查器的担忧。此外,他们观察到 ChatGPT 可以被用来操纵用户输入的句子,以欺骗反抄袭软件不报告低原创性分数。他们反思了这样一个讽刺现象:依赖 AI 的反抄袭软件可以在几秒钟内被其他 AI 工具绕过。他们甚至指出,GPT-3 能够撰写一份关于学生 AI 生成作业的评论,使人类参与度降至最低,并质疑学习体验的真实价值。
基于他们的发现,Rudolph 等人(2023)为高等教育中处理 ChatGPT 提供了一般性建议。他们建议从关注检测学术不端行为的执法方法转向通过以学生为中心的教学法和评估来与学生建立信任关系。他们还强调建设性对齐的重要性,即学习目标、教学和评估都应保持一致。他们对教师、学生和高等教育机构的建议如下。关于对高等教育教师的建议,Rudolph 等人(2023)建议探索替代评估方法,例如使用笔和纸进行的物理闭卷考试或带有监考/监控软件的在线考试,但也警告不要过度依赖这些传统评估方法。为了应对像 ChatGPT 这样的文本生成器的使用,他们提出设计这些人工智能系统目前尚不擅长的写作任务,专注于特定和细分主题、个人经验和原创论点。作者承认 ChatGPT 当前的局限性是其缺乏文本引用和参考文献列表,但预计像 WebGPT 这样可以访问网络浏览以改进信息检索的工具将会出现。他们还强调存在用于检测文本生成器的软件,以解决学术诚信问题。作者鼓励教师在评估中培养创造性和批判性思维,利用真实评估并接纳学生的兴趣和声音。他们认为,让学生参与同行评审和“教学反馈”练习可以进一步丰富学习体验。作者还强调,在创造一个学生积极参与学习并展示人类写作价值的同时,负责任地融入人工智能工具以培养创造性和批判性思维的环境(Rudolph 等人,2023)。关于对学生的建议,Rudolph 等人(2023)指出,作为数字原住民,学生通常对技术有内在的熟悉度,这使他们能够将人工智能融入他们的学术旅程中,从而获得独特的优势。因此,作者强调理解学术诚信政策和学术不端行为的潜在后果的重要性。他们认为,为了充分利用人工智能的潜力,应鼓励学生提高他们的数字素养并掌握像 ChatGPT 这样的 AI 工具,因为这种熟练程度可以显著提高他们在现代就业市场中的就业能力。然而,他们也警告不要将人工智能作为作业的简单捷径,而是提倡将其作为一套有价值的工具来提高写作技能和生成原创想法。他们还警告说,在进行研究时,避免剽窃、优先考虑高质量来源以及保持对错误信息和虚假信息的警惕是至关重要的。为了培养批判性思维,Rudolph 等人(2023)建议我们应该敦促学生广泛阅读,拓宽他们的视野并增强他们的创造力。此外,他们建议鼓励学生探索将 AI 语言工具如 ChatGPT 应用于编写和调试代码的应用,为技能发展提供额外的机会。最终,Rudolph 等人鼓励学生积极练习使用 AI 语言工具来解决现实世界的挑战并扩展他们的解决问题的能力,并相信通过负责任和深思熟虑地拥抱人工智能,学生可以抓住其变革潜力并推动他们的教育之旅达到新的高度(Rudolph 等人,2023)。关于对高等教育机构的建议,Rudolph 等人(2023)强调数字素养教育的重要性,提倡将像 ChatGPT 这样的 AI 工具纳入课程。他们建议为了使教师具备必要的技能,对 AI 工具,尤其是 ChatGPT 的培训是必不可少的。同时,他们建议学生也应接受学术诚信培训,以促进负责任地使用 AI 工具。此外,他们建议精心设计课程和课程,使其对学生有意义且相关,以降低作弊的可能性。他们认为,为了应对 AI 工具的使用,机构应更新学术诚信政策并制定明确、易于理解的指南,这些指南应定义适当的用途并概述作弊的后果。他们还强调,鼓励研究 AI 工具对学习和教学的影响至关重要,以更好地理解其影响并促进明智的决策。他们认为,通过采用这些建议,高等教育机构可以应对人工智能工具不断发展的格局,创造一个支持负责任和创新学习实践的环境(Rudolph 等人,2023)。
Rudolph 等人(2023 年)的研究探讨了 ChatGPT 在高等教育中的相关性,特别是在评估、学习和教学方面。然而,该研究存在一些局限性。关于 ChatGPT 在高等教育中应用的学术资源稀缺可能影响了分析的深度。此外,依赖桌面分析和缺乏实证证据可能会影响研究的有效性。此外,对其他 AI 写作工具影响的更比较分析将提供对 AI 对教育影响的更广泛理解。研究对 AI 益处的积极看法可能会引入偏见,而对风险和收益的平衡评估将增强客观性。
Rudolph 等人(2023 年)的研究对我们研究 ChatGPT 可能如何影响学生、教师和高等教育机构的作用的启示如下:
-
理解教育中的 AI
-
Rudolph 等人(2023 年)的研究为 AI,特别是 ChatGPT 在高等教育中的应用和影响提供了宝贵的见解。它提供了一个框架,将 AI 应用分类为学生面向、教师面向和系统面向维度,使人们能够全面理解 AI 在教育中的作用。这是一个我们可以借鉴的框架,以帮助我们阐明 AI 工具如 ChatGPT 如何影响各种教育环境的不同方式。
-
创新评估方法
-
该研究强调了 ChatGPT 可能破坏传统评估方法(如论文和在线考试)的担忧。随着我们调查 AI 工具对评估实践的影响,Rudolph 等人的发现可以指导我们探索利用 AI 的创新评估方法,同时解决由文本生成 AI 应用带来的挑战。
-
个性化学习的机会
-
Rudolph 等人强调 AI 工具(包括 ChatGPT)在个性化和学生学习体验适应方面的潜力。这一见解可以指导我们研究如何利用 AI 来定制教学、提供反馈,并支持以学生为中心的教学法,培养个性化的学习路径。
-
利用 AI 支持教师
-
该研究讨论了 AI 如何通过自动化任务(如评估和反馈)来减少教师工作量并增强课堂创新。我们的研究可以探索 AI 工具如 ChatGPT 如何补充教师的努力,使他们能够更多地指导学生并提供个性化支持。
-
解决伦理问题
-
Rudolph 等人(2023 年)的研究承认了对学术诚信的担忧以及 AI 工具如 ChatGPT 被用于剽窃的潜在滥用。随着我们调查 AI 在教育中整合的伦理影响,他们的发现可以帮助我们审视促进负责任 AI 使用和有效打击学术不端行为的策略。
-
促进数字素养
-
研究强调了数字素养教育对学生和教师的重要性。我们可以通过探索教育机构如何将 ChatGPT 等人工智能工具融入课程,同时教育用户其负责任和有效使用来将这一见解纳入我们的研究。
-
协作学习机会
-
Rudolph 等人讨论了人工智能工具,如 ChatGPT,促进学生在协作和团队合作中潜力的可能性。我们的研究可以调查这些工具如何融入小组学习活动,以培养社区感和相互支持感。
-
监控与参与
-
研究强调了在高等教育中持续监控和参与人工智能技术的必要性。我们的研究可以通过考察机构如何了解人工智能的进步并相应地调整其教学和评估方法来对持续讨论做出贡献。
Rudolph 等人(2023)的研究为 ChatGPT 在高等教育中的影响提供了宝贵的见解,突出了 AIEd 工具对教学和学习的变革性影响。我们的研究可以在此基础上理解 ChatGPT 如何塑造学生、教师和机构的角色。然而,如文献匮乏和缺乏实证证据等局限性需要进一步探索。
ChatGPT 的用户案例研究论文
如果恶魔是我的守护天使:ChatGPT 作为教育中应用聊天机器人的案例研究
由于 ChatGPT 在全球范围内获得的关注,Tlili 等人(2023)在他们的 2023 年论文《如果恶魔是我的守护天使:以 ChatGPT 为例,探讨在教育中使用聊天机器人的案例研究》中提出问题:“使用聊天机器人,特别是 ChatGPT,在教育中存在哪些担忧?”为了回答这个问题,他们进行了一项定性工具性案例研究,以探索早期采用者中 ChatGPT 在教育中的使用情况。他们通过分析三种类型的数据来完成这项任务:推文的社交网络分析、访谈的内容分析和用户体验的考察。Tlili 等人(2023)使用推文的社交网络分析来考察公众对 ChatGPT 在教育中使用的讨论。他们收集了从 2022 年 12 月 23 日至 2023 年 1 月 6 日之间,来自 1,530 个用户的 2,330 条推文,搜索词为“#ChatGPT* AND (education OR teaching OR learning)”。研究人员对推文进行了情感和 tSNE 分析。对于访谈,他们选择了具有不同背景的多样化参与者,包括教育工作者、开发者、学生和 AI 自由职业者,他们对聊天机器人的熟悉度评分为 3.02(平均)。访谈使用编码方案进行了内容分析。此外,他们还与三位经验丰富的教育工作者进行了 ChatGPT 的实际体验,探讨了各种教学场景和担忧(Tlili 等人,2023)。关于推文的社交网络分析,Tlili 等人(2023)发现围绕 ChatGPT 的社区形成是碎片化的,个人在寻求有关其局限性和承诺的信息和讨论。最常用的词对提供了有趣的见解,其中一些建议如何使用 AI 驱动的 ChatGPT 在教育中,而另一些则暗示了教育系统中的转折点。研究人员得出结论,公众对 ChatGPT 的看法是多样的,没有关于它是否是炒作还是未来机会的集体共识。虽然积极情绪(5%)超过了消极情绪(2.5%),但大多数情绪(92.5%)未被分类,这表明公众对 ChatGPT 在教育中的不确定性。词簇分析揭示了用户对使用 AI 驱动的聊天机器人在教育中的乐观态度。然而,也表达了一些批评性的见解和担忧,例如作弊和伦理影响。研究人员强调,需要检查 ChatGPT 背后的基础 AI 技术,如机器学习和深度学习。尽管总体上持乐观态度,但对其在教育中使用的担忧也被观察到。该研究得出结论,消极情绪表明了更深层次的批判性思维,这表明在将 ChatGPT 整合到教育中时应持谨慎态度(Tlili 等人,2023)。关于 Tlili 等人(2023)进行的访谈内容分析,研究发现强调了用户对 ChatGPT 在教育中革命性意义的积极看法。参与者承认,它通过提供基础知识和简化复杂主题来提高教育成功的有效性。这种潜力使研究人员相信,教学方法和学习改革将发生范式转变。然而,少数参与者表达了对学习者过度依赖 ChatGPT 的担忧,这可能会阻碍他们的创造力和批判性思维能力。关于教育中聊天机器人提供的响应质量,Tlili 等人(2023)的研究表明,参与者普遍认为 ChatGPT 的对话质量和信息准确性是令人满意的。然而,他们也指出偶尔会出现错误、信息有限和误导性响应的情况,这表明还有改进的空间。在用户体验方面,Tlili 等人(2023)的研究中许多参与者对与 ChatGPT 进行的流畅和令人兴奋的对话印象深刻。然而,他们也指出,ChatGPT 的人文性需要改进,特别是在增强其社会角色方面,因为它目前缺乏检测用户物理线索或动作的能力。该研究还表明,用户将 ChatGPT 视为跨学科的有价值工具,减轻了教师的负担,并为学生提供了即时反馈。然而,一些用户报告了响应准确性、矛盾、有限上下文信息和希望增加更多功能方面的挑战。在伦理方面,参与者对 ChatGPT 可能鼓励剽窃和作弊、在用户中培养懒惰以及可能提供有偏见或虚假信息的担忧。该研究还强调了关于 ChatGPT 对学生批判性思维的影响以及通过重复互动产生的隐私问题的担忧。
关于用户体验的调查,教育者在每日会议中比较了他们使用 ChatGPT 获得的各种结果后,确定了十个存在各种教育问题的场景。具体如下。作者发现,教育者观察到 ChatGPT 在帮助学生撰写论文和回答考试问题方面的能力,对潜在的作弊行为以及使用聊天机器人进行教育中作弊检测的有效性提出了担忧(Tlili 等人,2023 年)。教育者还认识到聊天机器人在生成学习内容方面的熟练程度,但强调了内容准确性和可靠性的必要性,质疑如何确保聊天机器人生成内容,包括 ChatGPT(Tlili 等人,2023 年)的内容质量和验证。教育者每个人都使用相同的提示启动了一个新的 ChatGPT 聊天。然而,他们收到了不同质量答案的不同响应,突显了对高质量学习内容公平获取的担忧(Tlili 等人,2023 年)。ChatGPT 生成的测验难度各异,引发了关于这些学习评估适当性的疑问(Tlili 等人,2023 年)。教育者强调了精心设计的评估对于学生理解和解决问题的必要性,但发现聊天机器人生成的测验中存在不一致性,可能会使教师的责任复杂化(Tlili 等人,2023 年)。他们指出,用户的互动风格影响了从 ChatGPT 获得的学习辅助水平,提出了关于用户能力思考和风格以最大化其潜力的疑问(Tlili 等人,2023 年)。教育者强调了使聊天机器人人性化的必要性,包括表达情感和具有个性的能力,以鼓励学生进行反思性参与(Tlili 等人,2023 年)。教育者观察到 ChatGPT 偶尔提供不完整的答案,对其对用户行为的影响提出了担忧,特别是对于可能将其作为未完成任务或作业借口的小学习者(Tlili 等人,2023 年)。教育者强调了探索潜在对用户不利影响的必要性(Tlili 等人,2023 年)。他们还强调了关于数据存储和使用的担忧,ChatGPT 否认存储对话数据,强调保护用户隐私的必要性,尤其是对年轻人(Tlili 等人,2023 年)。在一次与 ChatGPT 的互动中,一位教育者请求以美国心理学会(APA)格式提供博客,结果得到了令人惊讶的不准确信息,引发了关于确保 ChatGPT 提供可靠响应以防止伤害或操纵的疑问(Tlili 等人,2023 年)。
在他们的讨论中,Tlili 等人(2023 年)表达了自己相信他们的发现证明了 ChatGPT 在教育领域带来变革性变化的潜力。然而,尽管承认其潜力,他们也对 ChatGPT 在教育环境中的使用提出了几个担忧。作者承认,尽管一些机构因担心作弊和操纵而禁止在教育中使用 ChatGPT,但他们提出了一个负责任的应用方法。这种方法包括制定指南和涉及来自教育、安全和心理学领域的专家的跨学科讨论。他们指出,尽管存在缺点,但最近的研究表明 ChatGPT 在教育中存在提升学习和教学的机会,这促使人们进一步研究过度依赖聊天机器人技术在教育中的后果。强调技术在教育中的变革性影响,作者还强调 ChatGPT 简化论文写作和引入如口头辩论等创新教学方法以评估批判性思维的潜力。他们提倡多样化的评估方法和传统课堂的改革,同时探索聊天机器人和人类互动之间的平衡,包括与人类导师的协作潜力。因此,他们呼吁进一步研究以调查聊天机器人如何提高学习成果并促进教育中有效的人机协作。关于用户体验,Tlili 等人(2023 年)揭示了基于问题措辞的输出质量变化,强调了学习如何获得最有用的学习输出的重要性。他们指出,尽管 ChatGPT 不需要广泛的技术技能,但批判性思维和提问能力对于获得最佳结果至关重要。作为解决方案,他们建议进一步研究必要的技能及其发展,包括 ChatGPT 的有效使用。尽管 ChatGPT 显示出部分人性化,但作者强调了反思思考和情感表达方面的局限性,他们认为这可能会影响其在教育中的有效性。因此,他们呼吁在教育中开发更人性化的聊天机器人,借鉴关系形成理论,并探讨人-聊天机器人关系对学生学习成果的影响。然而,他们对于将 ChatGPT 视为人类表示担忧,引用了其在学术论文中被列为合著者的情况,提出了伦理、监管、原创性、作者权和版权问题。为了确保负责任的设计,作者强调在实施聊天机器人时需要考虑包容性、伦理和可用性。他们强调 ChatGPT 表现出有害行为的情况,强调了负责任的人工智能设计的重要性,该设计解决偏见、公平和透明度问题。作者提倡以用户为中心的设计原则,考虑到社会、情感和教学方面。他们建议未来的研究应专注于设计符合人类价值观和法律框架、在教育中安全使用的负责任聊天机器人。
Tlili 等人(2023)的研究通过分析来自推文、访谈和用户体验等多样化的数据来源,对教育领域关于 ChatGPT 的公共话语提供了全面的理解。然而,其样本量小且数据收集的时间框架有限,这引发了关于普遍性和捕捉不断变化意见的担忧。内容分析也可能引入主观解释和偏见。尽管存在局限性,但该研究强调了在教育环境中负责任实施和制定指南的必要性。它强调了调整教学实践和探索人机关系对学习成果影响的重要性。未来的研究应侧重于提升技能的需求和开发更人性化和负责任的教育聊天机器人。此外,持续研究对于在教育环境中最大化聊天机器人的潜力同时解决担忧至关重要。
我们认为,Tlili 等人(2023)的研究对我们研究的影响如下:
-
全面理解
-
Tlili 等人通过分析推文、访谈和用户体验,为教育领域关于 ChatGPT 的公共话语和观点提供了一个全面的视角。这种全面的理解可以帮助我们了解不同利益相关者在教育环境中如何感知和互动 ChatGPT。
-
潜在利益与担忧
-
研究突出了使用 ChatGPT 在教育中的潜在利益和担忧。在调查对学生、教师和机构的影响时,考虑这些方面对于形成对技术影响的平衡观点至关重要。
-
负责任实施
-
Tlili 等人建议,与其禁止 ChatGPT,不如强调负责任的实施。这意味着需要制定指南、政策和涉及来自教育、安全和心理学领域的专家的跨学科讨论,以确保在教育环境中 ChatGPT 的道德和透明使用。这是我们研究中要调查的一个方面。
-
教学实践调整
-
研究指出,技术在教育领域的变革性影响,要求教育工作者调整他们的实践。在审视教师角色时,考虑 ChatGPT 可能对教学交付和评估方法的影响,以及教育工作者如何有效地将聊天机器人融入他们的教学理念,这一点非常重要。
-
确保公平与平等
-
Tlili 等人的发现对 ChatGPT 在教育内容提供中的公平性和平等访问提出了担忧,这与我们的研究相关,因为我们正在研究如何为所有学生提供对聊天机器人的公平访问。
-
提升用户技能
-
研究指出,有效使用 ChatGPT 需要批判性思维和提问技巧。我们的研究可以探讨学生和教师如何培养与聊天机器人进行最佳互动所需的必要能力,并利用其潜力以增强学习体验。
这些影响可以作为我们研究 ChatGPT 对学生、教师和高等教育机构角色影响的有价值见解和指导点。通过考虑技术的潜在益处、挑战和负责任的使用,我们可以对教育领域中其影响有一个全面和平衡的理解。
探索 ChatGPT 在高等教育中的使用:频率及其对生产力的影響
在第二篇关于讲师用户体验的论文中,Firaina 和 Sulisworo(2023)进行了一项研究,标题为《探索 ChatGPT 在高等教育中的应用:频率及其对生产力的影响》,旨在深入了解讲师对采用 ChatGPT 进行学习的观点和决策过程。为此,他们采访了五位讲师,收集了他们关于 ChatGPT 的经验和观点,收集并分析了数据,并对其进行解释,以加深他们对使用 ChatGPT 对学习的影响以及影响讲师选择因素的理解。他们的研究旨在确定讲师在使用 ChatGPT 提高学习成果方面的挑战、需求和期望,并为技术开发者和教育决策者提供建议。他们的目标是利用他们的发现为讲师提供有价值的见解,以增强学习效果并指导教育领域的决策。根据访谈中报告的 ChatGPT 使用频率,Firaina 和 Sulisworo(2023)发现大多数受访者更喜欢频繁使用它,并认为它在日常学习中获取新想法方面很有帮助。然而,他们也承认在某些情况下需要额外的工具。作者得出结论,ChatGPT 作为受访者与学习所需信息之间的沟通渠道,作为一种获取新信息和思想的媒介。他们认为这与建构主义学习理论相符,该理论认为个人基于经验主动构建知识。此外,作者观察到 ChatGPT 通过提供新鲜信息和思想,帮助受访者构建新知识,类似于学习型社交媒体平台。因此,他们强调个人通过经验、反思和解释在构建知识中的积极作用。他们指出,在受访者的案例中,ChatGPT 被用作信息来源和思想,以促进学习过程中新知识和技能的发展。基于进行的访谈,作者还发现使用 ChatGPT 对生产力和学习效果有积极影响。他们报告了一位讲师如何强调 ChatGPT 如何促进对材料的更快理解,并在寻找学习资源上节省时间。然而,作者承认进行进一步研究的重要性,以确保从 ChatGPT 获得准确响应。他们还报告说,另一位讲师提到了提高生产力,更快完成任务,并在知识资源搜索上节省时间。尽管如此,作者强调需要对整体工作有一个清晰的理解,以符合预期目标。根据他们的发现,作者将 ChatGPT 的使用与沟通理论联系起来,特别是符号互动理论,该理论解释了人类如何使用符号符号并赋予其意义。他们还借鉴了媒体理论,特别是新媒体理论,该理论将媒体视为影响互动和信息获取的社会环境。此外,作者建议 ChatGPT 的使用与学习中的建构主义理论相符,强调学习者通过经验和反思构建知识的过程(Firaina & Sulisworo,2023)。此外,作者发现 ChatGPT 可以作为支持讲师工作各个方面的宝贵工具。然而,他们指出,选择相关命令的能力在确定获得信息的有用性方面至关重要。此外,他们报告说,ChatGPT 的使用在受访者的几个学习方面观察到是有益的。这是因为,首先,它帮助他们将科学文章翻译成英语,这有助于克服他们的英语水平限制。其次,ChatGPT 帮助受访者寻找满足他们特定需求的学习中的最新观点。作者举例说明,教师可以请求关于采用建构主义教学和学习方法的建议,并收到多个替代建议。总之,Firaina 和 Sulisworo(2023)发现,尽管有其局限性,受访者仍认识到使用 ChatGPT 提高学习生产力和效率的好处。因此,他们认为 ChatGPT 是教育中一个有趣的替代品,强调保持批判性态度和验证获取的信息的重要性。作者建议进行进一步研究,包括额外的访谈和案例研究,以更全面地了解 ChatGPT 在学习中的应用,因为这有助于深化对其实施和潜在影响的知识和见解(Firaina & Sulisworo,2023)。
Firaina 和 Sulisworo(2023)的定性研究因其对五位讲师的深入访谈而脱颖而出,提供了关于他们在教育中使用 ChatGPT 的丰富见解。研究人员有效地将他们的发现与教育理论,如建构主义和传播理论联系起来,增强了他们结论的可信度。该研究突出了对讲师和教育决策者的实际应用,表明 ChatGPT 对生产力和学习效果有积极影响。然而,在解读结果时,应考虑一些局限性,如样本量小和缺乏对照组。未来的研究需要更大、更多样化的样本,以及比较研究,以进一步探索在教育环境中使用像 ChatGPT 这样的 AI 聊天机器人的利益和挑战。
Firaina 和 Sulisworo(2023)的研究对我们关于 ChatGPT 如何影响高等教育中学生在校生、教师和机构角色的研究有几个启示。
-
教师观点
-
Firaina 和 Sulisworo 进行的一系列深入访谈提供了宝贵的见解,揭示了教师如何感知和利用 ChatGPT 进行教学和学习过程。了解教师观点可以帮助我们了解教师如何看待人工智能聊天机器人在教育实践中的整合,以及影响他们决策的因素。
-
对生产力的影響
-
Firaina 和 Sulisworo 的研究发现表明,ChatGPT 对教师的效率和效率有积极影响。这一见解可能成为调查高等教育中采用人工智能聊天机器人如何提高教师在课程规划、内容创作和资源搜索等任务中的效率的基础。
-
实际应用
-
Firaina 和 Sulisworo 的研究提出的实际应用可以为我们研究在高等教育中整合人工智能聊天机器人的潜在利益和挑战提供信息。了解教师如何使用 ChatGPT 可以提供关于在教育环境中有效整合人工智能聊天机器人的最佳实践和策略的见解。
总体而言,Firaina 和 Sulisworo 的研究为我们提供了宝贵的参考,为我们研究教师如何感知和利用 ChatGPT 在高等教育中提供了见解。通过结合他们的发现并考虑研究的影响,我们可以加强我们关于 AI 聊天机器人在高等教育环境中对学生、教师和机构影响的研究的理论基础和实践相关性。从观察教师用户体验来看,我们现在转向研究人员的用户体验。
探索人工智能在提高学术表现中的作用:ChatGPT 的案例研究
阿尔沙特的 2022 年研究,题为《探索人工智能在提升学术表现中的作用:以 ChatGPT 为例的案例研究》,旨在调查人工智能,特别是自然语言处理(NLP),在提高学术表现方面的潜力,并以经济学和金融领域作为说明性的例子。该研究采用案例研究方法,使用 ChatGPT 作为特定的 NLP 工具来展示其在该领域推进研究潜力的可能性。通过考察 ChatGPT 在经济学和金融研究中的应用,阿尔沙特探讨了其能力、益处和局限性。他的研究还讨论了在学术研究中使用 ChatGPT 和类似技术相关的伦理考量以及潜在偏见,同时讨论了未来的发展和影响。通过这种案例研究方法,阿尔沙特努力为寻求将人工智能融入学术追求的研究者提供有价值的见解和指导。
Alshater 的研究发现,在研究中使用 ChatGPT 和其他高级聊天机器人可以产生各种影响,包括优点和缺点。根据 Alshater(2022)的观点,ChatGPT 和其他高级聊天机器人在研究中的应用提供了许多好处。这些包括通过自动化任务(如从财务文件中提取和分析数据以及生成报告和研究摘要)提高研究效率,以及通过检测数据或分析中的错误来提高研究准确性,确保发现结果的可靠性。此外,ChatGPT 的灵活性使研究人员能够解决广泛的研究问题,为金融建模和模拟复杂经济系统生成现实场景。通常需要大量人力投入的耗时任务,如大量数据的分析或报告生成,可以通过 ChatGPT 的自动化来加速。此外,Alshater 认为,ChatGPT 和类似的高级聊天机器人可以通过消除个人偏见和主观判断以及识别人类不易察觉的金融数据中的模式或趋势,提供更客观的见解。Alshater 还指出,这些技术可以通过遵循标准化程序和协议来确保研究过程的更大一致性,有助于以一致和可重复的方式进行数据分析。在 Alshater 的研究中,他不仅探讨了 ChatGPT 和高级聊天机器人的好处,还突出了它们的局限性。影响它们有效性的一个重要因素是训练数据的质量和相关性,因为数据不足或存在偏见可能会妨碍其性能。此外,Alshater 指出,这些聊天机器人可能在经济学和金融等专门领域缺乏专业知识,这会影响它们准确分析数据和解释发现的能力。Alshater 还提出了使用聊天机器人在研究中的伦理影响,他讨论了可能取代人力劳动以及训练数据中存在的偏见的持续存在,敦促研究人员仔细考虑这些伦理问题。此外,他警告说,聊天机器人可能被误用于不道德的目的,如生成垃圾邮件或冒充他人,强调需要保持警惕并采取预防措施。Alshater 指出,随着技术的进步,聊天机器人的能力也在不断发展,这意味着研究人员必须相应地调整他们的方法和途径,以跟上这些技术进步。然而,他也指出,承认聊天机器人,包括 ChatGPT,可能由于缺乏上下文理解而偶尔生成重复或不相关的响应是很重要的,因此在研究中使用它们时需要谨慎。Alshater 的研究还深入探讨了在学术研究中利用 ChatGPT 和类似技术相关的伦理考虑和潜在偏见。他强调了在这些技术中广泛训练数据的关键作用以及生成输出中可能存在的偏见或不准确性的可能性。他举了一个例子,即如果训练数据主要代表特定的群体或文化背景,可能会导致偏见的结果或强化现有的刻板印象。为了解决这个问题,Alshater 强调了仔细评估和理解训练数据中偏见以及采取主动措施来减轻它们的重要性,以确保模型结果的公平性和无偏见。此外,Alshater 还揭示了这些技术中涉及的复杂算法和过程,这些可能并不总是完全透明或为用户所理解。这种缺乏透明度可能会在追究技术可能出现的偏见或错误的责任时带来挑战。因此,他强调了在技术运作中优先考虑透明度的重要性,以便进行审查并确保其操作的公平性和无偏见。此外,Alshater 强调了在使用这些技术时人类监督和干预的显著作用,他指出,由于 ChatGPT 和类似技术并非完全自主,因此在实施过程中仔细考虑人类在其中的角色和责任是至关重要的。这包括干预和解决可能出现的任何错误或偏见的能力,确保这些技术负责任地使用。Alshater 在将技术融入学术研究时提出了关于隐私和数据保护的合理担忧,因为可能需要收集和处理个人数据。因此,他强调了实施适当措施来保护个人隐私、防止未经授权访问或滥用其数据以及维护研究实践中的伦理标准的重要性。虽然承认这些技术在特定研究任务(如数据分析)中的潜在好处,但 Alshater 警告不要过度依赖并完全取代人类的判断或解释。他主张采取平衡的方法,利用这些技术的优势,同时尊重人类在研究中的专业知识的重要性。
总体而言,Alshater 认为,作为一款先进且多功能的自然语言处理工具,ChatGPT 有可能对学术研究产生革命性的影响(2022)。他表达了自己对工具在生成类似人类文本、分析数据和模拟场景方面的惊人能力深信不疑,认为它是各个领域研究人员宝贵的资产。然而,他也强调了在利用 ChatGPT 和类似工具时考虑局限性(如普遍性、数据质量和领域专业知识)的重要性。尽管存在这些局限性,但他断言潜在的好处超过了缺点。Alshater 在结论中强调,这些技术使研究人员能够高效地处理和分析大量数据,为理论测试创建现实场景,并有效地传达他们的发现。他相信这些能力在推动跨领域研究、促进具有变革性的发现和见解,从而增强我们对世界的理解方面具有巨大的潜力。
Alshater (2022) 的研究深入探讨了 ChatGPT 的优势,包括提高生产力、改善研究准确性、研究问题的灵活性、加速速度、客观性和一致性。研究也承认了弱点,如对训练数据质量的依赖和有限的领域知识。伦理考量也被提及,包括算法偏见和技术滥用。然而,小样本量和集中于经济学和金融可能限制了普遍性。因此,我们认为未来的研究应该探索其他学科,并采用更大、更多样化的样本。Alshater 对伦理的处理方法值得称赞,但在确保人工智能系统中完全公平性方面仍存在挑战。通过认识到局限性并专注于负责任的做法,我们相信研究人员可以利用人工智能的潜力促进学术进步。对人工智能在学术界伦理整合的持续警惕和改进也是必不可少的。
根据 Alshater (2022) 的研究,出现了几个与我们研究 ChatGPT 对高等教育中学生在校角色、教师和机构影响的研究直接相关的启示。
-
提升学生学习体验
-
Alshater 的研究突出了 ChatGPT 对学生的潜在益处,特别是在增强他们的学习体验方面。通过自动化某些任务和提供即时获取信息和研究摘要的途径,ChatGPT 可以为学生提供更多专注于深度学习活动的机会,从而积极影响他们的整体教育旅程。这是我们希望调查的内容。
-
赋予教师先进的教学和研究工具
-
研究强调了 ChatGPT 可以成为教师改进教学和研究实践的有价值工具。通过自动数据分析和分析报告生成,教师可以简化研究流程并发现新的见解,从而带来更有效的教学方法和丰富课堂体验。这是我们打算进一步探索的领域。
-
解决数据质量和偏见以实现伦理使用
-
研究强调了在利用 ChatGPT 时数据质量和伦理考量的重要性。随着我们深入探讨其对高等教育的影响,关注潜在的偏见并确保技术的负责任使用,防范歧视性后果至关重要。这是我们计划要调查的一个领域。
-
扩展研究范围以获得全面洞察
-
阿尔沙特的科研主要聚焦于经济学和金融学,但它鼓励我们将调查扩展到其他学术领域。通过进行深入研究和多样化的样本,我们可以全面了解 ChatGPT 对高等教育各个领域的影響。我们对不同学科的探索性案例研究将有助于丰富阿尔沙特的见解。
认识并应用阿尔沙特研究中的见解,可以帮助我们负责任地导航 ChatGPT 在高等教育中的变革性景观,为更高效、包容和道德的学术环境铺平道路。此外,他提出的含义为我们塑造自己的研究提供了宝贵的指导。
ChatGPT 用户体验:对教育的影响
在蔡的 2022 年论文《ChatGPT 用户体验:对教育的影响》中,我们的第二篇关于用户体验的研究论文,作者旨在探讨 ChatGPT 在教育领域尚未知的潜在影响。认识到 ChatGPT 的显著能力,该研究承认其在教育学习目标、学习活动和评估评估实践方面可能带来重大变革的潜力。蔡进行了一项研究,使用 ChatGPT 草拟了一篇题为《教育人工智能》的学术论文,指出这项特定任务之所以被选中,是因为其高度智力性质,通常由专业人士执行。根据蔡的说法,以这种方式试点 ChatGPT 的目的是评估其生成准确、组织、连贯和有洞察力的写作的能力。蔡报告说,论文中的文本是直接由 ChatGPT 生成的,作者的贡献仅限于添加副标题和对逻辑组织进行微小调整。为了使用 ChatGPT 进行试点,蔡利用一组预定义的查询来撰写论文,这些查询是通过与 ChatGPT 的交互试验和互动开发的。最初,蔡提示 ChatGPT 为专注于教育中 AI 应用的学术论文生成引言;作为回应,ChatGPT 介绍了 AI 教育的背景信息并缩小了论文的范围。基于这个范围,蔡确定了论文的结构,包括两个主要部分:AI 教育的潜力和挑战,以及未来的研究方向。为了深入了解潜力部分,蔡报告说,他查询了 ChatGPT 关于 AI 教育历史的细节,指出 ChatGPT 提供了三个按时间顺序详细描述 AI 在教育中历史的三段文字,从 20 世纪 60 年代到今天。作者报告说,这个描述是全面的,包括相关的例子和 AI 教育发展中的显著里程碑。作者还报告说,在上述写作中,ChatGPT 提供了 AI 在教育中三个具体应用的详细描述:个性化学习、自动化行政任务和辅导与指导。为了更深入地了解这些应用,蔡就每个应用的用例提出了单独的查询。结果,每个查询都产生了一个关于应用的全面定义、典型用例列表和简短总结;例如,在询问个性化学习时,ChatGPT 向蔡提供了一个定义,并附带了一个全面的用例列表作为示例。为了更深入地了解用例,蔡对个性化学习的各个方面进行了额外的查询。这项调查导致确定了四个具体用途:适应性学习、个性化推荐、个性化指导和早期识别学习需求。蔡报告说,对于这些用例中的每一个,ChatGPT 提供的结果都包括定义、历史背景、潜在的证据和简短总结。蔡还就教育中自动化行政任务进行了查询,之后 ChatGPT 提供了定义、描述、五个用例和总结。据此,蔡继续查询与教育中自动化行政任务相关的五个用例的历史和潜力,表示结果产生了以下方面的全面描述:招生和注册、学生记录管理、评分和评估、课程安排和财务援助。对于研究的第二方面,蔡探讨了在课堂上实施 AI 所面临的挑战。通过向 ChatGPT 提出的查询,作者获得了一份直接列出挑战的清单,包括伦理问题、技术限制、教师接受度、学生参与度和与现有系统的整合。为了更深入地了解这些挑战,蔡继续查询每个具体挑战及其潜在解决方案。在研究的第三部分,蔡探讨了 AI 在教育中的未来前景。通过针对 ChatGPT 的查询,作者获得了五个潜在的发展方向。这些包括 AI 在个性化学习中的更广泛使用、AI 驱动的教育游戏和模拟的发展、AI 在辅导和指导中的更广泛使用、通过 AI 自动化行政任务以及创建 AI 驱动的教育平台。在最后阶段,蔡要求 ChatGPT 撰写一篇学术论文的结论,讨论 AI 在推动教育创新和改进中的作用。作者报告说,结论首先重申了 AI 在积极转变教育方面的潜力,并强调需要承认和解决 AI 在教育中实施时的伦理、技术和其他挑战。蔡报告说,结论呼吁实施适当的措施,以确保 AI 在教育系统中得到道德和有效的使用。
潘扎(2022)对研究结果描述如下。在试点过程中,作者遵循 ChatGPT 建议的范围,并使用后续查询来深入研究。潘扎指出,整个过程,包括生成和测试查询、添加字幕、审查和组织内容,在 2-3 小时内完成,且人工干预最小。潘扎还观察到,ChatGPT 生成的写作表现出四个关键特征:连贯性、部分准确性、信息性和系统性。此外,对于每个查询,潘扎报告说,响应包含了关键信息,并在段落之间保持了流畅的过渡。通过在处理相同方面时改变主题,潘扎发现响应遵循了相同的格式:ChatGPT 会介绍主题,提供简要的历史概述,展示潜力和局限性的证据,并以对主题的总结结束。潘扎还报告说,有趣的是,即使措辞略有变化,ChatGPT 也始终产生相同的结果,这表明它能够以不同形式表达的问题进行回应。通过这个过程,潘扎承认 ChatGPT 在有效组织和撰写文章组成部分方面展现出非凡的能力。
潘扎(2022)的研究为 ChatGPT 在教育中的应用提供了宝贵的见解。首先,潘扎建议教育工作者应根据 ChatGPT 的能力重新评估教育的读写能力要求。该研究承认了计算机高效的信息处理能力以及 AI 令人印象深刻的写作水平,超过了普通学生的水平。潘扎认为这一发现促使人们考虑学生是否应该培养有效利用 AI 语言工具的能力,作为未来教育目标的一部分。潘扎认为,教育应优先考虑提高学生的创造力和批判性思维,而不是仅仅关注一般技能。为了实现这一目标,该研究主张进行进一步研究,以了解哪些方面的人类智能可以被 AI 有效替代,哪些方面仍然具有独特的人类特性。其次,潘扎强调了将 AI,如 ChatGPT,整合到基于学科的学习任务中的重要性。研究指出,AI 的解决问题的能力与人类解决现实世界挑战的方式密切相关。潘扎认为,随着 AI,包括 ChatGPT,继续向通用人工智能(AGI)迈进,教育工作者面临着一个机会,设计包含 AI 的学习任务,从而激发学生的参与度,并提升整体的学习体验。这种将 AI 整合到特定领域学习任务中的做法与当代科学探索日益依赖 AI 进行预测、分类和推理以解决复杂问题的趋势相一致。第三,潘扎讨论了 ChatGPT 对教育评估和评价的潜在影响。研究突出了传统的评估实践,如论文写作,并对学生可能将写作任务外包给 AI 表示担忧。随着 AI 在生成书面内容方面的熟练程度,潘扎认为评估实践应调整其目标,专注于 AI 难以轻易复制的领域,如批判性思维和创造力。这种评估实践的转变与社会需求的演变以及教育学习目标的相应转变相一致。为了有效衡量创造力和批判性思维,潘扎建议教育工作者探索超越 AI 能力的创新评估格式。总之,潘扎的研究强调了 ChatGPT 在教育中的变革潜力,并呼吁及时调整教育学习目标、学习活动和评估实践。通过认识到 AI 技术如 ChatGPT 的优势和局限性,教育工作者可以更好地为学生准备,使他们能够应对一个 AI 日益发挥关键作用的未来。随着 AI 重塑教育领域,深思熟虑地考虑其整合并确保重点始终放在培养独特的人类技能上,同时利用 AI 的能力来提升学习过程,这一点至关重要。
沈于 2022 年的研究探讨了 ChatGPT 对教育的影响,重点关注学习目标、活动和评估。通过一项试点研究,ChatGPT 在最小的人为干预下高效地起草了一篇学术论文,展示了其在生成学术内容方面的潜力。虽然这项研究具有创新性,但其样本量小、范围有限可能限制了其普遍适用性。此外,ChatGPT 缺乏深入理解和预定义查询中的潜在偏见可能会影响其在某些教育任务中的应用。我们相信,需要进一步的研究,采用混合方法方法和更大的样本量,以全面理解 AI 在教育中的作用及其对教学和学习体验的长期影响。尽管如此,沈的研究为未来调查 AI 对教育的影响奠定了基础。
沈于 2022 年的研究对我们的研究具有关键性的启示。
-
重新思考学习目标
-
沈的研究表明,像 ChatGPT 这样的 AI 具有高效的信息处理能力和令人印象深刻的写作能力。随着我们调查 ChatGPT 在教育中的作用,重新评估传统学习目标变得至关重要。将 AI 语言工具整合到教育目标中可能会促使我们优先考虑学生创造力和批判性思维的发展,这些领域是 AI 可能无法完全取代人类智能的领域。这是我们旨在调查的问题。
-
创新学习活动
-
该研究强调了将 AI,如 ChatGPT,纳入基于学科的学习任务中的重要性。由于 AI 的解决问题的能力与人类方法相似,它为教育工作者设计引人入胜的学习活动提供了机会。这种整合与 AI 在现实世界问题解决和科学事业中的日益广泛使用相一致。这是我们打算探索的主题。
-
转变评估实践
-
沈的研究提高了人们对潜在挑战的认识,例如学生将写作任务外包给 AI。为了解决这个问题,我们可能需要重新思考评估实践。将评估集中在 AI 无法复制的人类能力领域,如批判性思维和创造力,可以确保教育评估保持相关性和意义。我们打算进一步研究这个问题。
-
考虑局限性和伦理影响
-
虽然 ChatGPT 展示了非凡的能力,但该研究承认了其局限性,包括缺乏深入理解和预定义查询中的潜在偏见。随着我们考察 ChatGPT 在教育中的作用,我们认为考虑这些挑战和潜在的伦理影响是至关重要的。
总结来说,翟的研究敦促教育工作者和机构在整合像 ChatGPT 这样的 AI 语言工具时,要深思熟虑。通过考虑研究中概述的后果,我们相信我们的研究可以促进对 AI 在教育中的负责任和有效的采用,同时保留学习过程中人类智慧和创造力的独特优势。
确定文献中的主题、方法和空白
文献综述中的九项研究深入探讨了在教育中整合 ChatGPT 的后果。一些研究强调了解决潜在偏见和数据隐私问题的必要性,而另一些研究则探讨了其对教学实践和学生生产力可能产生的影响。文献还讨论了 AI 在教育中的变革潜力,呼吁重新评估传统的学习目标和评估实践。尽管这些研究在方法和重点上有所不同,但它们共同为教育工作者和机构提供了有效整合 ChatGPT 的指导。然而,某些局限性和空白是显而易见的。一些研究缺乏全面的探索或多样化的样本,并且缺乏直接调查 ChatGPT 对教育影响的研究案例。文献还缺乏对学生观点的充分代表,并且需要更深入地理解在教育目标和活动中的必要调整。为了解决这些空白,我们的研究项目旨在填补案例研究的稀缺,并通过深入定性研究积极纳入学生观点。我们寻求了解 ChatGPT 如何影响学生的学习体验和教师的授课实践。此外,我们打算探索在教育目标和活动中进行必要调整,以有效利用 AI 聊天机器人的潜力。通过解决这些空白,我们的研究项目将为 AI 聊天机器人在革命性改变教学和学习实践中的变革性作用提供宝贵的见解,并为教育环境中负责任地使用 AI 提供指导。
第五章
研究方法论
研究背景
这项研究是在土耳其伊斯坦布尔的非营利性、私立、英语授课的 MEF 大学进行的。成立于 2014 年,MEF 大学享有世界上第一所完全翻转式大学的荣誉。该大学采用翻转、适应性、数字化和主动学习的方法,采用基于项目和以产品为导向的评估,而不是依赖期末考试。此外,数字平台和适应性学习技术无缝集成到课程中,同时提供 MOOCs 以促进自主学习机会。自 2021 年以来,为所有院系的学生提供了数据科学和人工智能(AI)辅修课程。本书的主要调查员和合著者 Caroline Fell Kurban 在领导调查中扮演着核心角色。她承担双重责任,既是项目的首席调查员,也是课堂案例研究的讲师。为确保全面的数据分析、解释阶段以及理论性和实践性实施建议的制定,她得到了 MEF 大学学习和教学研究最佳实践中心(CELT)的支持。由于翻转学习是 MEF 教育方法的基本方面,并且在本次案例研究中特别突出,因此我们在此提供更多信息。
翻转式学习是一种教学方式,它反转了传统的课堂模式,允许学生在课外学习课程概念,并在课堂上使用时间进行原则的积极、实际应用。在这种方法中,教师成为促进者或教练,指导学生通过问题和项目,同时提供个性化的支持和反馈。重点从内容传递转向创建以学生为中心的学习体验。为确保翻转式学习课程大纲的有效性,将其建立在经过验证的学习框架上至关重要。这些框架根植于学习理论,为成功学习所必需的认知过程提供了宝贵的见解。它们使教师能够理解、分析和预测学习过程,指导他们在教学和学习实施方面做出明智的决定。设计成功翻转式学习课程大纲的一个关键方面是认识到课程、评估和教学之间的相互关联。为了使学习具有影响力,这三个组成部分必须协调一致,重点关注学习成果(Gollub 等人,2002 年)。在翻转式学习课程中,这种方法应渗透到所有三个要素中。为了实现这一点,MEF 课程借鉴了四个经过验证的学习框架,这些框架是翻转式学习课程大纲设计每个阶段的基石。这些框架包括理解设计(UbD)、布卢姆分类法、学习评估的“为了”、“作为”和“关于”以及加涅的九大教学事件,共同促进课程、评估和教学之间的协调,最终导致有效的学习。以下我们描述了如何将这些理论结合起来为我们的翻转课程进行规划。
我们翻转式学习课程设计的核心是理解设计(UbD),这是一个由 Jay McTighe 和 Grant Wiggins 在 20 世纪 90 年代提出的模型(Wiggins & McTighe,1998)。UbD 提供了一个整体策略,用于塑造课程、评估和教学方法。这种方法围绕两个核心原则:优先考虑真正的理解和学习迁移的教学和评估,以及首先确定预期成果来构建课程。UbD 框架建立在七个指导原则之上:
(1)深思熟虑的课程规划增强了学习之旅,UbD 提供了一个灵活的结构来促进这一点,而不强加僵化的指南。
(2)UbD 引导课程和教学策略,旨在培养对知识的深刻理解和知识的实际应用。
(3)当学生通过真实的表演独立运用和扩展他们的学习时,真正的理解才会出现。
(4) 有效的课程设计采用逆向路径,从长期期望的结果开始,通过三个阶段——期望结果、证据和学习计划,来避免潜在的陷阱,如过度依赖教科书或优先考虑活动而非明确的学习目标。
(5) 教育者扮演着促进者的角色,更倾向于有意义的学习体验,而不是单纯的内容传递。
(6) 定期评估课程单元与设计基准,提高质量并鼓励有意义的职业讨论。
(7) UbD 框架体现了一种持续改进的方法,其中学生的成就和教学效率指导着课程和教学的持续改进。
(Wiggins & McTighe, 1998)。
UbD 是一个被广泛认可的框架,用于支撑翻转课堂(Şahin & Fell Kurban, 2019)。
在课程课程开发中采用 UbD 的教师会经历三个不同的阶段:第一阶段——确定期望结果(课程),第二阶段——确定可接受的证据(评估)和第三阶段——创建学习计划(教学)。
第一阶段
UbD 的初始阶段集中在定义期望结果上,包括几个关键要素。这个过程涉及建立明确的目标、设计持久理解、制定基本问题和明确学生最终应学习和实现的内容。教师应从大学课程标准、认证标准和课程目的中得出明确的目标。然后,这些目标塑造了持久理解的创建。持久理解封装了一个具有持久相关性的基本概念,超越了直接的学习环境。这是一个深刻的观念,它体现了一个学科中的基本原理。这些理解为学生提供了更深入的见解,促进了学生对主题的全面掌握,而不仅仅是表面事实。构建一个强大的持久理解始于识别一个关键概念,然后将其提炼成一个与学生产生共鸣的清晰陈述。例如,“水循环影响地球和社会”简洁地捕捉了 UbD 中的一个重要思想。基本问题随后出现,作为 UbD 的基石。理解它们的本质至关重要。这些问题是开放式的、引人深思的、吸引人的,促进高级思维和可转移的概念。它们需要推理、证据,有时还需要进一步的探究。值得注意的是,基本问题在整个学习过程中反复出现,对设计和教学至关重要。例如:水循环如何影响生态系统和自然过程?人类活动以何种方式影响水循环?基本问题有两种类型:总体性的,适用于多个主题,和专题性的,专注于特定的学科内容(McTighe & Wiggins, 2013)。
在确立课程目标、持久理解和基本问题之后,下一步是制定学习成果,即学生在课程结束时将知道并能做什么。为此,布鲁姆分类法证明是一个有效的框架(Bloom et al., 1956)。这个分类法将教育目标分为不同的类别,每个类别代表比其下级类别更高的认知功能水平。它遵循一种层次结构,其中每个较低类别都是达到下一个更高级别的先决条件。这个框架中描述的认知过程代表了学习者与知识互动和应用知识的行为。以下是一些例子,这些例子是从 Armstrong(n.d.)改编的,从认知水平的较高到较低排列:
-
创造(产生新的或原创的作品)
-
设计、创作、创造、组合、制定、发明、替代、编译、构建、开发、概括、修改、组织、生产、角色扮演
-
评估(证明立场或决策)
-
批评、评估、评价、判断、支持、决定、推荐、总结、评估、说服、辩护、估计、找出错误、评分、衡量、预测、排名
-
分析(从想法中建立联系)
-
分析、比较、分类、对比、区分、推断、分离、解释、归类、连接、区分、划分、排序、优先考虑、细分、调查
-
应用(在新情境中使用信息)
-
解决、应用、说明、修改、使用、计算、改变、演示、发现、实验、展示、草图、完成、构建、戏剧化、解释、生产
-
理解(解释想法或概念)
-
解释、描述、解释、释义、总结、归类、比较、讨论、区分、扩展、关联、对比、转换、演示
-
记忆(回忆基本事实和概念)
-
定义、识别、描述、标记、列出、命名、陈述、匹配、识别、选择、检查、定位、记忆、引用、回忆、复制、制表、讲述、复制
虽然我们在这里提供了完整的布鲁姆分类法光谱,但重要的是要承认,在特定的学习情境中,例如入门课程,重点可能在于理解和应用现有知识,而不是生成新的内容或解决方案。在这种情况下,学习成果中包含认知功能“创造”级别可能不是必需的。相反,重点可能在于记忆、理解和应用所获得的信息。
为了与布鲁姆的分类法相一致,可以实施一个额外的知识分类法,包括事实、概念、程序和元认知知识的领域(Armstrong, n.d.)。事实知识包括对术语、学科领域内的具体细节和要素的熟悉。概念知识涉及对分类、类别、原则、概括以及对理论、模型和结构的掌握。程序知识包括对学科特定技能、算法、技术、方法以及确定适当程序的能力的掌握。元认知知识涉及对认知任务的策略性和情境性理解,包括自我意识和条件性知识。据此,可以通过从布鲁姆的分类法中识别行动动词来制定课程学习成果。
第二阶段
一旦确定了课程目标、持久理解、核心问题和学习成果,教师便进入第二阶段:确定可接受的证据(评估)。在这一阶段,教师应提出一些关键问题,包括:我们如何知道学生是否达到了预期的结果?我们将接受哪些作为学生理解和他们在新情境中使用(迁移)所学知识的证据?以及我们将如何以公平和一致的方式评估学生的表现?(Wiggins & McTighe, 1998)。为了回答这些问题,UbD 鼓励教师在开发单元和课程之前像评估者一样思考。评估证据应与第一阶段中确定的目标相匹配。因此,对于教师来说,提前考虑展示学生达成目标所需证据是很重要的。这种方法有助于集中教学重点。在第二阶段,主要有两种评估类型——表现任务和其他证据。表现任务要求学生在新的真实情境中使用他们所学的知识,以检验他们是否真正理解和能够应用他们的学习。这些任务不是日常课程的一部分;它们类似于单元或课程的最终评估。日常课程教授最终表现任务所需的知识和技能。在表现任务之外,第二阶段还包括其他证据,如测验、测试、观察和作品样本,以了解学生知道什么和能做什么。然而,在我们讨论如何设计表现任务和其他类型的证据之前,首先让我们看一下我们的第三个学习框架,即学习评估(AfL)、作为学习的评估(AaL)和评估学习(AoL)框架(Rethinking Classroom Assessment with Purpose in Mind: Assessment for Learning; Assessment as Learning; Assessment of Learning, 2006)。
AfL(形成性评估)、AaL(分析性评估)和 AoL(总结性评估)框架是开发这些评估的有价值工具,因为它强调了学习过程中的不同方面在增强学生理解和表现中的不同作用。AoL,通常被称为总结性评估,是大多数人通常与测试和评分相关联的内容。这涉及到在学期的末尾评估学生的知识和技能,以确定他们的成就水平。AoL 旨在衡量学生达到学习成果的程度,并分配成绩或分数。虽然 AoL 的主要目的是对学生表现提供一个总结性判断,但它也可以提供关于教学方法有效性和课程设计有效性的见解。AoL 是课程结束表现任务的基础。然而,它也由 AfL 和 AaL 支持。AfL,也称为形成性评估,侧重于将评估作为支持并增强学习过程的一种工具。AfL 的主要目的是为学生和教师提供及时的反馈。这种反馈帮助学生了解他们的优势和需要改进的领域,使他们能够相应地调整学习策略。教师可以利用形成性评估的见解来调整他们的教学,更有效地满足学生的需求。AfL 促进以学生为中心的方法,其中评估被视为引导和增强学习的手段,而不仅仅是衡量它。因此,AfL 应该在整个学期中融入,以支持学生在课程结束表现任务中实现学习成果。然而,AaL 也应该在这个过程中发挥重要作用。AaL 是关于促进元认知学习方法的。在这里,评估被视为学生积极与材料互动并反思其学习过程的机会。学生通过监控自己的学习、设定目标和评估自己的进度来承担更积极的角色。AaL 鼓励学生发展自我调节技能并成为独立的学习者。这种方法将重点从外部评估转移到内部自我评估和个人成长。因此,AaL 也应该在整个学期中融入,以支持学生评估他们的学习并设定课程结束表现任务的目标。因此,这三种类型的评估不是相互排斥的;相反,它们在教育评估的更广泛框架内相互补充。
为了设计课程结束时的表现任务,遵循 UbD 原则,建议教师遵循目标(Goal)、角色(Role)、受众(Audience)、情境(Situation)、表现/产品(Performance/Product)和评估标准(Standards for assessment)的 GRASPS 助记符,因为这确保了一个真实的环境,为学生未来的职业生涯提供了必要的技能。根据 Wiggins 和 McTighe(1998)的研究,GRASPS 的工作原理如下:
-
目标 – 我希望学生达到什么任务?
-
角色 – 学生在任务中的角色是什么?
-
受众 – 学生的目标受众是谁?
-
情境 – 上下文是什么?挑战是什么?
-
表现 – 学生将创造/开发什么?
-
标准 – 他们将根据什么标准被评判?
在设计课程结束任务之后,通过与学习成果一致的评分标准建立精确的评估标准变得至关重要。这些评分标准对学生和教师都非常有价值。它们让学生从一开始就能清楚地了解项目期望,并为讲师提供了一种结构化的方式,以便根据预定义的标准公正地评估工作。评分标准还可以促进关于表现水平的对话,并可用于自我和同伴评估。通过整合评分标准,讲师赋权学生,并促进他们在学习旅程中的积极参与。此外,评分标准在评估评估任务对人工智能影响的抵抗力方面也发挥了重要作用,这一主题在第九章“教育影响”中进行了进一步探讨。
一旦课程结束时的表现任务被设计出来,讲师就可以继续为各种其他证据类型开发评估,例如测验(AfL)、实验(AfL)和反思(AaL)。这些将支持学生在向最终表现任务迈进的过程中取得进步。在翻转学习方法的背景下,课前阶段扮演着重要的角色;因此,我们在这里对此进行更深入的探讨。在翻转学习中,学生在参加课堂会议之前需要与课前视频或学习材料互动。为确保这种方法的有效性,这些课前材料应伴随课前测验或其他评分活动。这既保证了学生对学习的责任感,又使讲师能够评估他们的理解能力和准备情况。这些评估方法通常涉及测验(AfL)、简短问题(AfL)或引导学生在自我评估理解(AaL)方面的反思提示。在课程期间,讲师可以使用这些课前评估的数据来调整他们的课堂活动、讨论和例子,以有效地解决学习中的特定差距。这把我们带到了第三阶段。
第三阶段
UbD 的第三阶段涉及规划与第一阶段设定的目标相一致的学习体验和教学活动。这一阶段由以下关键问题引导,这些问题塑造了教学过程:我们如何支持学习者理解重要观念和过程?我们如何准备他们自主地转移他们的学习?学生需要哪些使能知识和技能才能有效地执行并实现期望的结果?哪些活动、顺序和资源最适合实现我们的目标?(Wiggins & McTighe, 1998)。根据 Wiggins 和 McTighe 的说法,在这一阶段,教师需要超越单纯的内容传递,并考虑整体学习体验。他们指出,传统上,教学往往侧重于传递信息和展示基本技能以供获取,而忽视了更深层次的理解和实际应用。然而,他们指出,真正的理解需要积极的参与,包括推理和概括,以避免表面理解,他们认为这涉及到将知识应用于新的情境并接受建设性的反馈以改进。他们建议采取这种方法将教育者转变为意义构建的促进者和指导有效内容利用的导师,而不是单纯的展示者。正是在这一阶段,所有必需的元素被结构化为综合单元,以促进学习。
在我们的翻转学习方法中,在每个单元内,我们借鉴 Gagne 的九个教学事件来确保有效的学习。Robert Gagne 的九个教学事件提供了一个结构化教学活动的强大框架。该模型基于学习过程中个体暴露于不同刺激时发生的心理事件的信息处理模型(Gagne 的九个教学事件,2016)。从这个模型中,Gagne 推导出九个教学事件,为设计教学活动提供了有价值的结构。以下是这些事件:
(1)引起注意,
(2)告知学习者目标,
(3)激发对先前学习的回忆,
(4)呈现内容,
(5)提供“学习指导”,
(6)引发表现(练习),
(7)提供反馈,
(8)评估表现,
(9)增强保留和将知识转移到工作中。
然而,为了使翻转学习有效,我们相信这些事件的顺序需要以下方式重新排列:
-
课前/在线
-
–单元概述;
-
–介绍关键术语;
-
–先前知识活动;
-
–概念的介绍(通过视频、文章);
-
–对学生的学习负责(形成性评估)。
-
课堂内
-
–课堂开始时的/过渡活动来复习课前概念;
-
–结构化的以学生为中心的活动来练习概念;
-
–半结构化的学生为中心的活动来练习概念;
-
–更自由的学生为中心的活动来练习概念;
-
–自我反思(在课程或单元结束时,无论是在课堂上还是在课堂外)。
总之,这四个框架作为 MEF 翻转课程的推荐基础,强调成人教育原则。它们共同帮助教师制定课程目标、持久理解、核心问题和学习成果。这种全面的方法进一步促进了真实评估的创建,然后指导适合的教学策略和活动的开发。通过使课程、评估和教学相一致,这个框架确保了连贯而有效的教学和学习体验。
研究方法
这项研究集中在调查 ChatGPT 对高等教育中学生和教师的影响。我们的主要目标是探索、理解和评估这种人工智能聊天机器人可能如何影响学术环境中学生和教师的角色。通过深入研究 ChatGPT 的实施,我们旨在揭示可能出现的挑战和机遇,为它在教育领域的变革性作用提供有价值的见解。最终,我们的目标是全面考察 ChatGPT 的整合如何具体影响学生、教师和高等教育机构的角色。因此,类似于 Rudolph 等人(2023 年),我们将我们的研究领域分为面向学生、面向教师和面向系统。然而,我们引入了另一个类别,“面向研究者”,因为它提供了对 ChatGPT 如何影响研究过程(最终也会影响高等教育机构)的额外元认知视角。
在规划我们的研究方法时,我们决定采用定性研究范式最为合适,因为它是一种探索性方法,旨在理解个人的主观体验(不仅仅是技术)以及他们附加在这些体验上的意义。这种方法在研究新现象时尤其有用,例如 ChatGPT,在这些领域知识和经验有限。采用这种方法使我们能够更深入地理解 ChatGPT 对学生、教师以及我们整个机构角色的影响,并探索相关人员的主体体验和观点。在这个范式下,案例研究方法似乎最为恰当。案例研究涉及对现实生活中的系统进行长时间的彻底调查,使用多种信息来源来制作全面的案例描述,从而可以识别出关键主题(Cresswell & Poth, 2016)。这种方法在教育领域被广泛采用,包括从访谈、观察、文件和实物等不同来源收集和分析数据,以获得对案例及其周围环境的宝贵见解。当案例被认为是独特且内在的时,案例研究是一种有用的方法(Yin, 2011)。
我们的案例既是独特的又是内在的,因为它涉及研究 ChatGPT 对我们大学各种利益相关者的潜在影响,这在撰写本文时尚未被广泛研究。因此,我们决定采用 Yin(1984)的方法,该方法使用 Stake(1995)提出的工具性案例研究设计。Yin 的设计遵循五个分析阶段:汇编、拆解、重组、解释和结论。它特别适用于理解特定背景下的现象,正如 ChatGPT 及其对教育领域各种利益相关者潜在影响的情况。它还考虑了案例的历史背景、现状和潜在的未来发展。在这种情况下,可以通过访谈、焦点小组、观察、电子邮件、反思、项目、关键事件和研究者日记等方式收集数据,之后,根据 Braun 和 Clarke(2006)的建议,可以进行主题分析。
数据收集
本研究从 2022 年 12 月至 2023 年 8 月进行,始于 2022 年 11 月 30 日 ChatGPT-3.5 的发布。我们使用了自 2023 年 11 月以来公开的 ChatGPT-3.5 的免费版本进行数据收集,以确保学生公平参与,无需他们购买付费版本。然而,需要注意的是,ChatGPT-3.5 的训练数据仅延伸至 2021 年 9 月。在撰写阶段,使用了 GPT-4。如前所述,文献综述集中在 2022 年 12 月至 2023 年初四月的论文上,以确保资源的时效性。然而,考虑到 ChatGPT 持续演变的性质,我们在整个研究过程中继续从媒体来源收集现有文献,直至最终撰写。
采用案例研究方法,我们的研究旨在收集多样化和全面的数据。根据 Yin(1994)的案例研究协议,我们确定了六种具体的数据类型,我们将收集这些数据,包括文档、档案记录、反思、直接观察、参与观察和实物证据。为了收集本研究的数据,我们从整个调查过程中通过互联网搜索持续收集与教育中 ChatGPT 相关的相关文件,如报告、政策和新闻文章。目标是获得关于 ChatGPT 整合到教育中的全面见解和观点。收集到的数据构成了本书第二章的基础。主要研究人员确保在整个过程中保持反思性,考虑到她的位置性和偏见,并从各种来源寻求不同的观点,以增强数据的有效性和可靠性。这种方法确保了研究全面性。
本研究的面向研究人员的方面涉及主要研究人员记录 ChatGPT 对研究过程的影响。采用比较方法,分析在 ChatGPT 可用之前和之后如何进行研究阶段。这种元视角允许对研究过程进行反思,为研究人员的观点提供见解。这一方面的数据收集从 2022 年 12 月至 2023 年 6 月进行,遵循 Patton(2002)的指南,在 Google Sheets 中以数字方式维护研究日记。日记追踪了在将 ChatGPT 纳入研究过程中获得的见解、挑战和调整,增强了自我意识和 AI 技术研究实践的理解。面向研究人员的资料在第六章“发现与解释”中引用为 RFD。
本研究面向教师的部分旨在调查 ChatGPT 对教师角色的影响,其中主要研究员在教师的角色下,对之前的一门课程(ChatGPT 之前)和 2023 年春季学期的即将开设的课程进行了比较分析。这门课程是 HUM 312 法语言学,遵循 MEF 大学的翻转学习方法。在 2023 年 1 月和 2 月期间,教师积极评估和调整课程设计,以有效地整合 ChatGPT。这包括分析课程大纲、课程概述、评估和评分标准,以及课堂活动,以确定 ChatGPT 整合的合适机会。为了记录这些程序和思考,教师利用 Google Sheets 中的教师研究日记(TFD),通过自我反思展示反思性,记录选择并批判性地评估了过去和修订后的课程材料。观察是在 2023 年春季学期课程进行期间进行的。在此期间,教师进行了严格的自我反思,对数据收集过程做出了重大贡献。这种方法有助于解决可能的偏见和假设,确保从学生反馈中获得宝贵见解。
研究面向学生的部分是在新的 HUM 312 法语言学课程中进行的。该课程在线进行,课前活动在课前通过大学学习管理系统提供,每周的课程通过 Zoom 进行,采用动手互动式学习。该课程为期 16 周,每周一次 2 小时的课程。该课程首次在 2020 年春季学期运行,当时由于 COVID 大流行从面对面教学转为在线教学,并且从那以后每年都继续进行,一直保持在线形式。2023 年春季,该课程的新版本运行,共有 12 名学生参加。以下是该课程新版本的概述。
-
课程目标
-
本课程的总体教育目标是让学生调查语言分析在法律过程中的作用。它侧重于语言学家作为专家证人日益广泛的使用,其中语言分析被作为证据提出。
-
课程描述
-
本课程旨在使学生了解法语言学,重点关注语言分析在法律过程中的作用。法语言学涉及对语言的仔细和系统性的审查,服务于正义,并有助于在刑事案件中对有罪与无罪进行评估。该领域分为两大主要领域:书面语言,分析各种文本,如警察访谈、犯罪信息和社交媒体帖子,以及口语语言,审查官方访谈和犯罪中使用的语言。通过案例研究方法,本课程探讨如何使用不同的语言元素,如表情符号、短信缩写、地方口音和方言、笔迹分析和语言习惯等,来解决犯罪。
-
持久理解
-
法语言学通过分析语言来揭示刑事案件中的真相,从而有助于正义。
-
基本问题
总体基本问题
-
–语言分析如何有助于法语言学的法律案例分析?
-
–人工智能的出现如何重塑法律领域?
-
主题基本问题
-
–沟通方式,如表情符号、短信和标点符号,在法语言学案件中如何影响理解?
-
–强制使用首选的跨性别代词周围有哪些伦理和法律方面的问题,这与言论自由和歧视问题有何关系?
-
–如何利用俚语、地方方言、语言习惯和笔迹在法语言学调查中识别潜在嫌疑人?
-
–如何通过分析语音的声学语音学来帮助识别某人是否醉酒或清醒?
-
–在法语言学领域,语用学的研究如何对准确解释个体在交流中的意图意义提出挑战?
-
学习成果
-
–分析语言如何影响法律决策。
-
–从诉讼中解构语言方面,并操纵诉讼中的语言从一种形式转变为另一种形式。
-
–分析在现实案件中如何使用语言来定罪或宣告被告无罪。
-
–就现实案件中的特定语言方面撰写模拟总结陈词,并证明你的论点。
-
评估
-
–课前测验(20%),
-
–课堂评估活动(40%),
-
–学期项目 1(20%)。
-
–你将扮演辩护人或检方角色,目标是使被告在一宗案件中获判无罪或定罪。你的听众将是法官和陪审团。这种情况要求在审判结束时进行总结陈词。作为成果/表现,你需要创作一份书面和录音的总结陈词。评估标准包括:对案件进行回顾,对证据进行回顾,讲述故事和类比,说服陪审团站在你客户一方,攻击对方立场,总结性评论以总结你的论点,以及从案件中提取的视觉证据。
-
–学期项目 2(占 20%)
-
–你将开发与法医语言学和 ChatGPT 或法律和 ChatGPT 相关的个人项目。你还将开发自己的评估标准。你将在最后一节课向同行和教授展示你的项目,并回答他们向你提出的任何问题。
选择这门课程进行研究的动机由几个因素驱动。首先,主要调查员是该课程的讲师,并且对探索教育技术有专业知识。此外,她之前已经调查过并参与了翻转、自适应、数字和主动学习(FADAL)方法的设计,这使得她非常适合进行这项研究。讲师对课程的深入理解、其规划过程以及她即将在下个学期再次教授这门课程的能力,为比较 ChatGPT 前后课程规划提供了理想的机会。此外,法语言学课程的言语成分使其适合测试 ChatGPT 在各个语言方面的能力。注册的学生来自法学院,该领域预计会受到人工智能进步的严重影响,因此他们的参与对于提高人们对人工智能对法律职业影响的意识是有价值的。数据收集发生在 2023 年 3 月至 6 月之间,与春季学期相吻合。为了调查对学生的影响,收集了一组多样化的数据。这始于课程开始时进行的一项调查,以评估学生对 ChatGPT 现有熟悉程度和使用情况。在第二节课中,学生观看了一部介绍 ChatGPT 的视频,随后提出了开放式问题以捕捉他们的印象。在整个课程中使用了课前问题,以了解学生与 ChatGPT 的具体互动以及这些互动如何影响了他们的学习体验。课程结束时进行了一次反思性问卷调查,以获取更多关于学生在整个课程中与 ChatGPT 互动的见解、印象和观点的信息。此外,还纳入了互补的数据来源。收集了 Padlets、屏幕截图和学生的反思,以提供对学生体验的更全面视角。为了进一步丰富分析,学生同意将他们的项目包括在数据评估中。面向学生的数据被称为 SFD。
本研究的系统面向方面重点是考察 ChatGPT 对大学不同利益相关者(包括教师、系主任、院长和副校长)的影响,包括工作坊中的访问教师以及与不同机构教授和会议上的教育领导者的讨论,这些外围参与者提供了额外的见解。这一方面的数据收集期从 2023 年 1 月到 6 月。数据收集使用了多种方法。收集了来自大学利益相关者的电子邮件通信,为围绕 ChatGPT 对大学影响的讨论提供了宝贵的见解。收集了关于 ChatGPT 的机构工作坊的 Zoom 录音和工作坊活动,以了解机构的反应。通过 Zoom 或 Google Chats 进行了与教师和利益相关者的访谈。在系统面向日记中记录了来自对话和会议的关键事件,有助于识别与 ChatGPT 在教育中整合相关的模式、主题、挑战和机遇。这作为一个宝贵的工具,用于记录和反思见解和挑战。在可能的情况下,日记中记录的信息与相关人员进行了成员检查,以验证数据的准确性和有效性,并确保观点得到准确反映。系统面向数据被称为 SYFD。
数据分析方法和技术
为了分析我们的数据,我们遵循了 Braun 和 Clarke(2006)的主题分析方法,该方法涉及系统地编码和分类数据以识别模式或主题。它包括六个阶段:熟悉数据、编码、寻找主题、审查主题、定义和命名主题以及撰写报告。虽然这个过程有六个阶段,但根据 Braun 和 Clarke 的建议,我们将每个阶段视为迭代性的,而不是线性的,需要根据需要回顾之前的阶段。为了确保研究的可信度和可靠性,根据 Thurmond(2001)的建议,我们采用了数据三角测量法,使用多种数据收集工具,以实现全面和深入的理解。
我们首先沉浸在数据集中,进行重复阅读并记录初步观察,以获得熟悉感。随后,我们开发了代码来捕捉与我们的研究问题相关的显著特征。这个过程包括数据减少和分析,旨在全面捕捉数据中嵌入的语义和概念意义。最初,主要研究员承担了创建代码的任务,仔细审查数据并建立初步编码类别。随后,采用了一种协作方法,涉及 MEF 研究中心的研究和最佳实践(CELT)的成员。代码被审查、批评和必要时进行修订,以确保数据的全面和准确表示。通过这个迭代过程,我们得到了最终的代码和定义集,如下所示:
-
翻译能力
-
ChatGPT 具有将文本从一种语言翻译到另一种语言的能力。
-
ChatGPT 在完成分配给学生的任务方面表现出能力。
-
ChatGPT 表现出成功完成分配给学生任务的能力。
-
ChatGPT 无法执行分配给学生的任务
-
这表明 ChatGPT 无法成功完成分配给学生的任务或作业的情况。
-
具有文化特定数据库
-
ChatGPT 数据库中的信息特定于某个文化或文化背景,可能不符合用户的需求。
-
学科背景限制
-
ChatGPT 在其对特定学科背景的理解上表现出局限性,或在特定领域缺乏专业知识。
-
丰富用户的思想
-
ChatGPT 具有通过其生成的响应增强和扩展用户想法的能力。
-
知识差距
-
ChatGPT 在特定主题或领域上表现出信息或理解不足。
-
代词使用中的性别偏见
-
这指的是 ChatGPT 在交互中默认使用男性代词,除非被提示使用其他代词。
-
提供错误信息
-
ChatGPT 在其响应中提供不准确或不正确的信息。
-
向用户传授特定的知识、技能或概念
-
ChatGPT 通过其响应向用户提供特定的信息、技能或概念。
-
抑制用户学习过程
-
这指的是 ChatGPT 的负面影响,可能会阻碍或减少用户积极参与学习过程和独立获取知识的能力。
-
输入决定输出质量。
-
ChatGPT 生成的输出质量受其输入质量的影响。
-
通信的互动性
-
这指的是用户与 ChatGPT 之间交互的动态和响应性。
-
缺乏 ChatGPT 的标准引用指南
-
这指的是在学术和研究环境中,引用和参考 ChatGPT 来源的指南缺失或不充分。
-
响应的相关性不足
-
这指的是 ChatGPT 生成的回应与输入或查询不相关或不紧密相关的情况。
-
需要提供清晰的上下文
-
这强调了在与 ChatGPT 交互时提供清晰和具体上下文的重要性,以确保获得准确和相关的回应。
-
需要进行事实核查
-
这突显了通过独立的事实核查验证或确认 ChatGPT 提供的信息的重要性。
-
ChatGPT 拒绝或斥责的情况
-
这表示 ChatGPT 拒绝提供回应或对用户的某些输入或查询提出斥责的情况。
-
人们将 ChatGPT 视为提供意见而不是预测。
-
这突显了 ChatGPT 看似提供个人意见的情况与实际上基于预测模型生成回应之间的差异。
-
感知到与 ChatGPT 的类似人类交互
-
这指的是用户尽管意识到 ChatGPT 本质上是人工的,但在其交互中感知或体验到它展现出类似人类的特质的现象。
-
减少认知负担
-
ChatGPT 可以通过提供帮助或代表用户执行任务来减轻认知负担或心理努力。
-
需要多次迭代才能得到你想要的结果
-
要从 ChatGPT 获得期望的结果或回应可能需要多次交互或迭代。
-
审查工作并提出改进建议
-
ChatGPT 可以对其呈现的工作或内容进行分析并提供改进建议。
-
加快了过程
-
与传统方法相比,ChatGPT 可以加速或加快某些任务或过程。
-
文本语域修改
-
这指的是 ChatGPT 能够调整其写作风格、语气或正式程度以匹配特定语域的能力,包括模仿特定个人风格的能力。
-
对信息的无条件的信任
-
这指的是用户对 ChatGPT 提供的信息完全信任,即使它提供错误信息,也没有进行批判性评估或怀疑。
-
在生活的其他领域也很有用
-
ChatGPT 在教育用途之外还可以有实际的应用和好处。
将代码精炼成连贯主题的过程涉及了多次仔细评估的循环。我们首先生成初始代码,然后将它们组织成有意义的主题。对各种分组和潜在主题的彻底探索确保了它们的准确性和有效性。为了验证这些主题,我们仔细地将它们与编码的数据摘录和整个数据集进行交叉参考。在会议和工作坊讨论中观察到的关键事件等额外数据构成了挑战,因为它们在我们建立代码并完成主题分析之后出现。然而,由于这些事件包含了可以丰富我们分析的相关新数据,我们三次回顾了编码和主题分析过程,以整合这些额外数据。这种迭代方法导致了更稳健的代码和主题。协作讨论进一步导致了为每个主题制定简洁且信息丰富的名称。通过这种迭代方法,我们达到了数据饱和,这表明没有新的信息或主题出现。最终达成共识的主题及其相应的代码如下:
-
输入质量与输出效果
-
需要提供清晰的背景,输入决定输出质量,需要多次迭代才能得到想要的结果
-
ChatGPT 的限制与挑战
-
ChatGPT 缺乏标准引用指南,提供错误信息,缺乏响应的相关性,ChatGPT 出现拒绝或斥责的情况,代词使用中的性别偏见,需要事实核查
-
与 ChatGPT 的人类似交互
-
交流的互动性,与 ChatGPT 感知到的人类似交互,人们认为 ChatGPT 提供的是观点而不是预测,对信息的不加质疑的信任
-
ChatGPT 的个人助手/导师角色
-
丰富了用户的思想,加快了过程,减少了认知负荷,在生活的其他领域也很有用,具有翻译能力,审查工作并提出改进建议,文本语域修改,传授特定知识、技能和概念给用户
-
对用户学习的影响
-
ChatGPT 在完成分配的学生任务方面表现出能力,抑制了用户的学习过程,ChatGPT 无法执行分配的学生任务
-
通用教育场景中聊天机器人的局限性
-
知识差距,学科背景限制,文化特定的数据库
为了便于对主题进行映射和分析,研究人员为每个主题使用了一个 Google 表格,包括以下部分:代码、代码定义、现有文献中的例子、文献综述中的例子以及数据中的支持性例子。这个综合框架允许对每个主题与我们的研究问题进行系统性的考察。据此,得出了以下主题之间的相互关联性(图 1)。

图 1.主题之间的互连性。
在整个研究中,从所有参与者(包括受访者、讲师和学生)那里获得知情同意是一个首要任务。参与者被充分告知研究目的、程序、潜在风险和收益,并且有权拒绝或撤回同意而不受任何后果。我们与参与者的沟通保持透明和清晰,确保数据隐私和保密。我们获得了大学伦理委员会的伦理审查和批准,以符合指南并保护参与者的权利。为了减轻偏见,研究者在数据收集和分析过程中保持对个人偏见的警觉。然而,在研究过程中,关于研究日记的同意问题出现了一个伦理问题,这些日记作为一种隐蔽的数据收集形式。研究者开始将每一次互动和事件视为潜在的数据,而参与者可能不会以同样的方式看待它们(Hammersley & Atkinson, 1995)。这引发了关于确保通过这种情况收集到的信息使用适当同意的担忧。由于在大多数情况下,研究者直到事件发生后才认识到这些事件与调查的相关性,这意味着研究者没有明确告知参与者互动内容可能被用于研究。因此,为了保护涉及个人的隐私并尊重他们的隐私,研究者在撰写时引用研究日记摘录时采取了匿名措施。
在下一章中,我们展示了我们的发现和对数据的解释,包括对结果进行彻底分析和推导见解。本章系统地概述了收集到的数据,将其与现有文献和文献综述相联系。随后,我们在我们的理论框架内对这些发现进行解释。利用这些信息,我们重新审视我们的研究问题,特别是探讨 ChatGPT 对学生、讲师和高等教育机构可能产生的影响。通过这个过程,我们将原始数据转化为有价值的见解,丰富了我们对主题的理解。
第六章
发现与解释
ChatGPT 的输入质量与输出效果
“输入质量与输出有效性”的主题强调了输入在决定 ChatGPT 输出质量和有效性中的关键作用。像 ChatGPT 这样的大型语言模型可以生成类似人类的文本,但它们的输出可能并不总是符合人类价值观,因为它们的重点是预测下一个单词,而不是理解更广泛的背景。这种不匹配可能导致与可靠性、信任相关的问题,例如当模型未能准确理解和执行特定用户指令时,可能会缺乏帮助性。为了克服这一点,用户需要向 ChatGPT 提供清晰的背景、高质量输入,并经历多次迭代以获得期望的输出。这可以从以下方面看到。
需要提供清晰背景的原因
根据研究人员(在其研究角色中的主要研究员),“你必须首先输入自己的想法、个人经验和反思,这样 ChatGPT 才能提出与你情况相关的科研问题”(RFD)。讲师(在其教学角色中的主要研究员)指出,“ChatGPT 有助于撰写持久理解。这些内容措辞可能有些棘手。通过先让它定义持久理解,然后告诉它你的课程内容,它可以帮助你措辞”(TFD)。同样,在撰写课程目标时,讲师强调了输入关于学生、系和机构的清晰信息以获得 ChatGPT 准确建议的必要性(TFD)。讲师还强调了提供大量关于课程和学生的具体信息以获得有用学习成果的重要性(TFD)。此外,ChatGPT 生成课程计划建议的能力取决于了解课程背景(TFD)。此外,输入课前活动的文本或视频文本,只要教师指定了他们想要的测验问题类型,ChatGPT 就能提供课前测验的建议(TFD)。
文献综述支持了这样一个发现:在与 ChatGPT 互动时,提供清晰的背景至关重要。Mhlanga(2023)强调,作为机器,ChatGPT 缺乏像人类教育者那样理解文化、背景和经验等情境因素的能力。这与 ChatGPT 的输出可能不符合人类价值观的事实相一致,因为它的重点是预测下一个单词,而不是理解更广泛的背景。同样,Alshater(2022)观察到,由于缺乏情境理解,像 ChatGPT 这样的语言模型可能会生成无关或通用的响应。此外,Sullivan 等人(2023)的研究强调了 ChatGPT 情境理解的局限性,这可以从生成无关或通用的响应中看出。
从克里斯滕森的“待完成工作”理论的角度来看,明确提供背景的重要性,突出了用户在雇佣 ChatGPT 时理解他们具体需求和期望结果的重要性。用户必须清楚地阐述他们的需求和目标,以便有效地利用 ChatGPT 的功能。这涉及到为 ChatGPT 提供清晰和具体的环境,以便生成准确和相关的响应。布迪厄的社会理论揭示了影响与 ChatGPT 互动的权力动态和社会结构。它强调了考虑语言规范、文化资本和社会动态的必要性,这些因素塑造了与人工智能(AI)系统的沟通。教师在与 ChatGPT 互动时必须应对这些因素,以确保有意义的和适当的响应。海德格尔的存在理论突出了 ChatGPT 的预测性质与人类教育者的更广泛背景理解之间的区别。用户必须认识到 ChatGPT 的焦点在于预测下一个单词,而不是理解更广泛的背景。
输入决定输出质量
当学生被要求对 ChatGPT 和法律进行 SWOT 分析时,响应的质量取决于输入数据的质量。正如指导教师观察到的,“如果他们提供了高质量的数据,它就能创建一个有效的图表;然而,如果他们只是要求它为他们做,他们最终并没有得到那么好的结果”(TFD)。在研讨会上,一位教师也注意到了这一点,他评论说,“当你给出正确的提示时,它会立即给出教学计划。你实际上真的不需要做任何事情”(SYFD)。ChatGPT 也展示了其生成研究想法、建议方法和代码的有效性,前提是用户提供了相关且准确的信息。根据研究人员的说法,“ChatGPT 对我的研究想法很有帮助,但前提是首先输入了关于研究的相关和准确信息”(RFD)。研究人员还提到,“根据以往的经验和现有知识,我相对容易地确定了一种研究方法。然而,向 ChatGPT 寻求建议导致了一组更广泛的建议,这丰富了我的选择。但,这仅在你输入了精确的研究问题和问题时才有效”(RFD)。此外,研究人员还注意到了 ChatGPT 从文本数据中建议代码的能力,他表示,“只要文本数据一开始就写得很好,ChatGPT 就能很好地从文本数据中提出建议代码”(RFD)。一位教师在研讨会上也表达了同样的观点,“如果它们没有精确地提到,设计的问题并不总是符合我们提供的提示或规格”(SYFD)。ChatGPT 在提出评估标准方面也证明是有用的,但同样,这取决于用户提供的输入的清晰度。指导教师提到,“一旦写出了评估,ChatGPT 可以轻松地提出一个建议的评估标准,但前提是评估任务必须写得精确”(TFD)。
质量输入对 ChatGPT 的需求也得到了文献的支持。在他们的 2023 年研究中,Firaina 和 Sulisworo 强调了选择相关命令以确定获取信息的有用性的重要性。这与我们理解的观点相符,即输入质量在利用 ChatGPT 实现预期结果时起着关键作用。因此,关注提高输入质量对于获得最佳结果和最大化从 ChatGPT 中获取的价值至关重要。
需要多次迭代才能得到你想要的结果
用户通常发现有必要细化他们的提示或请求以获得满意的结果。研究人员分享了他们的经验,表示:“我在使用 ChatGPT 之前进行了多次修订,才达到了预期的结果”(RFD)。同样,一名学生在反思他们使用 ChatGPT 时指出,在为 Unabomber 案件制作总结陈词时需要多次修订(SFD)。这些例子展示了过程的迭代性,多次迭代和修改对于实现预期结果至关重要。研究人员还进一步强调了细化提示和参与多次互动的重要性:“如果你对措辞不满意,你可以向 ChatGPT 提供提示,直到它生成更好的措辞的问题”(RFD)。在研讨会上的一位教师也表达了同样的观点:“重要的是要审查和重新生成回应,直到它们符合你的需求”(SYFD)。此外,研究人员还提到如何迭代地利用 ChatGPT 的能力来优化代码和主题:“它可以……将代码分组并建议主题。这可以通过迭代进行,直到你对结果满意”(RFD)。这些例子强调了与 ChatGPT 合作时的迭代性,多次迭代、提示和修订通常对于微调生成的输出并满足用户的特定需求和期望是必要的。
这一发现得到了 Sullivan 等人(2023)的研究支持,该研究强调了在处理 ChatGPT 时迭代优化过程的价值,强调了发展信息素养技能以成功与 ChatGPT 和其他 AI 工具互动的重要性。
互动的迭代性质以及背景和解释的重要性与海德格尔的“在世界中存在”的概念相一致。从 ChatGPT 中获得预期结果可能需要多次迭代和持续优化我们对技术和自身存在理解的过程。与 ChatGPT 的生存性互动涉及调整和优化我们的理解以促进预期结果。
ChatGPT 可能如何影响利益相关者的角色
从我们的分析来看,学生的角色将发生以下变化。
学生的角色将包括向 ChatGPT 提供清晰和具体的信息,以确保得到准确和相关的回应。他们还需要理解 ChatGPT 输出的局限性,并批判性地评估其回应,以确保与自己的目标保持一致。此外,学生需要培养信息素养技能,并参与迭代优化,不断改进他们的输入以优化 ChatGPT 回应的有效性。
关于讲师的角色,讲师可以利用 ChatGPT 协助完成诸如撰写持久理解、课程目标、学习成果、教学计划和课前测验等任务。然而,ChatGPT 在这些任务中的有效性将取决于提供具体信息。讲师需要输入关于课程、学生和机构的清晰细节,以便从 ChatGPT 那里获得准确的建议。他们还需要考虑课堂的背景,并为 ChatGPT 提供相关信息,以便生成有价值的建议。此外,讲师在指导学生使用 ChatGPT 并完善其使用方法方面将发挥关键作用。他们需要确保学生理解输入质量的重要性,并帮助他们了解与 ChatGPT 合作的工作迭代性质。讲师还将贡献他们的专业知识,评估和情境化 ChatGPT 的输出,弥合人工智能生成的回答与人类教师为教育体验带来的创造力、原创性和实践机会之间的差距。
高等教育机构需要为讲师和学生提供必要的资源和支持,以有效使用 ChatGPT。这可能包括提供如何利用 ChatGPT 进行教育任务的培训计划,以及促进信息素养技能的发展。此外,机构必须培养持续学习和适应的文化,鼓励讲师和学生接受与 ChatGPT 合作时的迭代优化过程。通过认识到人工智能在教育中的多方面影响,机构可以积极塑造 ChatGPT 和其他 AI 工具的整合,以符合其教育目标和价值观。
总结来说,我们的分析揭示了关于 ChatGPT 影响的关键见解,强调了清晰输入、迭代优化、情境意识和用户参与的重要性。通过培训学生和讲师有效利用 ChatGPT 进行学术活动,确保高质量输入,将最大化其在教育中的益处。
ChatGPT 的局限性和挑战
ChatGPT 无疑为各个领域的用户带来了许多好处和机遇。然而,我们必须认识到 ChatGPT 并非没有其局限性和挑战。在这个主题下,我们调查了用户在与 ChatGPT 互动时可能遇到的潜在缺陷和困难,揭示了需要考虑的关键领域。
ChatGPT 缺乏标准参考指南
在学术环境中,由于缺乏 ChatGPT 的标准引用指南,用户可能会遇到重大挑战。这个问题涉及两个关键领域:ChatGPT 未提供其使用来源的引用,以及缺乏为用户制定引用 ChatGPT 生成信息的既定准则。正如我们讨论的那样,生成式 AI 依赖于未公开来源的数据,这引发了关于版权侵权和创作者公平补偿的担忧。Altman 承认了这些担忧,但没有提供明确的答案,这表明 ChatGPT 可能不会采用其来源的引用模型。因此,用户面临确定 ChatGPT 信息来源和适当引用的困难。数据示例突显了这些挑战:“当我们询问它时,ChatGPT 给出了一些关于如何引用它的建议,但目前还没有使用 ChatGPT 的标准引用指南”(TFD);“如果学生直接从 ChatGPT 获取信息,他们无法引用来源,因为我们不知道数据是从哪里来的”(TFD);“ChatGPT 在确定使用什么证据以及如何使用证据方面做得并不好”(SFD);“系统告诉我它无法自己进行引用,我应该寻找关于这个主题的专家意见和学术论文。因此,我检查了通过互联网上的学术论文中 ChatGPT 所说的内容……我认为如果系统本身指明它使用的信息来源会更好”(SFD)。此外,在没有明确的指南和标准的情况下,用户在引用和引用从 ChatGPT 获取的信息时面临挑战。缺乏标准引用指南引发了关于在包含 ChatGPT 生成内容的学术和研究输出中使用的来源透明性和可追溯性的担忧。
为了应对这一挑战,本案例研究中的讲师与托马斯·门内拉博士合作,他是活跃学习艺术与科学学院的高级研究员,为 2023 年春季学期的学生设计了一套引用系统。学生被要求引用所有来自 ChatGPT 的内容,并使用按时间顺序编号的文内引用,例如‘Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua’(ChatGPT,1)。不遵守这一规定将被视为剽窃。此外,他们还被要求在参考文献部分之后创建一个单独的“ChatGPT 引用”页面,包括 ChatGPT 内容生成的日期、相应的提示以及至少一个用于事实核查验证的来源。学生被告知,ChatGPT 生成的内容在未经验证之前不能被视为准确,他们需要对他们在作业中包含的内容进行彻底的事实核查,无论作者身份如何。那么这个系统的反馈如何呢?讲师说:“我要求我的学生按照我和汤姆开发的系统引用他们使用的 ChatGPT。然而,这并不理想,需要更好的引用系统”(TFD)。其他评论包括:“我认为文档中对引用系统的描述不够好。应该更清楚地说明我应该如何进行引用。我花了大部分时间,因为我很长时间都不理解”(SFD);“需要更多关于如何正确和一致使用它的指导和示例”(SFD);“文档对我有帮助,但它非常详细,在我看来这造成了困惑,文档应该更概括,应该删除引起困惑的细节”(SFD);“引用 ChatGPT 有点困难和复杂,可以使其更简单”(SFD)。总之,学生要求更清晰的指示、更多指导和更简单的引用方法,以避免混淆。
这些挑战也在文献中有所体现。Neumann 等人(2023)强调,当将 ChatGPT 整合到高等教育中,尤其是在科学写作任务中时,涉及现有知识的部分可能会带来困难。这是因为 ChatGPT 可能会生成引用不存在文献或未能提供准确可靠引用的文本。Rudolph 等人(2023)也提出了这个问题,指出 ChatGPT 在提供来源和引用方面存在局限性,这对于学术作业是必不可少的。然而,他们指出,有一些有希望的发展可以解决这一局限性,例如正在开发的具有网络浏览能力的原型 WebGPT,它能够访问最新信息、经过验证的来源和引用。此外,他们指出,像 Elicit 这样的 AI 研究助手可以帮助寻找学术文章,并从庞大的学术论文库中提供摘要。他们认为,通过结合最新信息和可靠来源,这些进步将提高学术工作的质量和可信度(Rudolph 等人,2023)。
通过克里斯滕森的视角,学术环境中的用户试图“雇佣”ChatGPT 来完成为他们的学术工作生成准确和可靠信息的工作。然而,由于缺乏标准的引用指南,ChatGPT 可能无法有效地完成这项工作。用户在确定 ChatGPT 信息的来源并适当引用时遇到困难,阻碍了他们依赖 ChatGPT 作为可信来源的能力。这项未完成的工作突显了提供明确指南和标准以引用 ChatGPT 生成信息的必要性,使用户能够自信地将其内容纳入他们的学术工作中。从布尔迪厄的视角来看,ChatGPT 缺乏标准的引用指南反映了学术界中的权力动态和合法性斗争。缺乏明确的指南使用户处于不利地位,因为他们无法遵守既定的引用规范,并可能因不遵循传统引用实践而受到批评。这种情况加强了既定来源和传统引用系统的主导地位,这可能会阻碍 ChatGPT 生成信息在学术话语中的认可和接受。ChatGPT 依赖于来自未公开来源的监控数据,这引发了关于版权侵权和创作者公平补偿的担忧。缺乏对引用 ChatGPT 生成内容的明确指南进一步加剧了信息的商品化和学术知识生产中劳动力的贬值。用户在来源未公开且未获得补偿的情况下,面临着适当引用和引用来自 ChatGPT 的信息的挑战。从海德格尔的视角来看,缺乏标准的引用指南可以被视为在学术环境中技术工具化的后果。将 ChatGPT 作为生成内容工具的效率和生产力的关注,忽视了引用作为承认知识起源和真实性的本质。缺乏明确的指南反映了将引用简化为技术任务,忽视了其在维护学术工作的完整性和透明度中的本体论意义。
提供错误信息/缺乏响应相关性
现有的文献指出,ChatGPT 可能会生成不准确的信息,这是由于其能力和训练技术的局限性所致。数据中的例子说明了这一点。“有时 ChatGPT 引用了不存在的来源”(SFD);“我发现它真的很擅长提供可信的来源。它们通常是不存在的”(SFD);“当被问及土耳其的跨性别代词时,ChatGPT 表示土耳其存在跨性别代词的问题。然而,这个信息是完全错误的。土耳其的代词中没有性别”(TFD);“在一次会议上,一位大学教授正在介绍一个即将于 2023 年发布的新的倡议。我桌上的一位参与者使用 ChatGPT 查找有关该大学和该倡议的信息,并被错误地告知该倡议始于 2019 年”(SYFD)。其他例子如下:“它提出了未来改进和研究方向的建议,但我不认为这与我的项目相关,因为我认为我的项目不应该提及未来的发展”(SFD);正如研讨会上的教师所评论的,“ChatGPT 准备的内容可能不是你想要的,或者可能与你学生的需求和兴趣不相关”(SYFD);“ChatGPT 生成了笑话,但这些笑话并不特别有趣,或者看起来没有太多意义”(SFD);“有时它给出的答案与你要询问的主题不太相关”(SFD)。
文献也支持这些担忧。正如鲁道夫等人(2023 年)的论文中所强调的,教师们对 ChatGPT 在理解和评估其生成信息的相关性或准确性方面的局限性提出了重大关切,表示尽管 ChatGPT 可以生成看似可行的文本,但它缺乏对主题内容的深入理解。此外,根据 Tlili 等人(2023 年)的研究,参与者普遍认为 ChatGPT 提供对话质量和信息准确性是令人满意的。然而,他们也承认 ChatGPT 容易偶尔出现错误和有限的信息,指出尽管 ChatGPT 的回答通常被认为合理且可靠,但有时也会伴随误导性信息。
通过克里斯滕森的视角来看,ChatGPT 的用户是雇佣它来提供准确和可靠的信息。然而,数据中的例子表明,ChatGPT 往往无法完成这项工作,因为它生成不准确的信息或其响应缺乏相关性。用户期望与 ChatGPT 实际表现之间的这种不匹配表明了在履行其被雇佣的工作方面的差距。布迪厄的社会学视角强调社会结构和文化资本在塑造个人行为和偏好中的作用。在 ChatGPT 的案例中,正如鲁道夫等人(2023 年)所强调的,教师对其理解和评估信息的能力表示担忧。这些担忧受到教师在教育领域作为专家的地位的影响,在该领域,信息的准确性和相关性被高度珍视为文化资本。教师对 ChatGPT 履行这一角色的怀疑反映了他们对既定知识和专业知识的依赖,而这种担忧反映在他们对技术的评估中。从马克思主义的视角来看,ChatGPT 表现中的局限性和不准确性可能归因于资本主义生产方式中固有的矛盾和动态,其中追求效率和利润往往优先于确保全面和准确的信息。ChatGPT 的潜在偏见和不足可能被视为资本主义系统对技术发展影响的副产品。从海德格尔的视角来看,ChatGPT 生成看似合理但缺乏对主题内容深入理解的文本的能力,引发了存在主义问题。海德格尔认为,技术可能导致一种以工具理性为特征的存在方式,其中人类活动被简化为达到目的的手段。在教育背景下,ChatGPT 在掌握和评估信息方面的局限性引发了对其对学生真正理解和批判性思维技能影响的质疑。它强调了反思技术在塑造教育实践和知识获取性质中的作用的需要。
ChatGPT 拒绝或斥责的实例
ChatGPT 出现拒绝或斥责的情况,通常发生在系统拒绝提供响应或因特定输入或查询而斥责用户时。这种行为可能是 OpenAI 实施的 Moderation API 的结果,该 API 是一个基于 AI 的系统,旨在检测语言违规行为并确保遵守其内容政策,该政策针对性别歧视、种族言论和虚假新闻。然而,重要的是要承认这个系统并不完美。正如现有文献中提到的,有用户设法绕过了审查系统,导致 ChatGPT 生成了不适当的内容。
显著的是,我们的数据显示,ChatGPT 可能过度依赖审查系统,导致拒绝或甚至可以解释为斥责的实例。例如,一名学生报告说:“ChatGPT 不使用俚语词汇,当被问及使用俚语词汇的问题时,它不会做出回应”(SFD)。教师说:“我们输入了被暗杀者使用的术语,这最终导致了他被识别出来,因此它们是案件的重要组成部分。然而,ChatGPT 拒绝讨论一些俚语项目,因为它们被认为是侮辱性的,甚至因为询问这些术语而斥责了我们”(TFD)。同样,当询问 Kurt Cobain 的自杀以及笔记中的一些词汇时,教师指出:“ChatGPT 拒绝讨论这个话题,认为它不合适,它还拒绝讨论一些词汇,例如‘婊子’,认为它们是侮辱性语言”(TFD)。此外,研究中的学生发现 ChatGPT 不使用脏话(SFD)。有趣的是,拒绝或斥责的实例在文献中并未出现。
通过克里斯滕森的视角来看,ChatGPT 的用户期望它能提供准确可靠的信息。然而,拒绝或斥责的实例表明了用户期望与 ChatGPT 实际表现之间存在不匹配。用户可能心中已有特定的任务或查询,希望 ChatGPT 能够完成,但系统的局限性以及对审查系统的依赖可能导致无法获得期望响应的用户感到沮丧。ChatGPT 拒绝或斥责的这些实例也可以通过布迪厄的文化资本理论来审视,系统被编程以避免语言违规并促进对内容政策的遵守。教师们的经历,他们在讨论某些话题或使用特定语言时受到斥责,反映了他们的专业知识与既定知识之间的冲突,以及系统在理解他们查询的背景和细微差别方面的局限性。追求效率和利润可能会优先考虑审查系统在处理语言违规方面的有效性,但它可能在充分理解和应对用户查询和意图的复杂性方面有所不足。从海德格尔的角度来看,ChatGPT 对审查系统的依赖以及拒绝或斥责的实例引发了存在主义问题。用户可能会质疑技术在塑造他们的互动和限制他们参与某些讨论或使用特定语言方面的作用。它提出了关于 ChatGPT 等 AI 系统对真正理解、批判性思维技能和教育环境中知识获取性质的影响的更广泛问题。
性别偏见在代词使用中的问题
ChatGPT 倾向于默认使用男性代词,除非特别指示。正如现有文献所示,包括 ChatGPT 在内的 AI 系统中的性别偏见是一个有充分记录的问题。这可能是因为训练数据主要由男性创建,这随后将偏差引入系统,从而 perpetuate stereotypes(持续存在刻板印象)和 reinforce power imbalances(强化权力不平衡),导致分配和代表性受损。在我们的数据中可以看到这样的例子:“当使用 ChatGPT 撰写一封包括乔治华盛顿大学校长和副校长在内的信件时,ChatGPT 默认使用男性代词,尽管我所提到的人中有一位是女性”(SYFD);“当我要求 ChatGPT 总结一篇关于研究者的文本——即关于我自己,一位女性——它自动默认使用他/他的代词”(RFD)。
这一点在文献中也有所体现。Mhlanga(2023)指出,ChatGPT 的训练数据中存在潜在的偏差,并警告 AI 算法加剧偏差和歧视,导致代表性不足的群体进一步边缘化。Alshater(2022)在促进公平和无偏见的背景下,强调了在开发和利用 ChatGPT 及类似技术时优先考虑公平待遇和避免任何形式的歧视的必要性。他强调了承认和解决这些技术可能带来的潜在偏差或歧视性后果的重要性。此外,Alshater 还关注了 ChatGPT 及类似技术的训练过程,特别指出从大量数据集中可能出现的潜在偏差或不准确性。
通过克里斯滕森的视角,ChatGPT 被雇佣去做的工作是在 ChatGPT 这样的 AI 系统中准确和无偏见的使用代词。客户期望这些系统能够理解和尊重性别身份,并使用适当的代词。ChatGPT 默认使用男性代词所观察到的性别偏见反映了未能充分履行这一工作,因为它忽视了多样的性别身份并延续了刻板印象。通过布迪厄的视角,ChatGPT 等 AI 系统的训练数据,主要由男性创建,反映了社会中存在的权力动态和社会结构。这导致了偏见和权力不平衡的再现,加强了主导的社会规范并边缘化了代表性不足的群体。在代词使用中的性别偏见可以被视为某些群体在塑造 AI 系统和延续不平等的社会关系时所拥有的象征性权力的表现。从马克思主义的角度来看,代词使用中的性别偏见问题可以理解为资本主义社会中更广泛的阶级斗争和剥削的反映。在创建 AI 系统如 ChatGPT 的训练数据中,年轻白人的主导地位是权力动态和经济结构优先考虑某些群体而忽视其他群体的结果。代词使用中的性别偏见通过边缘化和排除代表性不足的群体来加强现有的权力不平衡,从而在资本主义体系中延续他们的从属地位。在代词使用中的性别偏见背景下,海德格尔关于技术作为一种揭示方式的概念可以适用。ChatGPT 默认使用男性代词揭示了其编程和训练数据中嵌入的潜在偏见和假设。它突出了技术如何加强和延续社会规范和权力结构,限制真实和包容性互动的可能性。通过认识和解决这一偏见,个人和社会可以努力实现更开放和包容的性别和语言理解。
需要事实核查
通过以下数据中的例子突出了核实事实的重要性:‘为了核实 ChatGPT 提供的信息,我进行了自己的研究并进行了双重检查。例如,当 ChatGPT 提到无政府炸弹客宣言的标题为“工业社会及其未来”时,我在将其用于我的结论之前确保自己进行了核实’(SFD);‘我认为 ChatGPT 对研究很有用,但你需要与其他来源的信息进行核对,以确保它提供的是正确的信息’(SFD);‘我用 ChatGPT 做了作业,但我用另一个来源核对了它提供的信息’(SFD);‘我们不能依赖它提供所有信息的准确性。我们需要通过自己的研究来核实’(SFD);‘ChatGPT 在生成真实和相关的文献方面非常糟糕……因此,始终核实它所说的内容’(RFD);‘我发现让 ChatGPT 生成关于文献中差距的想法是一个有用的起点,但我认为依靠自己阅读所有论文后识别的差距更准确’(RFD)。此外,讲师还做出了以下观察:‘学生们将 ChatGPT 用作搜索引擎来询问无政府炸弹客案例。然而,我们不知道任何信息来自哪里。我们认为这有两个问题。第一个是,如果你使用这些信息,你并没有给予原始作者任何认可。第二个是,ChatGPT 是一个次级来源,不应被视为一级来源,因此我们同意从 ChatGPT 获取的所有内容都应该与可靠来源进行核实’(TFD)。
这在文献中也有所体现。Mhlanga(2023)强调了批判性地评估 ChatGPT 生成信息以及区分可靠和不可靠来源的重要性。与此一致,Firaina 和 Sulisworo(2023)认识到使用 ChatGPT 提高学习和生产效率的好处,但他们也强调了保持批判性态度和核实获取信息的必要性。他们强调了核实 ChatGPT 生成信息的准确性及其可靠性的重要性。同样,Alshater(2022)的研究强调了核实和验证这些技术产生信息的重要性。
通过克里斯滕森的视角,我们可以观察到用户雇佣 ChatGPT 是为了特定目的,例如生成信息、协助研究任务以及提高学习和工作效率。然而,正如我们所看到的,由于系统内部的局限性,用户也认识到在利用 ChatGPT 时进行事实核查作为一项关键任务的需要。事实核查使用户能够确保生成信息的准确性和可靠性,满足他们获取可信和验证知识的目标。这与克里斯滕森理论的原则相符,即用户寻求帮助他们有效实现预期结果的解决方案。通过布迪厄的视角,我们可以将强调事实核查视为个人文化资本和批判性思维技能的表现。用户通过认识到批判性地评估信息以及区分可靠和不可靠来源的重要性,展示了他们参与知情决策的能力。从马克思的理论来看,对事实核查的关注反映了人类与 AI 系统之间的权力动态。用户通过独立验证信息来行使他们的权力,减少 AI 系统对他们知识和决策过程的影响。事实核查可以被视为个人在面对技术进步时主张其能动性的方式。考虑到海德格尔的哲学,事实核查代表了个人与 ChatGPT 提供的信息的积极互动以及他们对信息准确性的批判性解读。用户理解 AI 生成信息是存在缺陷的,并认识到他们自己的参与和解读对于达到对世界可靠理解的重要性。
ChatGPT 可能如何影响利益相关者的角色
ChatGPT 带来的挑战将要求学生应对缺乏标准参考文献指南的问题,这可能会使他们在适当引用系统生成信息时遇到困难。这一挑战引发了关于在包含 ChatGPT 生成内容的学术和研究输出中使用的来源透明度和可追溯性的担忧。学生需要制定策略来验证 ChatGPT 提供的信息的来源和可信度,并将其有效地整合到他们的学术工作中。教师需要解决与 ChatGPT 相关的局限性和挑战。这包括其提供错误或不相关信息的能力,这可能会影响教师对系统在学术目的上的依赖。
教师在将 ChatGPT 生成的信息融入课程或作业之前,必须谨慎并验证其准确性。他们还可能需要指导和协助学生批判性地评估和核实 ChatGPT 生成的内容,以确保课程中使用信息的可靠性和有效性。这种对核实事实的依赖将更加重视学生的批判性评估技能和信息素养。教师和机构可能需要纳入核实事实的策略,并促进批判性探究的文化,以确保学生能够评估和验证从 ChatGPT 获得的信息。
总结来说,我们的分析突出了关于 ChatGPT 局限性和挑战的关键见解。它缺乏标准化的参考文献指南,需要核实事实以确保准确性。 moderation API 限制了用户参与,默认使用男性代词的性别偏见需要解决。为了克服这些问题,综合性的 AI 素养培训和道德政策对于在学术界负责任地整合 AI 至关重要。
与 ChatGPT 的类似人类交互
本主题探讨了沟通的本质以及用户在与 ChatGPT 互动时体验到的类似人类交互。通过探讨用户与 ChatGPT 互动中类似人类交互的主题,包括交互性、感知和信任,我们可以获得关于利用这一 AI 系统社会和心理维度的宝贵见解。
ChatGPT 的沟通交互性/感知类似人类交互
通信的互动性,突显了用户与 ChatGPT 之间互动的动态和响应性,当用户感知或体验到 ChatGPT 展现出类似人类的特质,尽管其本质是人工的,这一现象变得明显。这一现象在数据中得到了观察,学生们描述了他们与 ChatGPT 的协作和参与是一种相互的互动。一位学生表达了这个互动对他们学习和项目开发的影响,说:“ChatGPT 确实帮助我在项目中学习和进步。最重要的效果是它为我分析了事件,并给了我一个例子,让我对事件有了想法。例如,我们一起分析了《工业社会及其未来》这篇文章”(SFD)。学生们还强调了 ChatGPT 提供建议和使研究更具对话性的能力,他们描述了与 ChatGPT 建立联系的感觉,说:“ChatGPT 可以向申请他们的人提供建议,就像律师一样”(SFD)和“我可以像和人交谈一样和它聊天”(SFD)。这些体验不仅限于学术环境,还扩展到了个人互动。研究人员分享了他们为不同理论家设置定制角色的经验,并通过这些角色进行讨论,突显了通信过程的互动性(RFD)。此外,主要研究者的女儿也展示了 ChatGPT 类似人类的感知能力,创建了一个定制角色,并就她的生活进行对话,寻求建议,并将这个机器人视为伴侣(RFD)。
在 Tlili 等人(2023)的研究中,许多参与者对与 ChatGPT 对话的流畅性印象深刻,描述这些互动是令人兴奋和愉快的。然而,值得注意的是,由于 ChatGPT 仅限于文本界面,它缺乏检测用户身体线索或情绪的能力。这导致参与者表达了对提高 ChatGPT 类似人类特质的需求,特别是在增强其社会角色方面。
通过克里斯滕森的视角,研究发现用户将 ChatGPT 视为完成提供互动和类似人类沟通的任务。用户将他们与 ChatGPT 的协作和互动体验描述为一种相互交流,表明他们将其视为一种能够促进富有成效和吸引人的对话的工具。他们描述了 ChatGPT 如何通过分析事件和提供例子帮助他们进行学习和项目开发,从而协助他们在教育任务上。用户还强调了 ChatGPT 在提供建议和使研究更具对话性方面的作用,暗示它履行了促进咨询和对话性互动的任务。从布尔迪厄的视角来看,与 ChatGPT 的互动可以从其中嵌入的社会和文化资本来理解。用户将价值和意义赋予他们与 ChatGPT 的互动,将其视为一种增强他们学习和项目开发能力的资源。他们描述了一种联系感,并将 ChatGPT 视为伴侣,这表明它具有象征性价值,并有助于他们的社会体验。从马克思的视角来看,研究发现暗示了劳动动态可能发生的变化。ChatGPT 被描述为提供建议并参与对话性互动,这在传统上可能需要像律师这样的人类专业人士。这引发了关于某些工作角色被取代以及技术对劳动力市场影响的疑问。此外,与 ChatGPT 互动的流畅性和愉悦性可能有助于用户的满意度和幸福感,反映了技术塑造资本主义社会中个人体验的潜力。从海德格尔的视角来看,研究发现表明用户将 ChatGPT 视为一个桥梁,连接了人工智能和人类智能之间的差距,提供了联系和相互理解的感觉。用户描述了参与讨论甚至开发定制角色与 ChatGPT 互动,突出了这些互动作为与世界和他人建立联系的手段的存在主义意义。这表明,尽管 ChatGPT 具有人工性质,但它成为了用户生活体验的一部分,并影响了他们的自我意识和社交互动。
人们将 ChatGPT 视为提供观点而非预测/对信息的无条件的信任
人们对于 ChatGPT 的认知往往使他们将其视为个人观点的来源,而不是预测的结果。此外,用户对 ChatGPT 提供的信息的不加质疑的信任,即使这些信息是错误的,也凸显了批判性地评估和以怀疑的态度对待 AI 生成内容的重要性。这一点在以下数据中得到了体现。讲师表示:“在一堂关于使用跨性别代词的课程中,ChatGPT 提出了关于跨性别权利的观点,尽管它没有被提示。学生们认为这是 ChatGPT 在发表意见。这引发了一场关于 ChatGPT 不是人类,它基于从其数据库中的文本预测,因此不能给出意见,尽管听起来像是在发表意见”的讨论(TFD)。此外,研究人员回忆道:“在一次会议上,一位大学教授正在介绍一项即将于 2023 年发布的新的倡议。我桌上的一位参与者使用 ChatGPT 查找关于该大学和该倡议的信息,并被错误地告知该倡议始于 2019 年。他的立即反应是认为演讲中存在错误,而不是 ChatGPT 提供的信息有误。他立刻愿意相信 ChatGPT 而不是演讲者”(SYFD)。这些例子突出了用户对 ChatGPT 信息的认知和坚定不移的信任如何影响他们的互动和决策。
这也在文献综述中得到了体现。根据 Mhlanga(2023)的研究,教师必须发挥关键作用,通过鼓励学生质疑和分析 ChatGPT 和其他 AI 系统的输出,帮助学生形成对课堂中 AI 应用的批判性和信息丰富的观点,促进对这些技术如何工作及其潜在缺陷的更深入理解。由于准确性在教育中至关重要,Mhlanga 强调了在使用 ChatGPT 时,教师和学生进行批判性思维的重要性,并敦促他们从可靠来源验证信息以确保其准确性。这突显了教育者在引导学生辨别可靠信息、避免盲目信任 AI 系统输出的责任。Sullivan 等人(2023)强调了建立明确条件、承认 ChatGPT 输出中的潜在不准确性和偏见、以及在学生中推广批判性思维和信息素养技能的必要性。作者警告说,不应盲目信任 ChatGPT 等 AI 系统提供的信息,强调批判性地评估和验证信息的重要性。他们认为,通过培养这些技能,学生可以成为信息的有鉴别力的消费者,在与 AI 工具互动时做出明智的决定。根据 Rudolph 等人(2023)的研究,ChatGPT 作为一个 AI 语言模型,缺乏对世界的真正理解和知识。它只是根据训练数据中的模式和示例生成文本,而没有对内容或上下文的真正理解。因此,ChatGPT 可能产生看似智能和合理的响应,但实际上并不准确或上下文适当。Rudolph 等人(2023)还指出,尽管 ChatGPT 可能被视为提供意见,但它只是基于训练数据中的统计模式提供文本预测,这可能包括准确和不准确的信息。因此,他们强调教育者和机构应意识到这一局限性,并确保学生具备必要的批判性思维和信息素养技能,以有效地参与和评估 ChatGPT 的输出。他们强调,强调从可靠来源验证信息的重要性,而不是仅仅依赖 ChatGPT 获取准确和可靠的信息,以避免在教育环境中传播不准确或误导性信息。
从克里斯滕森的视角来看,用户将 ChatGPT 视为个人观点而非预测的来源,这表明用户不仅渴望准确的信息,还希望得到个人验证或观点。这意味着用户可能会寻求与其现有信念或观点一致的确证或信息。然而,对于用户来说,认识到 ChatGPT 的主要功能是基于统计模式提供文本预测,而不是提供个人观点,这一点至关重要。布迪厄关于社会再生产和文化资本的理论,为理解为什么一些用户毫不犹豫地信任 ChatGPT 的信息,即使信息是错误的,提供了更深入的理解。根据布迪厄的观点,用户的社会和文化背景塑造的习惯性思维,对这一行为有显著影响。文化资本较低或对批判性思维接触有限的用户,可能更容易盲目信任 ChatGPT。相反,文化资本较高的个体会带着怀疑的态度去评估它。这种观点强调了培养信息素养和批判性思维的重要性,特别是在文化资本有限的用户中,以防止通过盲目信任 ChatGPT 而传播不准确和误导性信息。布迪厄的“权威声音”理论进一步支持这一观点,其中对批判性思维接触有限的用户可能会将 ChatGPT 的信息视为权威的,即使信息是错误的。另一方面,文化资本较高的用户可以轻松地批判性地评估 ChatGPT 的输出。与知名机构相关的象征性权力加强了 ChatGPT 作为权威来源的感知。因此,推广数字素养和批判性思维对于更明智地参与像 ChatGPT 这样的 AI 技术至关重要。马克思的异化理论在用户对 ChatGPT 信息的坚定不移信任的背景下变得相关,塑造了他们的互动和决策。这种盲目信任可以被视为一种异化形式,即用户依赖外部实体(ChatGPT)获取信息和做出决策,放弃了他们自己的批判性思维和对多元知识来源的访问。这种对 ChatGPT 的依赖加强了用户与技术之间的权力动态,因为用户将他们的能动性交给了 AI 系统。通过海德格尔的视角,由于 ChatGPT 是基于其训练数据中的模式和示例进行操作,而没有深入理解内容或背景,这引发了关于 AI 本质及其在提供有意义和可靠信息中作用的生存论问题。用户对 ChatGPT 输出的盲目信任可以被视为技术框架的结果,即用户将 AI 视为全知全能或不会犯错的,尽管它固有的局限性。
ChatGPT 可能如何影响利益相关者的角色
凭借其生成类似人类对话和连贯回应的能力,学生们将 ChatGPT 视为一种相互互动的工具,可用于协作项目、分析事件和获取建议。这模糊了人类与 AI 交互的界限,并有可能使他们的学习更加对话化和紧密相连。然而,这也伴随着一些注意事项。对于学生来说,发展批判性思维技能,以区分观点和预测是至关重要的。他们还应该学会从可靠来源验证信息,以避免对 ChatGPT 输出的盲目信任,并确保他们接收到的信息的准确性和可靠性。
教师需要在指导学生与 ChatGPT 的交互中扮演关键角色。他们需要教育学生关于像 ChatGPT 这样的 AI 系统的局限性,并鼓励他们批判性地质疑和分析输出。通过促进批判性思维和信息素养技能,教师可以帮助学生发展对 AI 生成内容的鉴别方法。对于教师来说,保持对 AI 进步的了解并调整教学方法以有效地将 ChatGPT 融入学习过程也很重要。他们应该提供关于负责任和道德使用 AI 的指导,承认 ChatGPT 输出中的潜在不准确性和偏见。通过明确使用条件并将信息素养融入课程,教师可以确保学生具备有效参与 ChatGPT 和做出明智决策所需的必要技能。
高等教育机构有责任将 AI 素养和批判性思维技能融入课程,并为师生提供资源和支持。机构还应制定明确的 AI 在教育中使用的道德准则,考虑到 ChatGPT 和其他 AI 系统的局限性。通过这样做,机构可以确保学生了解对 AI 生成内容无条件的信任可能带来的潜在风险,并促进对 AI 工具的负责任和道德的参与。
总结来说,用户将 ChatGPT 视为不仅仅是 AI 语言模型,这培养了一种连接感。然而,这种认识可能导致对其信息的无条件信任,强调了批判性思维和信息素养培训的必要性。因此,教育工作者必须解决影响用户信任的社会文化因素和权力动态。包括 AI 素养培训、促进批判性思维和实施道德准则在内的实际行动,对于在教育中负责任地使用像 ChatGPT 这样的 AI 技术至关重要。
ChatGPT 的个人助理/辅导角色
在“个人助手/导师”这一主题中,重点是探索 ChatGPT 作为个人导师或助手的多样优势和功能。这包括诸如丰富用户想法、加快过程、减轻认知负担、在生活其他领域的实用性、翻译能力、审阅工作、提出改进建议、文本语域修改以及传授特定知识、技能和概念等代码。
丰富用户想法
ChatGPT 丰富用户想法的能力在数据中表现得十分明显。研究者表示:“根据我之前的经验和现有知识,我相对容易地确定了一种研究方法。然而,向 ChatGPT 寻求建议导致了一系列更广泛的建议,这丰富了我的选择。在数据收集想法和研究方法方面也是如此”(RFD)。研究者进一步评论道:“ChatGPT 在识别局限性、含义和结论以及从我的文本中提出进一步研究的想法方面表现出色。它甚至提出了我未曾考虑过的建议”(RFD)。同样,讲师表示:“ChatGPT 非常迅速地为法语言学课程提出了案例。其中一些是我之前未曾听说过的”(TFD)。她还指出,ChatGPT 为增加课程多样性提供了许多活动想法,从而增强了教学体验(TFD)。此外,学生还使用 ChatGPT 为他们的最终项目生成想法(SFD)。
这些发现与文献资料相符。根据 Sullivan 等人(2023 年)的研究,ChatGPT 可以帮助用户克服写作障碍,并提供写作提示,提供新的视角和替代方法来激发创造力。Neumann 等人(2023 年)也讨论了 ChatGPT 在为活动和作业提供新想法方面的潜力,突出了其在基本任务中的创新潜力。Rudolph 等人(2023 年)提到 ChatGPT 能够为学生写作任务生成想法和建议,有助于丰富他们的想法。他们还指出,接触由 ChatGPT 生成的优秀写作示例可以提高学生对有效写作风格的理解。Tlili 等人(2023 年)发现,ChatGPT 通过提供关于各种主题的全面知识,增强了教育成功,可能激发新想法并促进更深入的学习。他们还指出,教师发现 ChatGPT 在生成具体和相关的学习内容方面很有用,这有助于加深理解并激发新想法。此外,他们发现 ChatGPT 还促使教师探索新的教学哲学和评估方法,这些方法可以促进批判性思维和想法的产生。同样,Firaina 和 Sulisworo(2023 年)发现 ChatGPT 作为用户的沟通渠道,提供获取新鲜信息和想法的途径,促进新知识和技能的发展。此外,Alshater(2022 年)强调了 ChatGPT 在解决广泛研究问题方面的灵活性,例如为金融建模生成现实场景或模拟复杂经济系统,指出这种灵活性允许研究人员探索新想法和视角。在 Zhai(2022 年)的试点研究中,ChatGPT 为关于“教育人工智能”主题的学术论文生成了连贯而有洞察力的写作。ChatGPT 的回答指导作者组织论文,制定清晰的提纲,并提供关于人工智能在教育中的历史、潜力和挑战的有价值信息。ChatGPT 还提供了详细的描述和用例,丰富了人工智能概念及其在教育中的应用的理解。
通过克里斯滕森的视角,在 ChatGPT 丰富用户想法的背景下,个人正在寻求一种解决方案来增强他们的创造力和智力努力。ChatGPT 作为一个工具,帮助用户生成想法并扩展他们的知识库。通过提供提示、不同的观点和精心编写的例子,ChatGPT 完成了激发创造力和促进想法生成的任务。布迪厄认为,个人的行为和偏好受其社会地位以及获取文化、社会和经济资本的影响。在 ChatGPT 的背景下,其使用和可访问性可能受到教育背景、制度支持和经济资源等因素的影响。拥有更多教育和资源访问权限的用户更有可能从 ChatGPT 的想法丰富功能中受益,而那些访问受限的用户可能面临在充分利用该工具方面的障碍。马克思强调了资本主义社会中知识和劳动的商品化,其中智力和创造性工作往往被低估或被剥削。在 ChatGPT 的案例中,它作为一个工具,可能取代教育者和研究人员执行的一些任务。这引发了关于对劳动力动态的影响以及可能的人力和专业知识贬值的疑问。虽然 ChatGPT 可以增强想法生成并支持研究,但考虑更广泛的社会经济影响并确保工具的使用不会导致人力劳动的侵蚀或加剧不平等是至关重要的。海德格尔认为,技术可以塑造人类经验和理解,通常会导致真实性的丧失和与我们本质存在的疏远。在 ChatGPT 丰富用户想法的背景下,海德格尔的视角促使我们反思依赖 AI 驱动工具进行智力和创造性追求的影响。虽然 ChatGPT 提供了宝贵的帮助,但保持对其局限性的批判性认识,并不要让它取代人类创造力、解释和批判性思维的角色是至关重要的。在技术如 ChatGPT 的使用与人类能动性和反思之间保持平衡,对于保持我们智力努力的真诚性是至关重要的。
加速过程
与传统方法相比,ChatGPT 具有加速各种任务或流程的优势。学生们评论说:“在学习方面非常有用,因为当你自己进行研究时,你很可能得到错误的信息。这也需要更长的时间……另一个例子是,我能够在更短的时间内完成一个通常需要更长时间的项目”(SFD);“ChatGPT 帮助我学习。它使我能够在短时间内有效地学习”(SFD);“当我向它请求信息时,我这样做是为了缩短我花费在研究上的时间”(SFD);“ChatGPT 提高了我获取资源和学术速度的能力”(SFD)。一位学生还评论说:“ChatGPT 对新世代的人来说非常容易……人们很容易捕捉到信息。因此,对于人们来说,学习新信息既容易又便宜,而且速度快”(SFD)。在一次研讨会上,一位教师评论说:“我认为它对教师准备真实的课程内容非常有用。教师不必浪费时间精力创造新材料,而是可以为学生的特定需求节省更多时间”(SYFD)。另一位教师评论说:“我认为它就像一个助手,根据你想要的东西为你展示最佳选项。这非常有用,可以节省你的时间”(SYFD)。在 ChatGPT 智库会议上的一个评论中,这种现象被完美地捕捉到了,一位参与者说:“ChatGPT 就像拥有超能力,我可以举起(智力上)以前从未能举起的东西,我可以以前十倍的速度做任何事情”(SYFD)。研究人员做出了以下评论:“使用 ChatGPT 快速总结文献加快了确定哪些文献最相关的过程”(RFD),以及“向 ChatGPT 寻求建议导致了一系列更广泛的建议,丰富了我的选择。这也加快了过程”(RFD)。研究人员还评论说:“将 ChatGPT 作为开发研究设计工具真的加快了过程”(RFD);“让 ChatGPT 生成调查问卷和访谈问题非常高效,节省了大量时间”(RFD);“ChatGPT 可以非常快速地组合文档,节省了大量时间”(RFD)。讲师评论说:“ChatGPT 非常迅速地为法医语言学课程提出了案例。其中一些是我以前从未听说过的……这个过程比我的原始方式在网上搜索要快得多”(TFD),以及“ChatGPT 可以非常迅速地提出课前视频的脚本,以及建议可用于视频中的图像和视觉元素”(TFD)。讲师还说:“ChatGPT 在提出课堂评估的想法方面非常出色。这确实为我节省了时间”(TFD)。从课堂观察中,讲师注意到:“学生们在英语中写下了传统的性别代词,然后尝试在线研究英语中的当代性别。然后他们通过 ChatGPT 尝试了同样的方法。ChatGPT 在这个活动中效率更高,因此节省了学生的时间”(TFD)。
在文献中,Fauzi 等人(2023)强调学生可以通过利用 ChatGPT 的功能,例如存储和组织课程表、作业截止日期和任务列表,来优化他们的时间管理。这一功能使学生能够有效地管理他们的时间,降低遗漏重要作业或错过截止日期的风险。同样,Firaina 和 Sulisworo(2023)报告称,使用 ChatGPT 对更快地理解材料有积极影响。根据他们研究中采访的讲师,ChatGPT 通过提供访问新信息和想法来促进更快地理解。Alshater(2022)报告称,ChatGPT 和类似的先进聊天机器人可以自动化特定的任务和流程,例如从财务文件中提取和分析数据或生成报告和研究摘要,结论是,通过自动化这些任务,ChatGPT 节省了研究人员的时间并加快了研究过程。Alshater 还指出,ChatGPT 迅速分析大量数据并生成报告和研究摘要的能力有助于加快研究速度(2022)。Zhai(2022)在他的研究中使用了 ChatGPT 来撰写学术论文,并能在 2-3 小时内完成论文。这证明了 ChatGPT 如何加快写作过程并使任务高效完成。Zhai 进一步观察到,ChatGPT 展示了高效的信息处理能力,迅速找到所需信息并促进在短时间内完成任务。这些发现突出了提高生产力、时间管理、理解复杂主题和加快流程的核心关注点。
这与克里斯滕森的理论相一致,因为它认识到用户是如何雇佣 ChatGPT 来完成这些与生产力学习和相关任务。通过布迪厄的视角,使用 ChatGPT 可以被视为获取额外社会和文化资本的手段。学生和研究人员可以利用 ChatGPT 获取信息、知识和高效工具,从而提高他们的学习成果和研究生产力。通过马克思主义的视角,ChatGPT 和类似技术自动化任务、节省时间和加速流程的潜力引发了关于对劳动和就业影响的担忧。虽然 ChatGPT 提高了个人的效率,但这也涉及到工作替代和那些控制和发展这些技术的人之间权力和资源的集中。海德格尔的视角促使我们批判性地反思过度依赖 ChatGPT 等 AI 技术执行人类传统任务所带来的后果。虽然 ChatGPT 提供了便利和效率,但它也引发了关于人类联系、批判性思维和创造力的潜在损失的疑问。这促使我们思考技术在塑造我们对世界的理解、关系和整体存在中的作用。
减轻认知负担
ChatGPT 作为一种强大的工具,通过提供有价值的协助并代表用户执行任务,有效地减轻了认知负担并减少了心理努力。数据显示了 ChatGPT 实现这一目标的多种方式。例如,一位教师评论说:“我们使用 ChatGPT 来创建记忆辅助工具,这是一个很好的活动,因为学生可以专注于使用记忆辅助工具,而不是用他们的认知负担来首先想出一个。”(TFD)。还有,“我们在课堂上让 ChatGPT 总结长篇文章。这对学生来说非常有用,他们可以在阅读更多细节之前,对文章有一个大致的了解并决定其相关性。如果他们有很多东西要读,这有助于减少学生的认知负担。”(TFD)。此外,学生发现使用 ChatGPT 迅速获取复杂术语的准确定义很有价值。学生们请求 ChatGPT 为他们提供语义学和语用学的定义(TFD)。学生们还报告说,ChatGPT 帮助他们减少了特定任务所需的脑力劳动:“它对我的家庭作业帮助很大。我根据评分标准制作了家庭作业的标题,并据此规划了我的工作,所以我不用过多地考虑这些部分。”(SFD);“ChatGPT 帮助我在短时间内有效地学习。它使我在课堂活动中的问题回答变得更加容易。”(SFD)。此外,在一次研讨会上,一位教师评论说:“将 ChatGPT 作为研究伙伴使用,以这种方式使用,学生的认知负担将减少,他们还将更多地了解相关主题。”(SYFD)。
Rudolph 等人(2023 年)强调了 AI 驱动的写作助手,如 Grammarly,在促进英语写作实践和通过提供实时反馈、检测错误以及激励学生修改写作来提升技能方面的潜力。尽管没有明确提到减少认知负荷,但更广泛的讨论表明,AI 聊天机器人和写作助手可以通过协助学生写作过程和促进自主学习来减轻认知负荷。根据 Tlili 等人(2023 年)的研究,参与者认识到 ChatGPT 通过简化学习和减少学生的认知负荷,在提高教育成功方面具有有效性。用户发现 ChatGPT 在为教师和学生提供各种主题的基线知识以及在不同学科中以易于理解的语言提供对复杂主题的全面理解方面非常有价值。他们的研究还突出了 ChatGPT 自动化反馈和减轻教师教学负担的潜力。在 Firaina 和 Sulisworo(2023 年)的研究中,他们发现 ChatGPT 作为获取新鲜信息和思想的沟通渠道,减轻了与寻找这些信息相关的认知负荷。他们的访谈揭示了使用 ChatGPT 对生产力和学习效率的积极影响,促进了更快地理解材料,并在寻找资源上节省了时间,从而减少了学习中的认知负荷。这也在 Alshater(2022 年)的研究中得到证实,他观察到 AI 聊天机器人可以通过自动化任务、提高研究效率和通过识别和纠正数据或分析中的错误以及通过遵循标准化程序和协议确保研究过程的一致性来提高生产力。他相信这有助于研究人员专注于他们工作的内容和解释,从而减轻认知负荷。
关于克里斯蒂安森的“待完成工作”理论,ChatGPT 可以被雇佣来简化并优化任务,使用户能够将认知努力转移到人工智能聊天机器人上。通过提供帮助,例如生成记忆法、总结文章和提供快速准确的定义,ChatGPT 使用户能够专注于更高层次的认知过程,而不是工作中更为琐碎的方面。从布迪厄的视角来看,ChatGPT 可以被视为一种工具,通过提供可能难以获取的信息来弥合知识差距并减轻认知负担。通过作为用户与知识之间的沟通渠道,ChatGPT 促进了新思想和信息的获取,可能为具有不同文化资本的个人创造一个公平的竞争环境。然而,认识到习惯如何塑造用户与 ChatGPT 的互动,有些人过度依赖它而不进行批判性评估,这一点是至关重要的。虽然 ChatGPT 在减轻认知负担方面的作用可以赋予学习力量,但培养批判性思维仍然至关重要,以评估其输出的可靠性。在文化资本和习惯的背景下理解用户的互动对于评估 ChatGPT 对公平信息获取的影响至关重要。再次强调,马克思主义揭示了像 ChatGPT 这样的 AI 聊天机器人对劳动力市场可能产生的潜在影响。虽然 ChatGPT 自动化任务和提升生产力的能力对用户有益,但它再次引发了关于人类劳动被取代的担忧。正如研究中所强调的,AI 聊天机器人在教育中的引入可能会减轻学生和教师的认知负担。然而,考虑到更广泛的社会影响,并确保人工智能技术的实施与公平和机会公平分配的原则相一致,这一点至关重要。海德格尔的哲学强调“在世界中存在”的概念,这表明我们的存在和对世界的理解是相互关联的。在 ChatGPT 减轻认知负担的背景下,我们可以将这一想法与 ChatGPT 作为工具或技术,增强我们与世界互动的能力这一观点联系起来。因此,ChatGPT 可以被视为我们认知能力的延伸,使我们能够更有效地获取和处理信息。它充当我们“存在”与知识世界之间的调解者,使我们能够驾驭复杂主题并减少寻找信息所需的脑力劳动。此外,海德格尔关于“在手边”的概念在考虑 ChatGPT 在减轻认知负担中的作用时也发挥作用。根据海德格尔的观点,当工具处于“在手边”状态时,它们会无缝地融入我们的日常生活。在 ChatGPT 的背景下,它成为了一种“在手边”的技术,我们可以轻松地使用它来获取知识。然而,我们必须关注海德格尔对技术可能使我们从对世界的真实理解中分心的担忧。虽然 ChatGPT 可以减轻认知负担并简化信息获取,但保持批判性思维并不过度依赖它是至关重要的,不要将其作为知识来源的唯一途径。
在其他生活领域的实用性
ChatGPT 的实用性不仅限于其预期语境,它在生活的各个领域都提供了实际的应用和益处。这一点在数据中通过第一手观察得到了体现。研究人员表示:“ChatGPT 可以非常快速地合并文档,节省大量时间。你还可以让它对你的伦理申请进行同行评审,根据标准提出建议,对任何遗漏或可以改进的地方提出建议。自从发现这一点以来,我也用同样的过程来写工作推荐信,通过输入工作的各个方面、提问内容和潜在雇员的简历。这产生了基本的推荐信,然后需要检查并个性化”(RFD)。教师也做出了观察:“学生们将案例中的文本缩写输入 ChatGPT,并要求它将其转换为正常文本。它做得比学生们没有它时成功得多。这让我们意识到,如果学生们需要理解缩写,它也会是课堂外一个有用的工具”(TFD),以及“学生们使用 ChatGPT 将文本从正式语态转换为非正式语态等。这将是一个他们可以在课堂外使用的有用工具。例如,如果他们需要将信件改为更正式的信件”(TFD)。学生们也表达了对 ChatGPT 的多样化使用。一位学生说:“我询问了土耳其的地震历史”(SFD)。另一位学生提到向 ChatGPT 寻求关系建议(SFD)。另一位说:“我要求 ChatGPT 为我朋友写歌,对我的最喜欢的电视剧进行角色分析,询问棋步,并获得投资建议”(SFD)。另一位学生提到:“使用人工智能系统已经成为我的习惯。我现在使用 ChatGPT 来获取我对任何好奇事物的正确信息”(SFD)。一位学生的最终项目基于 ChatGPT,他表示:“我正在准备出国一年参加伊拉斯谟交流项目。我使用 ChatGPT 了解我将要去的大学、我将居住的城镇以及关于文化和历史的问题,以便为旅行做准备。我还用它来帮助我学习我需要知道的基本短语”(SFD)。
尽管现有文献对 ChatGPT 在教育领域之外的应用价值提供了有限的信息,但 Fauzi 等人(2023)的研究突出了它在提升语言技能方面的重要作用,表明 ChatGPT 可以通过提供有价值的资源来帮助学生提高语言水平,学生可以利用它来磨练语法、扩展词汇量并提升写作风格。
通过克里斯滕森的“待完成工作”理论,我们可以看到用户可以将 ChatGPT 雇佣为一个有价值的工具来完成诸如合并文档、同行评审伦理应用、撰写工作推荐信和转换短信缩写等任务。这些现实生活中的例子展示了 ChatGPT 的效率、节省时间和提高用户生产力的能力。用户对 ChatGPT 的多样化使用展示了该工具如何与布迪厄的社会资本和技能获取理论相吻合,作为一个平台,用户可以通过它访问广泛的信息和知识,利用他们的社会资本来探索各个领域。此外,与 ChatGPT 的互动过程涉及技能获取,因为用户发展了导航和评估提供的信息的能力,这进一步促进了他们的理解和学习。再次,马克思关于社会阶级和劳动的理论揭示了 ChatGPT 对工作的影响。从教师和学生的观察中可以看出,ChatGPT 在修改文本和生成内容等任务中的有效性。这引发了对其对传统工作角色和劳动分工影响的思考,可能自动化或增强以前由人类完成的任务。海德格尔的理论强调了技术的变革性质及其对揭示世界的影响。作为一个工具,ChatGPT 使个人能够在不同领域实现特定的任务和目标。在专业环境中,ChatGPT 通过协助撰写电子邮件、生成报告和提供快速访问信息来简化工作流程,这与海德格尔的“在手性”概念相符。同样,在个人互动中,它充当了安排约会、设置提醒、提供推荐并成为我们能力延伸的助手,正如海德格尔关于工具成为透明媒介的观点。此外,ChatGPT 的创造性应用涉及协助写作任务、提出想法和增强语言使用,这与海德格尔的“诗意的居住”方法相一致,通过技术促进开放性和与世界更深的联系。然而,海德格尔的警告提醒我们要反思技术的影响及其使我们与真实体验脱节的可能性。虽然 ChatGPT 很有价值,但我们必须警惕其普遍使用及其对我们与世界关系的潜在影响。
翻译能力
尽管 ChatGPT 在语言间翻译方面表现出色,但偶尔也存在一些缺点。例如,机器翻译模型可能会在性别化代词上遇到挑战,导致翻译错误,如用“它”代替“他”和“她”,这可能导致去人性化(Maslej 等人,2023 年)。然而,尽管存在这些问题,数据也揭示了众多积极方面。研究人员指出,“ChatGPT 可以将访谈、调查等从一种语言翻译成另一种语言,这让我在研究过程中节省了时间”(RFD)。同样,教师评论道,“由于我的学生都是非母语者,能够先将阅读材料翻译成土耳其语以掌握主要思想,然后再用英语阅读,这有助于减轻认知负担,使他们能更多地关注内容”(TFD)。
尽管关于 ChatGPT 翻译能力的文献信息有限,Firaina 和 Sulisworo 的研究论文指出,受访者使用 ChatGPT 帮助将科学文章翻译成英语,这对英语水平有限的人来说尤其有益(2023 年)。
从克里斯滕森的角度来看,ChatGPT 的翻译能力使得用户能够雇佣它来克服语言障碍,并获取不同语言的信息。例如,讲师提到了学生如何通过将阅读材料翻译成土耳其语来更好地理解内容。ChatGPT 的翻译功能解决了语言理解和信息获取的功能性工作。从布迪厄的视角来看,ChatGPT 的翻译能力可以被视为一种文化资本,帮助英语水平有限的人克服语言相关的障碍。通过提供翻译的科学文章,ChatGPT 有助于在学术环境中平衡竞争,减少基于语言的不平等。从马克思的角度分析 ChatGPT 的翻译能力,可以揭示语言服务中的劳动动态。ChatGPT 的自动翻译可以提高效率和可访问性,但也可能导致工作流失和人类翻译者的潜在剥削。翻译任务的自动化引发了关于劳动力贬值和翻译质量妥协的伦理问题。平衡 AI 驱动翻译的利弊需要仔细考虑公平的劳动实践并确保翻译质量的保持。海德格尔的理论认为技术是一种使人类存在和关系得以实现的能力。在 ChatGPT 的翻译能力背景下,它可以被视为一种中介语言互动的技术工具。虽然它促进了跨语言的信息和沟通,但也改变了语言互动本身的性质。因此,对机器翻译的依赖可能会影响个人与语言互动的方式,并可能影响语言学习和文化理解。
评估工作并提出改进建议
ChatGPT 分析并就呈现的工作或内容提供反馈,提出改进建议的能力,在学生们的评论数据中表现得非常明显。一位学生提到,“ChatGPT 提供了非常有用的反馈,给出了详细且有序的解释”(SFD)。另一位学生说,“我在做(作业)时遇到了问题。ChatGPT 告诉我应该遵循的步骤”(SFD)。学生们认识到 ChatGPT 反馈的有用性,其中一位提到,“它告知了它认为哪些地方缺失,并通过逐步评估项目来提供详细的反馈”(SFD)。在同行评审方面,ChatGPT 发挥了重要作用。一位学生说,“我向 ChatGPT 请求对我的论文进行反馈,这是它的回复:‘论文有效地解决了虚假新闻的问题、其影响以及提出的解决方案。通过解决上述建议,论文可以进一步改进’”(SFD)。他们欣赏 ChatGPT 对其论文结构、清晰度和思想发展的具体反馈。另一位学生说,“ChatGPT 为我提供了有用的反馈。它帮助我制作了开头的评分标准”(SFD)。一位学生承认 ChatGPT 分析的正确性,说,“如果考虑 ChatGPT 的评估,我认为很明显,它已经做出了正确的分析”(SFD)。总的来说,他们认为 ChatGPT 的建议有助于识别缺失的点并加强他们的论点。研究人员还发现 ChatGPT 是写作和学习的有用工具,强调了它在诸如改写文章、缩短文本、建议标题和副标题以及根据数据输入生成引言和结论等任务中的能力(RFD)。他们还强调,ChatGPT 的实用性不仅限于研究论文,声明,“这可以用于任何类型的写作,无论是研究论文还是其他任何东西”(RFD)。
文献还突出了 ChatGPT 审查用户作品并提供反馈的能力。根据 Fauzi 等人(2023)的研究,ChatGPT 回答特定问题的能力满足了个人学习需求,使学生能够就特定概念、理论或学科寻求澄清和详细解释。他们认为这种个性化帮助极大地提高了学生的理解、理解和整体学习体验。类似地,Rudolph 等人(2023)讨论了 AI 驱动的数字写作助手(如 Grammarly)在审查学生作品和提供反馈方面的有效性。他们指出,研究表明,利用 Grammarly 作为干预措施,通过自动书面纠正反馈,可以有效提高学生的写作参与度,因为它提供了即时反馈和修订,通过指出错误的位置并分配技术评分来激励他们修改写作。当学生调整他们的写作时,分数的增加对应着错误的减少,鼓励他们继续改进他们的写作任务。Rudolph 等人(2023)还指出,AI 干预在提高英语作为外语(EFL)学生的自我效能感和学术情绪方面是有效的。他们说这是因为智能反馈,在没有人类帮助的情况下,可以通过帮助他们识别写作错误、识别错误模式并相应地重新构建写作来加强学生的写作自主性。
通过克里斯滕森的视角,我们可以说,ChatGPT 分析并提供针对学生作业的个性化反馈和指导,这解决了增强他们的学习体验和提升学术表现的任务。学生们重视 ChatGPT 提供的详细和有序的解释,因为它帮助他们理解概念、遵循步骤并改进他们的作业。从布迪厄的视角来看,学生对 ChatGPT 反馈有用性的认可表明,它拥有一种形式的文化资本——一种受尊敬的知识和资源,可以提高他们的学术表现。通过利用 ChatGPT,学生能够获得有价值的反馈,这加强了他们的论点,增强了他们论文的结构和清晰度,并帮助他们创建评分标准。这种对文化资本的获取可能有助于社会区分和学术成功。从马克思主义的视角来看,ChatGPT 分析并为学生作业提供反馈的能力自动化了传统上需要人力劳动的任务,例如审阅和提供论文反馈。通过执行这些任务,ChatGPT 减轻了教师或同伴的工作负担,使得反馈过程更加高效和可扩展。ChatGPT 的能力与海德格尔对技术的看法相一致,即技术是一种使能者和工具,它改变了个人与世界互动的方式。通过在诸如改写、缩短文本、建议标题以及生成引言和结论等任务中提供帮助,ChatGPT 改变了用户对待写作和学习的方式。它扩展了他们与技术的可能性与互动,增强了他们的参与度,并可能影响他们的写作实践。
文本寄存器修改
ChatGPT 在调整文本语调方面的多功能性得到了揭示,正如指导教师评论中所言:“你可以要求它改变(大学课程信息表)的语调,使得最终文档对学生更友好”(TFD)。她还指出:“学生们认为他们可以用这个工具在课堂外帮助实现信件、电子邮件等的正确语调”(TFD)。一位学生表示:“ChatGPT 可以将我的非正式写作转变为正式写作”(SFD)。指导教师进一步补充说:“这是一个学生可以在课堂外使用的宝贵工具,例如当他们需要将信件转换为更正式的风格时”(TFD)。此外,ChatGPT 展示了其识别著名人物文本中语言习惯的能力,指导教师说:“ChatGPT 在给出可能说出这些话的人的描述性档案方面相当成功,这引导我们讨论了网络钓鱼”(TFD)。此外,指导教师还说:“ChatGPT 能够将英国英语转换为美式英语,反之亦然”(TFD)。研究人员将 ChatGPT 描述为“像一座镜子大厅。我可以发展我的思想,然后要求它通过结构主义、后结构主义、女权主义等视角重新撰写。我发现这种转变是变革性的。我认为这将把研究推进得更远,速度更快”(RFD)。
在 Rudolph 等人(2023)的论文中,虽然他们没有具体讨论 ChatGPT 改变文本语调的能力,但他们讨论了 ChatGPT 文本生成能力的潜在误用和挑战,提出了关于学生将写作作业外包给 ChatGPT 的担忧,因为它可以生成可接受的散文而不会触发抄袭检测器。他们表示,他们认为这会对评估方法造成诚信问题,这将促使教师做出调整。他们也指出,在使用 AI 驱动的反抄袭软件的同时,AI 如 ChatGPT 可以通过修改句子来降低原创性指数分数,从而绕过抄袭检测。Rudolph 等人建议采用以学生为中心的方法来解决教育中 AI 工具的挑战,其中教师应设计具有挑战性的作业,使用文本生成检测软件,并指导学生理解 AI 的限制,使用 AI 工具进行问题解决练习,并发展数字素养技能。他们还建议高等教育机构提供数字素养教育,培训教师,更新政策,并整合 AI 工具以应对不断变化的环境。同样,Tlili 等人(2023)确定了与 ChatGPT 相关的作弊和操纵问题,发现 ChatGPT 可以帮助学生撰写论文和回答考试问题,可能促进作弊,同时操纵系统以逃避输出检测模型的检测。
通过克里斯滕森的视角,ChatGPT 改变文本语调的能力使个人能够雇佣这个工具来帮助他们实现各种目的所需的语调,例如学术作业或专业沟通。从布尔迪厄的视角来看,ChatGPT 模仿包括著名人物在内的个人写作风格的能力,引发了关于语言复制和真实性的问题,其中语言可能被欺骗性地用来操纵他人。从马克思主义的角度来看,ChatGPT 的潜在负面用途,如用它来完成作业和规避剽窃检测,引发了关于技术对教育影响的重大问题。这些担忧与马克思主义对资本主义的批判和对劳动的剥削是一致的,因为它们突出了教育转变为商品以及面对 AI 生成的内容时人类劳动可能被贬值的可能性。从海德格尔的立场来看,ChatGPT 通过不同的视角(如结构主义或女权主义)重写思想的能力,反映了 AI 工具在研究和学术界中的变革潜力。然而,它也引发了关于作者身份、原创性和人类创造力的本质的问题,当这些任务可以委托给 AI 时。
向用户传授具体知识、技能和概念
数据揭示了 ChatGPT 如何通过其回应向用户提供具体信息、技能或概念,正如学生所表达的那样。一位学生评论说:“首先,我使用 ChatGPT 来研究和收集关于无政府炸弹客案件的信息,包括在法庭上呈现的法庭语言学证据。其次,我使用 ChatGPT 来生成和改进我为闭幕演讲准备的思路和论点。例如,我输入了我的演讲草稿,它建议了替代词汇选择、措辞,或提供了支持我论点的额外信息”(SFD)。另一位学生强调了通过 ChatGPT 获得的知识,表示:“我相信 ChatGPT 给了我额外的知识。例如,当我询问它关于用于识别无政府炸弹客的法庭语言学证据时,ChatGPT 清楚地解释了专业人士是如何研究无政府炸弹客的写作风格、拼写、句法和语言特性,以推断出他的年龄、起源和其他特征的。这真的帮助我理解了语言学证据的相关性和它在案件中的作用”(SFD)。关于写作过程,一位学生指出:“当我为控方撰写闭幕陈词时,我向 ChatGPT 提出了类似‘假设你是无政府炸弹客案件中的检察官,你会如何撰写闭幕陈词?’的问题。然后我粘贴了(指导老师提供的)评分标准,并要求它根据该评分标准重新组织写作。它给了我答案,最后我要求它通过建议图片来展示那种写作”(SFD)。另一位学生表示:“ChatGPT 帮助我在短时间内有效地学习。它使回答问题变得更容易。我能够更轻松地使用 ChatGPT 完成课堂练习”(SFD)。指导老师也对 ChatGPT 在帮助学生学习方面的有效性进行了评论,说:“ChatGPT 对于学生学习标点符号规则非常出色。当学生输入不同标点的相同句子时,它也很有用,并告诉他们意义的不同”(TFD)。指导老师还强调了 ChatGPT 在学生被问及如何快速提供定冠词和不定冠词的使用规则以及叙述辩护中使用“then”时的能力(TFD)。此外,指导老师提到:“学生们使用 ChatGPT 的 MadLib 功能为彼此创建词汇测验。这给了我们这样的想法,即学生们可以利用它来创建他们自己的复习材料,用于复习课程概念”(TFD)。这种积极的反馈得到了一位学生的肯定,他说:“我想让 ChatGPT 在我准备考试时为我准备练习。这些给了我准备考试和作业的优势”(SFD)。
这些发现得到了 Fauzi 等人(2023 年)的支持,他们发现 ChatGPT 对学生来说是一种宝贵的资源,提供了有用的信息和资源,从互联网上检索相关信息,推荐书籍和文章,并帮助改进语法、扩展词汇和提升写作风格,所有这些都导致了学术工作和语言技能的整体提升。Neumann 等人(2023 年)也观察到 ChatGPT 可以帮助学生通过生成特定的源代码和总结文献来准备评估,他们可以利用它为他们的作业或项目生成相关的代码片段,从而有助于他们对软件工程概念的知识和理解。同样,Zhai(2022 年)发现 ChatGPT 在撰写需要做少量调整的学术论文时很有用。
通过克里斯滕森的视角,我们可以看到学生雇佣 ChatGPT 来收集信息、改进他们的想法和论点、提高他们的写作并更有效地学习。从布迪厄的视角来看,ChatGPT 增强了用户在获取资源和机会方面的社会和文化资本。从马克思主义的观点来看,学生可以使用 ChatGPT 来提高他们在写作、研究和考试准备等任务上的生产力和效率,从而作为一种技术资本,使学生能够更有效地完成学术工作,可能减少他们对传统劳动密集型方法的依赖。然而,需要注意的是,这种技术资本只有在工具的公平获取下才可用。通过海德格尔的视角,ChatGPT 通过扩展信息检索、语言精炼和知识生成的可能性,重新定义了教育环境中人与技术之间的关系。通过与 ChatGPT 的互动,学生可以参与一种由技术介导的新学习与沟通模式。这种互动将影响他们对特定知识、技能和概念的认识和理解。
ChatGPT 可能如何影响利益相关者的角色
ChatGPT 可以通过为学生提供有价值的资源和工具来赋予他们力量。它可以帮助完成诸如生成想法、提高写作、提供反馈和增强语言技能等任务。这可能会提高学生的学习体验和学术表现。然而,人们担心其潜在的滥用和对学术诚信的影响。学生可能会被诱惑将作业外包给 ChatGPT 或用它来绕过剽窃检测。这引发了关于他们工作真实性和批判性思维及写作技能发展的问题。
机构和教师需要应对这些挑战,并制定 AI 工具在教育中使用的负责任政策。ChatGPT 可以通过自动化某些任务,在审阅和提供学生作业反馈方面提供支持,从而提高教师的工作效率。它可以通过提供改进建议、检测错误和帮助解决语言相关问题来节省教师的时间。然而,教师需要适应这些变化,并找到新的方式与学生互动。教师的角色可能转向促进讨论,指导学生有效地使用 AI 工具,并设计不易外包或自动化的作业。教师还应了解 AI 工具的限制,并帮助学生在使用 ChatGPT 的同时发展批判性思维技能。
机构需要认识到像 ChatGPT 这样的 AI 工具的潜力及其对教学和学习的影响。它们应该为教师和学生提供数字素养教育和培训,更新学术诚信政策,并支持研究 AI 工具对学习和教学的影响。此外,机构还应考虑教育资源共享公平性的影响。虽然 ChatGPT 可以提供有价值的支持,但它也引发了关于数字鸿沟和技术获取差异的担忧。机构应确保所有学生都有平等的机会从 AI 工具中受益,并采取措施弥合任何现有的差距。
总结来说,ChatGPT 在教育中的多功能性和实用性增强了学习体验,为学生提供个性化的反馈和指导。然而,它对劳动力动态、学术诚信和社会伦理的影响也引发了担忧。为了解决这些问题,负责任的政策和数字素养培训是必不可少的。
ChatGPT 对用户学习的影响
在这个主题下,我们探讨 ChatGPT 对用户学习的影响,特别是检查其在完成分配的学生任务中的有效性以及它对整个学习过程产生的总体影响。
ChatGPT 在完成分配的学生任务中的能力/阻碍用户学习过程
从我们的研究结果来看,我们发现 ChatGPT 在完成分配的任务方面表现出色。然而,正因为如此,它可能会对学习过程产生负面影响,阻碍积极参与和独立知识获取。学生的观点为此事提供了启示。在课程的初期阶段,讲师要求学生评估 ChatGPT 在他们其他课程中完成课堂活动的能力。57.1%的学生肯定了 ChatGPT 在此任务中的全面能力,而 28.6%的学生承认其部分能力。学生提到的 ChatGPT 能够完成的任务包括撰写文章和回答问题。同样,学生还被问及 ChatGPT 在他们其他课程中完成作业或项目的能力。71.4%的学生回应说它可以完全完成,14.3%的学生说它可以部分完成。一位学生表示,“一般来说,ChatGPT 知道一切。这对学生来说非常危险,因为学生通常会选择容易的方式工作。如果 ChatGPT 自我提升,学生将会大量使用它,这就是为什么当讲师给出成绩时,你会使用 ChatGPT 来获得分数”(SFD)。另一位学生说,“学生让 ChatGPT 完成作业的可能性会引发教师的怀疑,这可能会有后果”(SFD)。学生们还认识到 ChatGPT 的影响取决于其使用方式。一位学生评论说,“实际上,这与你的使用类型有关。如果你用它来检查你的作业和帮助,它可以帮助你学习。但如果你把作业交给 ChatGPT,它就会跳过学习过程”(SFD)。他们进一步评论说,“这就像放松一下。它帮助我完成作业很多,但我感觉它减少了我的思考过程和形成自己的观点”(SFD)。另一位学生说,“当然,它帮助了我很多,但它也让我有点懒惰,我想。但仍然,我认为它应该留在我们的生活中”(SFD)。另一位学生说,“它当然跳过了学习过程的一部分。当我向它询问信息时,我这样做是为了缩短我花在研究上的时间。如果我自己花时间研究,我认为我会得到更详细的信息,并形成更复杂的思想”(SFD)。根据讲师的说法,ChatGPT 擅长为最终评估生成想法,但有几点需要注意:“ChatGPT 在根据 GRASPS 生成最终评估的想法方面表现出色,甚至比我的想法更好。然而,其中一些评估想法很容易由 ChatGPT 自己完成。因此,这些建议需要重写,以避免这种情况”(TFD)。讲师还就 ChatGPT 创建评分标准的能力进行了观察:“一旦评估已经编写,ChatGPT 可以轻松地提出一个用于评估的建议评分标准,但前提是评估任务必须写得准确。然而,评分标准中的权重应由讲师调整,以反映 ChatGPT 能做和不能做的部分”(TFD)。此外,讲师强调 ChatGPT 可以根据文本或视频输入提供课前测验的建议;然而,他们警告说,如果测验中使用的案例存在于 ChatGPT 的数据库中,学生可能会选择使用 AI 进行测验,而不是参与指定的文本或视频(TFD)。此外,关于 ChatGPT 能够完成学生活动的问题,在研讨会上也被提出,其中一位教师说,“我意识到 ChatGPT 可以为我的(教师候选人)学生完成课程计划作业,所以我改变了评分标准的权重以适应这种情况”(SYFD)。同样,另一位教师说,“ChatGPT 可以轻松地通过这项活动找到答案,学生就不需要阅读了”(SYFD)。另一位教师表示,“ChatGPT 不能让人从过程中学习。通过这种方式,ChatGPT 只提供结果;它不提供过程帮助。正如你所知,学习发生在过程中,而不仅仅是结果”(SYFD)。
那么,文献对此有何看法?在 Mhlanga(2023)的研究中,教师们表达了担忧,认为 ChatGPT 可能会扰乱传统的评估方法,如论文,并使剽窃检测变得更加困难。然而,Mhlanga 表示,他相信这为创新的教育实践打开了大门,并建议像 ChatGPT 这样的 AI 技术可以用来增强评估程序、教学方法、学生参与度、协作和动手学习体验,从而现代化教育体系。Neumann 等人(2023)也探讨了 ChatGPT 在完成学生任务方面的能力及其对学习过程的影响。他们强调了在软件工程中的各种应用,包括评估准备、翻译、源代码生成、文献总结和文本改写。然而,尽管他们指出 ChatGPT 可以为讲座准备和作业提供新思路,但他们强调了进行进一步研究和理解的需求,以强调透明度,确保学生了解 ChatGPT 的能力和局限性。他们提出了将 ChatGPT 整合到教学活动中,探索具体用例,调整指南,以及可能将其整合到现代教学方法如基于问题和翻转学习中的建议,强调课程调整和遵守规定。Rudolph 等人(2023)提出了关于 ChatGPT 对学生学习过程和评估真实性的多个担忧。他们强调了学生外包书面作业可能带来的潜在问题,他们认为这可能会挑战传统的评估方法。此外,他们表达了对 ChatGPT 阻碍学生积极参与和批判性思维技能的担忧,因为它在完成任务时不需要学生完全参与材料。Tlili 等人(2023)的研究专注于 ChatGPT 的潜在误用,例如在论文写作或考试答案等任务中促进作弊。有效检测和预防作弊被强调为重要考虑因素。同样,他们提出了关于 ChatGPT 对学生批判性思维技能影响的担忧,认为过度依赖 ChatGPT 可能会削弱学生创新和独立思考的能力,可能导致缺乏深入理解和解决问题的技能。由于这些问题,Zhai(2022)提出了对教育中读写能力要求的重新评估,建议重点应从生成准确句子的能力转移到有效利用 AI 语言工具,认为将 AI 工具融入基于学科的学习任务可能是提高学生创造力和批判性思维的一种方式。Zhai 还建议,这应该伴随着评估实践的转变,专注于批判性思维和创造力,因此建议探索能够有效衡量这些技能的创新评估格式(2022)。
通过克里斯滕森的视角,ChatGPT 可以被视为学生可以雇佣的工具,以完成他们在教育旅程中特定的工作或任务。然而,这引发了关于对积极参与、独立知识获取、批判性思维以及整体学习过程潜在负面影响的担忧。因此,需要采取平衡的方法来避免与其使用相关的缺点。通过布迪厄的社会再生产理论,我们可以深入了解 ChatGPT 的社会和教育影响。学生对依赖 ChatGPT 完成作业的便利性以及潜在后果(包括教师的怀疑和批判性思维的减少)的担忧,与布迪厄对社会结构再生产的强调产生共鸣。这突显了 ChatGPT 通过提供捷径来阻碍深入学习与批判性参与的潜在可能性,从而加剧教育不平等。学生对 ChatGPT 对学习过程影响的评论反映了马克思异化理论的一些要素。虽然 ChatGPT 在完成任务时提供了便利和帮助,但学生们表达了对他们主动参与、思维过程和个人观点发展的减少的担忧。这种与学习过程的脱离可以被视为一种异化形式,学生感到与教育体验脱节,并依赖外部工具来完成他们的任务。海德格尔关于技术作为揭示和塑造我们对世界理解手段的观点也可以应用于此处。ChatGPT 是一种技术工具,它通过生成想法、提供帮助和自动化某些任务来改变教育格局,揭示新的可能性。然而,学生和教师提出的问题指向了技术以绕过教育基本方面(如批判性思维、个人参与和深入理解)的方式塑造学习过程的潜在危险。再次强调,在教育中深思熟虑和有目的地整合技术,以确保其与教育目标相一致,是必要的。
ChatGPT 无法完成分配的学生任务
在探讨 ChatGPT 在完成任务或作业中的局限性时,讲师表示:“我向学生展示了如何从最终评估标准中提取信息并将其输入 ChatGPT,以查看它能完成多少项目。然后我让他们查看标准中的权重,并识别出 chatgpt 无法完成所要求的事情的区域,例如提供视觉内容,或者效率低下,例如只提供关于案件法医语言学的非常有限的信息,没有提供原始来源参考”(TFD)。在另一个例子中,讲师说:“学生们阅读了关于撰写闭幕演讲建议的文章,他们也让 chatgpt 提供建议,并将其交叉引用。他们列出了一份建议清单。然后他们观看了两个闭幕演讲的视频,一个是检方的,一个是辩护方的,并从这些演讲中写出了与他们的建议清单相匹配的例子。这项活动被证明是 ChatGPT 无法通过的,因为他们不得不写下他们从视频中听到的例子”(TFD)。此外,讲师回忆说:“学生们阅读了一篇关于如何通过声学-语音分析检测醉酒的论文,并列出了主要观点。然后他们观看了一段约翰尼·德普醉酒发表获奖感言的视频,并必须将他说的话的例子写在论文中声学-语音因素列表旁边。由于他们必须听视频来完成这项活动,所以这项活动是 ChatGPT 无法通过的”(TFD)。此外,讲师评论说:“学生们以他们希望的形式(海报、视频、访谈)创建他们的项目。他们使用 ChatGPT 来根据他们的标准审查他们的工作。这只能在他们的最终项目有可以输入的文本时才能完成。如果他们使用不同的媒介,这是不可能的”(TFD)。他们还观察到:“ChatGPT 无法分析与库尔特·柯本相关的两封自杀遗书的笔迹”(TFD)。
从克里斯滕森的角度来看,ChatGPT 的局限性可以看作是其无法完成用户雇佣它来做的特定工作或任务,例如提供视觉内容、案例的详细数据和原始资料引用。它们也无法被雇佣来协助涉及不同媒体的任务,如回答与视频或海报展示相关的问题。这些局限性阻碍了用户有效地使用该工具完成他们期望的目标和任务。从布尔迪厄的角度来看,ChatGPT 的局限性可能反映了用户之间文化资本的分布不均。有效导航和使用 ChatGPT 的能力,如交叉引用信息或批判性地评估其输出,受到文化资本的影响。那些接触过教育资源并发展了必要技能的学生可能从使用 ChatGPT 中受益更多,而缺乏文化资本的人可能难以充分利用其潜力。这突出了社会不平等和教育环境中优势再生产的作用。从马克思主义的角度来看,作为技术工具的 ChatGPT 可能被视为受到资本主义利润驱动逻辑的影响。其局限性可能源于成本考虑、效率要求或对某些任务优先于其他任务的考虑。这些局限性反映了更广泛的资本主义技术动态,其中对利润和市场需求的追求可能会损害输出的质量、准确性和全面性。至于海德格尔关于技术的理论,ChatGPT 的局限性揭示了技术作为具有自身局限性的工具的本质,它不能完全取代人类能力。ChatGPT 无法分析手写内容或处理需要人类感官和上下文的任务,这证明了在某些教育环境中人类存在、解释和理解的重要性。
ChatGPT 可能如何影响利益相关者的角色
学生们对 ChatGPT 的经验包括优点和缺点。一方面,它展示了完成任务的专业能力并提供了便利。然而,人们对其可能阻碍积极参与、批判性思维和独立知识获取的担忧也随之而来。一些学生表达了对过度依赖 ChatGPT 的担忧,这可能会使他们不愿意参与学习过程并发展自己的观点。此外,对潜在误用的担忧,例如外包作业或促进作弊,强调了保持评估真实性和培养批判性思维技能的重要性。
对于教师来说,整合 ChatGPT 带来了新的挑战和考虑。虽然它能够生成想法、建议评分标准和协助各种任务,但为了避免冗余并确保与 ChatGPT 的能力相一致,对评估的谨慎调整是必要的。ChatGPT 对课堂活动的影响也是一个担忧,因为它可能会绕过学习过程并阻碍有效的教学。为了解决这个问题,教师需要重新思考他们的课堂活动方法,并积极管理 ChatGPT 的使用,以确保学生能够积极参与学习,而不是仅仅依赖 AI 工具。
此外,高等教育机构必须仔细考虑 ChatGPT 整合的更广泛影响。这包括重新评估读写能力要求和评估实践,重点关注批判性思维和创造力。ChatGPT 的成功整合需要透明度、适应性和 AI 防护活动。机构还需要制定关于评估和抄袭检测的明确政策。平衡 AI 整合将至关重要,以便在不损害学生学习体验的情况下利用其优势。因此,机构需要为教师提供适当的培训,以鼓励并使他们能够在这个 AI 驱动的环境中采用新的教学方法。
通用机器人应用于教育场景的局限性
主题“通用机器人应用于教育场景的局限性”探讨了在教育中使用通用机器人的挑战和不足,包括知识空白、学科背景限制以及文化特定的数据库问题。
知识空白
ChatGPT 的一个显著缺点是它依赖于 2021 年 9 月之前的知识,因为它不像传统搜索引擎那样爬取网络。这在以下实例中得到了观察。教师说:“我让学生向 ChatGPT 询问 AI 和法庭案件的影响。之后,我给了他们一些关于 AI 对法庭案件影响的近期文章,并要求他们做笔记。然后他们比较了自己的笔记和 ChatGPT 的回答。学生们觉得他们关于影响的笔记比 ChatGPT 的回答更相关。这可能是因为我提供给他们阅读的文章是在 2022 年底或 2023 年初发表的,而 ChatGPT 的数据库只到 2021 年”(TFD)。类似地,研究人员说:“我对将我的部分发现与我所熟悉的 PICRAT 矩阵进行比较感兴趣,但 PICRAT 是最近才开发的。我向 ChatGPT 询问了这一点。三次它给了我错误的信息,直到我质疑它,然后它最终回答说它不知道 PICRAT”(RFD)。有趣的是,知识空白的概念在文献综述中并没有突出出现;因此,我们转向我们的理论家。
通过克里斯滕森的视角,ChatGPT 在知识方面的局限性可能会阻碍其充分提供准确和最新信息的职责。雇佣 ChatGPT 进行信息相关任务的用户可能会发现其过时的知识库无法满足他们的需求。因此,这是对 ChatGPT 有效执行其被雇佣职责的能力的一种限制。依赖过时信息可能反映了在 ChatGPT 开发过程中对成本效益和效率的优先考虑。通过海德格尔的视角分析 ChatGPT 的知识差距,突显了技术作为人类创造物的本质及其继承的局限性。作为一项技术工具,ChatGPT 受限于其编程和训练数据,这些数据定义了其知识库和能力。知识差距源于技术本身的固有局限性,无法超越其设计和训练的边界。这种观点促使人们对人机关系进行反思,并引发关于 AI 系统在多大程度上能够真正满足人类知识理解的复杂性的疑问。
学科背景局限性
数据的一个显著发现是 ChatGPT 在理解特定学科背景或拥有某些领域的专业知识方面的局限性。一位学生指出,鉴于证据的可用性,ChatGPT 的 AI 可能不会像人类法官那样做出判断,这可能导致有疑问的决定(SFD)。同样,另一位学生表示,如果没有获得适当的来源,法官(在这种情况下是 ChatGPT)可能难以做出准确的判断(SFD)。
Alshater(2022)也提出了担忧,认为 ChatGPT 和类似的聊天机器人可能缺乏广泛的领域知识,尤其是在经济学和金融学方面。他指出,由于用于开发 ChatGPT 的训练数据,它可能不具备特定领域(在他的案例中是经济学和金融学)的深入专业知识,这因此限制了其在这些领域准确分析和解释数据的能力。因此,他警告说,在 ChatGPT 缺乏的领域使用 ChatGPT 进行数据分析或研究解释等任务可能会导致错误和不完整分析。为了解决这一局限性,Alshater 建议用户应谨慎行事,利用额外资源或专业知识,并有人类监督以确保准确输出(2022)。然而,他对自然语言处理和机器学习的持续进步持乐观态度,他相信这将在未来增强像 ChatGPT 这样的 AI 系统的领域专业知识。
通过克里斯滕森的视角来看,ChatGPT 未能充分满足寻求在某些领域内准确判断和深入专业知识用户的需要。用户希望有一个能够有效分析和解释这些领域数据的工具,但 ChatGPT 在这方面未能满足这一特定任务。布迪厄的理论在学生表达对 ChatGPT 局限性的担忧中得到了体现。在特定领域的专业知识被视为一种文化资本。学生们认识到,仅依赖 ChatGPT 进行复杂的判断和分析可能不会导致理想的结果。从马克思主义的视角来看,ChatGPT 在特定领域的局限性可能会延续现有的社会结构,在这些领域中,专业知识和这些领域的价值得到认可和奖励。依赖像 ChatGPT 这样的 AI 系统进行复杂任务也可能导致这些领域中人类劳动和专业知识的价值下降。从海德格尔的视角来看,ChatGPT 在理解和领域知识方面的局限性根植于其编程和训练数据,定义了其能力。作为一个工具,ChatGPT 只能在设计和训练的边界内运行,导致在人类使用中存在不足。
文化特定数据库
ChatGPT 中文化特定数据库的概念指的是其在特定文化或文化背景的数据库上的访问或训练。这可能会限制其与用户个人需求的关联性。麻省理工学院在 2020 年的一项研究对此提出了警告,因为如果训练数据过于霸权(Grove,2023 年),则有可能将偏见编码到技术中。虽然难以确定 ChatGPT 数据库的确切组成,但值得注意的是,OpenAI 和谷歌(现在为 Alphabet Inc.)总部位于加利福尼亚,而微软的总部位于华盛顿。因此,这些公司在开发和利用 AI 方面的参与表明了与美国文化的紧密联系,以及可能存在的西方视角。因此,这些公司的文化背景和视角可能会影响 AI 模型的发展和训练。
这种对文化特定性的担忧也在学生提供的数据中有所体现。一位学生警告说,在法律教育中不应过度依赖 ChatGPT,指出各国法律不同,不应期望 ChatGPT 在这些问题上提供准确的帮助(SFD)。另一位学生对 ChatGPT 提供可靠判断的能力表示怀疑,举了一个例子,即将英国案例法应用于土耳其法律问题导致错误结论(SFD)。在之前描述的关于土耳其跨性别代词的例子中,ChatGPT 也表现出对土耳其语言的有限理解,并提供了错误信息。
令人惊讶的是,文献并没有明确地解决关于文化数据库的这些担忧。然而,Sullivan 等人(2023)的研究确实指出了他们研究的文化局限性,该研究主要关注来自澳大利亚、新西兰、美国和英国的新闻文章。他们指出,在学术研究中,主要分析西方新闻,尤其是来自美国的新闻存在不平衡。他们警告说,这种不平衡在讨论 ChatGPT 和类似技术时,仅依赖西方的声音和观点会引发警示。我们认为他们的担忧也可以推广到 ChatGPT 的数据库。
当从 Christensen 的角度来看待这个问题时,学生关于 ChatGPT 数据库文化特定性的担忧突显了他们所雇佣的 ChatGPT 的工作与 ChatGPT 自身能力之间的潜在不匹配。这种不匹配表明了改进以解决特定用户需求和文化遗产背景的必要性。从布迪厄的观点来看,像 OpenAI、微软和谷歌这样的 AI 公司,主要基于美国,暗示了与美国文化和西方视角的联系。这种文化资本和习惯性塑造了 AI 模型的培训和实施,可能将偏见和限制编码到技术中。关于 ChatGPT 在不同文化背景下回答的准确性和相关性的担忧反映了文化资本对 AI 系统性能的影响。从马克思的视角来看,这些公司权力的集中,以及它们的西方文化背景,可能导致知识和观点的偏见或有限的表现。此外,海德格尔对技术的观点促使我们质疑像 ChatGPT 这样的 AI 系统的本质和影响。关于文化特定性和由此产生的局限性的担忧,对 AI 在人类活动中的角色和责任提出了存在主义问题。此外,ChatGPT 的数据库限制和潜在的偏见要求对 AI 的本质、它对人类知识和决策的影响以及其开发和使用的伦理考量进行批判性反思。
ChatGPT 可能如何影响利益相关者的角色
对于学生来说,ChatGPT 在知识和学科背景方面的不足可能会影响他们对 AI 系统提供准确信息和分析的依赖。教师和研究人员的例子展示了学生发现他们自己的笔记或特定领域的知识比 ChatGPT 的回答更相关的情况。这表明学生可能需要批判性地评估并补充 ChatGPT 提供的信息,以他们自己的专业知识或额外资源为依据。这也突出了培养他们自己的知识和批判性思维技能的重要性,而不仅仅是依赖 AI 系统。
教师可能需要调整他们的教学方法,并指导学生在了解 ChatGPT 局限性的同时有效使用它。他们可以鼓励学生质疑并批判性地评估 AI 系统提供的信息,促进对学科内容的更深入理解。教师还可能需要提供最新的资源,并纳入关于 AI 技术局限性的讨论,以增强学生的意识和辨识能力。
此外,这也意味着高等教育机构在塑造 ChatGPT 等 AI 系统融入其教育环境方面发挥着重要作用,提供关于在教育中负责任使用 AI 的指南和伦理框架,以确保学生了解这些技术的局限性和偏见。机构还应促进跨学科合作与行业伙伴关系,以解决 ChatGPT 在学科背景方面的局限性,促进具有特定领域专业知识的 AI 系统的发展。此外,关于 ChatGPT 数据库中文化特异性和偏见的担忧,突显了机构在 AI 采购、开发和利用中推广文化多样性和包容性的必要性。通过纳入多样化的文化体系、观点和数据集,机构可以帮助减轻潜在的偏见和局限性,确保更好地满足来自不同文化背景学生的需求。
在本章中,我们深入探讨了 ChatGPT 对我们关键主题范围内对学生、教师和高等教育机构的影响。在讨论过程中,我们辨别出大学应采取的必要行动。这些行动包括道德方面的考虑,如评估 AI 检测工具、批判性地评估 AI 引用系统、在 AI 时代重新定义剽窃、培养 AI 伦理方面的专业知识以及加强大学伦理委员会的作用。它们还包括与产品相关的事项,包括确保所有学生都能公平地访问 AI 机器人、与行业合作、获取或开发专业机器人以及提供快速工程课程。此外,还有教育方面的后果,如应对 AI 对基础学习的影响、提出翻转学习作为应对这些挑战的策略、重新构想课程以适应 AI 驱动的未来、倡导 AI 弹性评估方法、调整教学方法、利用提示库的潜力以及促进 AI 素养。展望未来,在接下来的三章中,我们将讨论这些发现的实际影响,将它们分为道德、产品相关和教育影响。因此,虽然本章概述了必须采取的基本步骤,但接下来的三章将介绍将这些行动付诸实践的实际方法。
第七章
道德影响
评估人工智能(AI)检测工具
当前话语中的持续辩论,正如文献综述中所阐明的那样,围绕着大学采用 AI 检测工具来对抗剽窃。Sullivan 等人(2023)讨论了为这一目的提供的各种工具,包括 OpenAI 的 Open Text Classifier、Turnitin、GPTZero、Packback、HuggingFace.co 和 AICheatCheck。然而,对这些检测机制的精确性和复杂性提出了保留意见。Rudolph 等人(2023)揭示了在 AI 模型,如 Chat Generative Pre-trained Transformer(ChatGPT)可能通过降低原创性指数分数的句子修改来规避剽窃检测的同时,使用 AI 驱动的反剽窃软件的矛盾性质。同样,Tlili 等人(2023)承认了与 ChatGPT 相关的作弊和操纵问题,揭示了它在帮助学生撰写论文和考试回答中的作用,这可能促进作弊并规避检测。因此,可能出现一种情况,即学生可能会诱使将作业委托给 ChatGPT 或使用它来规避剽窃检查,从而引发对其工作真实性的质疑。在这种背景下,教育机构和教育工作者面临着解决这些挑战并制定规范 AI 工具在教育中使用的指南的紧迫责任。采取强有力的措施来对抗作弊并确保预防已成为一个核心关注点。然而,一个关键问题随之而来:能否通过现有的 AI 检测工具实现这一点?最近的研究似乎表明并非如此。6 月份由欧洲大学的研究人员发布的一项研究表明,现有的检测工具缺乏精确性和可靠性,显示出将内容分类为人类撰写的倾向,而不是检测 AI 生成的文本(Williams,2023)。在此之前,另一项研究强调了非母语英语使用者在面对不平等劣势时的处境,因为他们的词汇量较窄,与母语使用者相比,他们受到的惩罚更高(Williams,2023)。此外,马里兰大学的研究人员进行的另一项调查强调了不准确的问题,并表明学生可以通过使用改写工具来改写最初由大型语言模型创建的文本,从而轻易地规避检测器(Williams,2023)。那么,这又把大学置于何种境地?
为了进一步探讨这个问题,在我们机构,图书馆的主任向 AI 检测工具公司发出了邀请,使他们能够就他们的产品进行演示。这个平台允许他们展示他们升级的工具,随后进行互动问答环节,旨在获得更深入的见解。根据公司的声明,他们已经将 AI 写作检测功能整合到他们的工具中,旨在帮助教育者维护学生的学术诚信和公平性。这些功能包括一个集成在原创性报告中的 AI 写作指示器。该指示器提供了一个整体百分比,表示 AI 生成内容的可能性,例如 ChatGPT 产生的文本。此外,它还生成一份报告,突出预测为 AI 创作的特定段落。公司强调,AI 写作指示器的目的是为教育者提供基于学术和机构政策的数据,以便做出决策,而不是做出不端行为的最终判断,并警告不要仅凭指示器的百分比采取行动或作为最终评分标准。现在,问题仍然存在:这些 AI 检测器实际上是如何工作的?
AI 写作检测工具通过将提交的论文分割成文本段落,并评估每个句子是由人类撰写还是由 AI 生成,从而提供 AI 生成文本量的整体估计。然而,与使用文本匹配软件将论文与大量现有来源数据库进行比较并突出特定匹配的传统剽窃检测工具不同,AI 剽窃检测工具基于与 AI 生成文本相关的特性和模式,提供内容被 AI 生成的内容的概率或可能性。这些 AI 检测系统的专有性质往往限制了透明度,使得教师和机构难以验证所谓 AI 生成内容的准确性和可靠性。这种缺乏具体证据的情况具有重大影响,尤其是在学生面临剽窃指控和法律行动的情况下,因为没有明确证据来源,就变得更加难以证实指控和反驳指控。
加州大学戴维斯分校最近发生的两个案例揭示了大学在使用人工智能检测软件时遇到的挑战。一个案例涉及威廉·昆特曼,一位学生在教授使用人工智能工具 GPTZero 分析昆特曼的历史考试以检测剽窃后,被指控作弊(Jiminez,2023 年)。尽管昆特曼坚决否认,但软件支持了教授的指控,导致他成绩不及格并被指控学术不诚实。随后的荣誉法庭听证会给昆特曼带来了极大的痛苦,他最终证明了自己的清白并得到了赦免。在类似的事件中,即将毕业的大四学生路易丝·斯蒂弗斯被错误地指控剽窃(Klee,2023 年)。调查揭示了加州大学戴维斯分校使用的 AI 剽窃检测软件的一个重大局限性——该软件在训练时使用的数据集范围狭窄,未能考虑到学生群体的多样化写作风格和文化背景。这突显了 AI 算法中的文化偏见问题,并强调了需要更多包容性的 AI 开发。由于被错误指控,斯蒂弗斯积极与大学合作,提高软件的包容性和准确性。她的贡献旨在促进学术环境中对 AI 技术的公平方法,确保它更好地适应多样化的学生群体,并在检测剽窃时提供准确的结果(Klee,2023 年)。
因此,在大学中使用 AI 检测工具的决定是一个值得关注和讨论的话题。来自《今日美国》的凯拉·吉米内斯(2023 年)强调了教育技术专家的建议,警告教育工作者关于作弊检测软件快速发展的性质。专家们建议,在指控学生使用 AI 完成作业之前,先要求学生展示他们的工作。Neumann 等人(2023 年)支持这种方法,并建议结合使用剽窃检测器和 AI 检测工具,以人工检查作为后备。他们强调彻底的参考文献检查和识别 AI 生成内容特征的重要性。Rudolph 等人(2023 年)也承认了反剽窃软件在检测 ChatGPT 生成文本方面的局限性,并建议与学生建立信任关系,采用以学生为中心的教学法和评估方法。他们反对警察式的方法,强调评估作为学习的过程。在 MEF,我们同意这种观点。根据我们的调查,我们相信当前的 AI 检测工具不适合其预期目的。我们建议实施替代支持来评估学生的作业,例如一对一讨论或完全放弃书面评估。我们相信解决方案是禁止 AI 检测工具,而不是 AI 本身。
仔细审查人工智能引用系统
ChatGPT 缺乏标准的引用指南,这在学术环境中给用户带来了重大挑战,包括缺乏提供的引用和为引用 ChatGPT 生成信息而建立的指南。然而,我们可以将这些挑战分解为三个关键问题。首先,ChatGPT 本身并不引用它所使用的来源。其次,用户可能会将 ChatGPT 视为搜索引擎,需要他们进行引用,但目前尚无标准引用系统。第三,ChatGPT 可以用作开发思想和改进写作的工具,这引发了是否应该在此类情况下使用引用系统的问题。
针对第一个问题,研究人员一直在努力开发一个系统,以便 ChatGPT 能够识别其信息来源。Rudolph 等人(2023 年)强调了该领域的重要进展,例如创建了原型 WebGPT,提供了访问最新和验证过的来源。此外,像 Elicit 这样的 AI 研究助手有助于定位学术文章和从存储库中总结学术论文。在我们机构,我们还测试了 ChatGPT-4 的 beta 插件,名为 ScholarAI,取得了令人鼓舞的结果。ScholarAI 通过将 ChatGPT 背后的大型语言模型(LLMs)与开放获取的 Springer-Nature 文章链接起来,使用户能够访问同行评审文章和学术研究的数据库。这种集成允许直接查询相关的同行评审研究。这些进步旨在通过纳入最新信息和可靠来源来提高学术工作的质量和可信度。因此,我们认为实施来源识别系统的责任在于开发者,而高等学府的责任是保持对这些发展的更新。
关于第二个问题,即围绕将 ChatGPT 作为信息来源缺乏引用模型的问题,重要的是要注意,这个问题目前尚未解决。在撰写本文时,尚无专为 ChatGPT 或类似 AI 聊天机器人设计的标准引用系统。然而,像美国心理学会(APA)和现代语言协会(MLA)这样的团队正在积极制定针对生成式 AI 工具的引用和适当使用的指南。2023 年春季,他们提供了临时指导和示例,以提供初步的方向。但在深入探讨 APA 和 MLA 等团队的具体努力之前,我们首先了解在学术论文中引用来源的基本目的是非常重要的。在学术论文中引用来源有几个至关重要的目的。首先,它允许你向作品的原始作者或创作者致以敬意,承认他们的贡献和想法。通过这样做,你表明你已经参与了现有研究,并在自己的工作中在此基础上进行了构建。其次,引用通过提供来自可靠来源的证据来支持你的主张和论点。这增加了你论文的可信度,并表明你的想法是建立在现有文献基础之上的。此外,适当的引用使读者能够验证你信息的准确性和可靠性。通过追踪引用到原始来源,他们可以确保你工作的完整性,并对你发现建立信任。通过引用来源,你展示了你的研究技能和识别相关可靠信息的能力。它反映了你对该领域的理解以及你对更广泛学术对话的贡献。引用还在避免无意中抄袭方面发挥着至关重要的作用。通过正确归属你所使用的来源,你表明你是基于现有知识进行构建,而不是将其作为自己的作品呈现。此外,引用来源有助于建立学术社区,将你的工作与该领域其他人的工作联系起来。它促进了持续的学术讨论,并有助于塑造研究的未来。总的来说,引用是学术诚信的重要组成部分,确保论文是经过充分研究、可信的,并成为更大学术对话的一部分。
考虑到这一点,让我们看看领先的引用和参考文献机构之一提出了什么建议。APA 建议在研究论文中融入 ChatGPT 或其他 AI 工具生成的文本时,应遵循某些指南(McAdoo, 2023)。他们建议,如果你在研究中使用了 ChatGPT 或类似的 AI 工具,应在方法部分或论文的相关部分解释其使用情况。对于文献综述、论文、回应论文或反应论文,他们建议在引言中描述工具的使用,并在你的论文中提供你使用的提示词,以及 ChatGPT 生成的相关文本部分。然而,他们警告说,需要注意的是,ChatGPT ‘聊天’的结果无法被其他读者检索到,尽管在 APA 风格的论文中,不可检索的数据或引文通常被引用为个人交流,但 ChatGPT 生成的文本并不涉及与人的交流(McAdoo, 2023)。因此,当从聊天会话中引用 ChatGPT 的文本时,他们指出这更像是分享算法的输出。因此,他们建议在这种情况下,你应该在参考文献列表中为算法的作者提供条目,并在正文中进行相应的引用。他们给出了以下示例。
当被提示“左脑右脑的划分是真实的还是一种隐喻?”时,ChatGPT 生成的文本表明,尽管两个大脑半球在某种程度上是专业化的,“将人们描述为‘左脑’或‘右脑’的标记被认为是过度简化和一种流行神话”(OpenAI, 2023)。
参考文献
OpenAI. (2023). ChatGPT (Mar 14 version) [大型语言模型]. https://chat.openai.com/chat
他们还建议,在 APA 风格的论文中,你可以选择在附录或在线补充材料中包含 ChatGPT 的完整长篇回应。他们说,这确保了读者可以访问生成的确切文本,然而,他们指出,记录确切的文本至关重要,因为 ChatGPT 在不同的聊天会话中,即使使用相同的提示,也会产生独特的回应(McAdoo, 2023)。因此,他们建议,如果你选择创建附录或补充材料,你应该记得在论文的主体中至少引用它们一次。他们给出了以下示例:
当给出后续提示“更准确的表示是什么?”时,ChatGPT 生成的文本表明“不同的脑区协同工作以支持各种认知过程”,“不同区域的机能专化会随着经验和环境因素的变化而变化”(OpenAI, 2023;参见附录 A 的完整记录)。
参考文献
OpenAI. (2023). ChatGPT (Mar 14 version) [大型语言模型]. https://chat.openai.com/chat
APA 还建议,在引用 ChatGPT 或其他 AI 模型和软件时,可以遵循《出版物手册》第 10.10 节中提供的指南(美国心理学会,2020 年,第十章)(McAdoo,2023)。他们指出,这些指南主要针对软件引用,并建议这些指南可以调整以承认其他大型语言模型、算法或类似软件的使用。他们建议 ChatGPT 的引用和文中引用应格式化为以下形式:
OpenAI. (2023). ChatGPT (Mar 14 version) [大型语言模型]. https://chat.openai.com/chat
括号引用:(OpenAI, 2023)
叙事引用:OpenAI (2023)
现在,让我们来审视 APA 的建议,并基于学术论文中引用来源的基本目的——给予认可、支持论点和主张、确保来源准确性的验证以及展示适当的研究技能——对其进行批判。我们可以通过提出问题来实现这一点。
-
在使用 ChatGPT 时,是否可以通过在学术论文中引用来源来给予原始作者或创作者认可?
-
不,ChatGPT 本身不能在学术论文中给予原始作者或创作者认可。作为一个语言模型,它缺乏识别或引用外部来源的能力。因此,确保在论文中使用的信息的原始作者或创作者得到适当认可的责任落在研究者身上。
-
使用 ChatGPT 通过引用可靠来源的证据来支持论点和主张是否可能?
-
不。ChatGPT 可以基于接收到的输入提供响应,这可能包括对信息或数据的引用。然而,ChatGPT 生成的文本是基于其从训练数据中学到的模式,并且没有能力验证其可能引用的来源的信誉或可靠性。因此,研究者应独立验证并引用可靠的来源来支持他们的论点和主张。
-
是否可以使用 ChatGPT 通过提供原始来源的引用来验证信息的准确性和可靠性?
-
不,ChatGPT 没有提供原始来源引用的能力。如果使用 ChatGPT 生成的研究中包含信息,那么找到并引用这些信息的原始来源是研究者的责任。
-
ChatGPT 能否通过正确引用相关和可靠的来源来展示研究技能?
-
不。作为一个语言模型,ChatGPT 没有能力展示研究技能或正确引用来源。因此,进行彻底研究和引用相关可靠来源的责任在于研究者。
-
ChatGPT 能否通过引用来源和给予适当认可来避免无意中的剽窃?
-
不,尽管 ChatGPT 可能基于接收到的输入提供响应,但它没有能力识别或预防无意中的剽窃。因此,确保正确引用和给予信息原始来源应有的信用是研究者的责任,以避免剽窃。
-
ChatGPT 能否通过引用现有研究和在研究者的工作与该领域其他人的工作中建立联系来为学术社区做出贡献?
-
不,尽管 ChatGPT 可以基于接收到的输入提供信息,但它无法通过引用现有研究或建立作品之间的联系来为学术社区做出贡献。因此,研究者应独立进行文献综述并引用相关作品,以贡献于学术讨论。
对于我们上面提出的所有问题,响亮的回答是一个明确的“不”。虽然我们承认 APA 出于良好意愿,试图通过建议引用 ChatGPT 的方式来解决学术诚信问题,但我们发现他们的建议不适合这一目的。如果引用的目标是使读者能够访问和验证原始资料,那么 APA 的建议并不符合这一目标。它们仅仅表明使用了 ChatGPT,这证明了作者的学术诚信,但并没有为读者提供任何实际价值。事实上,基于这一点,我们认为,在目前的形态下,ChatGPT 应该被比作维基百科——作为一个研究起点的有用工具,但不应该作为研究的有效来源。因此,我们认为,为了确保研究的有效性,ChatGPT 应被视为一个激发想法的跳板,研究者可以从这个跳板出发,寻找支持他们想法和写作的原始资料。因此,对研究者来说,简单地引用他们已经核实过的来源会更有益,因为这种方法为读者提供了有价值的信息。
现在,让我们解决我们的第三个关注点,这个关注点围绕着将 ChatGPT 用作思想发展和写作增强的工具。这引发了关于在这种情况下是否适用引用系统的问题。为了阐明这个问题,我们探讨了 MLA 关于如何引用作为写作工具的 ChatGPT 的建议。MLA 建议您:“每当您引用、引用或将其内容(无论是文本、图像、数据或其他)纳入您自己的工作时,都应该引用生成式 AI 工具;在注释、您的文本或另一个合适的位置中承认该工具的所有功能用途(如编辑您的散文或翻译单词);仔细审查它引用的二手资料”(如何以 MLA 风格引用生成式 AI?, n.d.)。在我们之前的讨论中,我们已经解决了第三个问题。如果您需要验证 ChatGPT 引用的二手资料,为什么不直接使用这些经过审查的资料进行引用和参考文献,这对读者更有帮助。然而,我们仍然需要探讨关于建议引用 AI 生成工具的其他方面。例如,在改写或使用该工具进行功能用途(如编辑散文或翻译单词)时,如何在实践中实施?为了做到这一点,让我们探讨 ChatGPT 是如何被用于这本书的写作中的。值得注意的是,ChatGPT 并没有被用作搜索引擎,这从我们引用的大部分文章和论文都是在 2021 年 9 月之后发表的可以看出,这是 ChatGPT 对新信息截止的时间点。然而,它在研究过程中发挥了重要作用,正如研究人员日记中所记录的,并整合到这本书的撰写中。虽然我们已经讨论了它在研究方法和通过发现和解释章节中的例子中的作用,但我们现在专注于 ChatGPT 如何具体地促进了这本书的写作过程。为了说明其全部帮助范围,我们回顾了布鲁姆的分类法,它为我们提供了一个有用的框架,用于映射我们在写作阶段与 ChatGPT 一起使用的最常用短语。
-
记忆
-
–重写这个段落以提高其连贯性。
-
–略微缩短这一部分以提高可读性。
-
–总结这篇文章中提出的核心论点。
-
理解
-
–使用更简单的语言解释这篇文本中的主要观点。
-
–改写这篇文章的内容。
-
–缩短这段文本,但保留其核心概念。
-
分析
-
–评估这个理论的优缺点,并提出加强其主要观点的方法。
-
–从(这位理论家)的角度分析这篇文章。
-
–评估这个论点的有效性,并提出改进建议以增强其影响力。
-
评估
-
–批判性地评估这篇文本的清晰度,并重新措辞以改善理解。
-
–评估这一部分的影响,并提出一个更简短的版本,同时保留其说服力。
-
创建
-
–提供这个文本的一个更简洁的版本,同时保留其核心意义。
-
–以简洁的方式总结本章,同时保留其关键发现。
我们是否已经引用了上述所有示例?不,这是有原因的。正如在研究结果中讨论的那样,在使用 ChatGPT 时进行多次迭代至关重要。这引发了一个问题:我们应该引用所有迭代还是只引用最终版本。此外,ChatGPT 是这本书写作过程中的一个持续使用的工具。如果我们按照 MLA 的建议,引用每一个实例,这本书可能会变得五倍之长,大部分内容将是参考文献,这对读者来说并不利。考虑到引用的一个目的是帮助读者,MLA 的建议似乎不适合这个目的。确实,引用 ChatGPT 的每一个使用实例,就像数学家每次使用计算器时都要引用一样,使得引用变得不切实际。同样,其他写作工具如 Grammarly 也没有受到如此详尽的引用期望。继续我们的数学例子,应该注意的是,包括 ChatGPT 在内的 AI 聊天机器人被比作文字计算器。然而,我们发现这种观点有些简单化。与计算器不同,AI 聊天机器人具有超越基本任务的高级功能,达到布卢姆分类法的高层次,如应用、分析、评估和创造,从而完成通常被认为是作家身份一部分的任务。这让我们思考,在 AI 时代,成为一名作家意味着什么?
在人工智能时代,作家的角色获得了全新的维度,因为现在的 AI 模型能够执行传统上被认为是人类作家专属的任务。这模糊了人类创造力和 AI 辅助之间的界限,引发了关于写作过程中人类能动性可能丧失的担忧,正如好莱坞剧本作家罢工所体现的,这也突显了重大失业风险。仅依赖 AI 进行写作的一个关键挑战是,它严重依赖于以往输入,可能会压制新思想、发展和创造力。为了避免这些问题,我们认为在人工智能时代成为一名作家需要拥抱人类智慧与 AI 技术之间的协作方法。AI 不应取代人类作家,而应作为一种辅助工具被利用。作家现在有机会利用 AI 工具来提升写作过程的各个方面,如创意生成、内容组织和语言润色。通过将重复和耗时的工作交给 AI,作家可以更多地关注构建引人入胜的叙事、进行深入分析和表达独特观点。他们还应该积极维护自己的批判性思维能力和原创性,确保 AI 辅助能够补充和增强他们的创造性表达,而不是取代它。我们相信,最终,在人工智能时代成为一名作家意味着在利用 AI 技术提供的机遇与保留写作过程中创造力和原创性的基本人类方面之间找到平衡。这正是我们在本书中所做的。然而,在人类作家和 AI 之间找到这种平衡仍然是一个重大挑战,并将以尚未完全实现的方式塑造写作的未来格局。
在人工智能时代重新思考剽窃问题
在本章的整个探讨过程中,我们的研究焦点集中在 AI 检测工具上,揭示了它们无法满足预期的能力。此外,我们还考察了针对 AI 聊天机器人(如 ChatGPT)的参考指南,并确定了其不足之处。因此,这引发了关于如何应对这些新挑战下的剽窃问题的疑问。然而,重要的是要认识到,在 AI 时代,剽窃带来的新挑战在学术界并不陌生。多年来,随着新技术的出现,类似的情况已经出现,最显著的是在 2001 年维基百科推出之后,随后是合同作弊网站的兴起。这些事件要求机构重新调整其对学术工作和研究范式的理解。如今,随着 AI 产生的作品成为生活的一部分,大学发现自己面临着调整其规定、期望和视角以适应这些技术突破的任务。但在我们进一步讨论之前,理解剽窃的核心概念至关重要。
抄袭是指未经适当认可而使用他人的作品或思想的行为,通常目的是将其呈现为自己的创作。这可能包括直接从来源复制粘贴文本而不注明出处,紧密地改写他人的作品,甚至提交他人的全部作品作为自己的作品。许多领域,包括学术界和新闻界,都将抄袭视为严重的道德违规行为。然而,抄袭并不总是故意的。它可能意外发生,尤其是如果缺乏适当的尽职调查或对构成抄袭、正确引用或正确改写和引用的方式缺乏理解。到目前为止,学生有明确的指南来了解如何引用和参考来源。他们也有利用抄袭检测器来审查自己的作品并进行必要修改的选择。然而,AI 聊天机器人的出现使得情况变得复杂。目前还没有普遍接受的引用 AI 的参考指南,基于 AI 的检测工具的可靠性也值得怀疑。如果抄袭被定义为未经适当认可而利用他人的作品或思想的行为,那么当涉及的作品是由 AI 而非人类创作时,这种定义如何演变?这种范式转变模糊了传统对抄袭的理解,并引入了从 AI“剽窃”作品的概念,而 AI 与人类不同,不具有可识别的作者身份或个人身份。有趣的是,可以提出 AI 聊天机器人本身可以被视为“剽窃”它们生成的一切信息,而不给原始作者以信用。因此,出现了一个困境,即学生可能在不引用的情况下以不道德的方式使用 AI,而 AI 本身在使用信息时却没有适当的引用。正是这个困境导致了我们目前面临的众多挑战,关于我们如何甚至引用和参考 AI。因此,问题出现了,这种新的现实将学生和学者置于何地?
Neumann 等人在其 2023 年的研究中,承认存在一些需要进一步探索的悬而未决的问题,例如,“由 ChatGPT 生成的文本是否应被视为潜在的剽窃案例?”、“应该如何引用 ChatGPT 生成的文本?”以及“ChatGPT 生成的文本与整体内容的可接受比例是多少?”然而,他们也认识到,不可避免地会涌现出许多其他问题。尽管有这些考虑,鉴于当前情况,尤其是人工智能固有的问题,即它们对自己的来源缺乏引用,这些问题似乎有些天真。也许探索替代策略会更有益。这可能涉及以规避剽窃问题的方式设计作业,这是我们将在第九章中讨论的主题。或者,我们可能需要集中精力培养人工智能伦理素养,这是一个有希望的新兴领域。
培养人工智能伦理的熟练度
学术诚信是道德学术实践的核心。它由一系列指导原则和行为组成,这些原则和行为在学术社区中培养诚实和道德行为。这个道德指南或学术伦理规范体现了诸如诚实、信任、公平、尊重和责任等价值观。从实际角度来看,学术诚信体现在学生和教师都避免不诚实的行为,如剽窃、作弊和伪造或篡改数据。他们应拥有自己的作品,承认他人的贡献,并以尊重的态度对待所有学术社区成员。维护学术诚信的目标是培养一个既能激发知识好奇心和成长,又能确保每个人的作品得到认可和重视的环境。它在确认教育系统及其产生的科研质量与可靠性方面发挥着至关重要的作用。然而,正如上文所述,将人工智能的新进展融入这一环境带来了复杂的挑战。因此,似乎有必要使学术诚信的理念与人工智能的突破同步发展,包括 Sullivan 等人(2023)在内的许多声音都主张加强对人工智能伦理素养的重视。这意味着重塑学术诚信的原则,以适应这一颠覆性技术带来的独特挑战和机遇。但究竟什么是人工智能伦理素养?
人工智能伦理素养涵盖了用户在利用人工智能技术时应用伦理考虑和原则的能力。这一概念强调了理解人工智能系统复杂性、其优势和局限性的重要性,以便做出明智的决定。同时,它还需要意识到可能源自人工智能使用的潜在伦理问题,例如偏见、透明度问题、隐私泄露和问责制。人工智能伦理素养的精髓嵌入在批判性思维过程中,这促使个人质疑人工智能的使用、益处、潜在危害以及可能由人工智能实施产生的不公平性。它强调了负责任地利用人工智能、尊重个人权利和隐私以及辨别人工智能应用可能有害或不道德的场景的必要性。此外,它还邀请了一种倡导和行动主义元素,支持符合伦理的人工智能实践和法规,同时积极反对有害的人工智能实施。随着人工智能技术持续发展和渗透到各个领域,培养人工智能伦理素养变得越来越重要。它作为确保人工智能技术以道德和负责任的方式被使用的渠道,维护人权的同时倡导公平和透明。我们将在第九章中更深入地探讨这个话题,其中我们讨论了为学生和教师提供人工智能素养培训的重要性。然而,解决这些问题的最合理起点可能是通过现有的大学伦理委员会。
加强大学伦理委员会的作用
第二章深入探讨了人工智能伦理的快速演变,突出了生成式人工智能系统的兴起如何促使我们迫切地解决公平性、偏见和伦理等问题。对歧视和偏见的担忧,尤其是在对话式人工智能和图像模型中,引发了伦理上的探讨。然而,正如我们所见,正在采取主动措施,包括增加研究、行业参与以及大量关注公平性和偏见的会议和研讨会,其中解释性和因果推理等概念在这些讨论中变得突出。同时,与人工智能相关的隐私问题也引发了关于隐私保护措施的讨论。此外,对生成式人工智能如何使用不透明的监控数据的担忧也出现了,引发了版权和创作者相关的问题。随着人工智能在社会中更加根深蒂固,这个复杂的伦理景观正在扩展,需要超越技术方面的仔细监管。鉴于这种复杂性,我们主张大学伦理委员会发挥更广泛的作用。传统上专注于人类研究和医学伦理,我们认为这些委员会应该扩大其职责范围,涵盖与教育中人工智能采用相关的各个方面。我们相信这应该包括评估学生数据隐私、算法偏见、透明度和人机交互等问题。我们相信伦理委员会还应致力于确保人工智能系统在教育环境中的透明度,评估人工智能生成内容的包容性,并促进学生数据使用的知情同意。他们还应领导研究人工智能在教育中的伦理影响,包括人工智能辅助学习、内容偏见和整体学生影响。在学术界之外,更广泛的伦理问题包括隐私、同意和知识产权。使用人工智能工具进行学生工作需要遵守规定,例如欧盟的通用数据保护条例(GDPR)。研究人员和学生使用人工智能也引发了道德困境,提出了关于学术诚信和人工智能生成成果所有权的疑问。关于人工智能系统中信息的所有权权利,特别是在产品开发或专利创造等创新领域,提出了复杂挑战。这些复杂的伦理考量凸显了大学伦理委员会在引导人工智能在教育和研究中的整合中的基本作用。他们扩大的责任将需要警觉性、适应性和稳健的伦理准则,以确保人工智能的道德进步,同时维护隐私、公平和知识产权的价值。
在本章中,我们探讨了与 AI 聊天机器人相关的几个伦理影响。这包括对 AI 检测工具的担忧、关于 AI ChatGPT 引用的复杂性、在 AI 时代重新定义剽窃、培养 AI 伦理素养以及大学伦理委员会的扩展。展望未来,下一章将深入探讨产品的影响。
第八章
产品影响
确保对机器人的公平访问
在大学内确保对人工智能(AI)机器人的公平访问是一个重要的考虑因素,以防止在学生之间产生数字鸿沟。在 MEF,我们已经有效地解决了与其他应用类似的问题,如数字平台和大规模开放在线课程(MOOCs)。我们的策略包括采购涵盖所有学生的机构许可证。这种方法已被证明在实现公平访问方面是成功的。目前,我们正致力于将这种方法扩展到 AI 聊天机器人。然而,值得注意的是,目前,针对聊天生成预训练转换器(ChatGPT)的特定机构协议尚不可用,这迫使我们探索其他途径。我们正在积极考虑的一个潜在解决方案是为每位教师获取 ChatGPT-4 许可证。这种策略将使教师能够分享工具中特定聊天交互的链接,从而增强课堂上的互动。尽管如此,GPT-4 的一个现有限制是其每小时完成请求的能力,这可能会影响其在某些环境中的整体效用。虽然为教师获取特定 AI 聊天机器人的个人许可证可能不是理想的长期解决方案,但它作为一项临时措施,直到机构许可证可用或我们考虑为每个部门获取或开发专门的机器人。
我们也在探索微软必应(Microsoft Bing),它已经将人工智能集成到其 Edge 浏览器和 Bing 搜索引擎中。这项技术基于与 OpenAI 的 ChatGPT 相同的基石,通过移动应用程序和语音命令提供可访问的 AI 体验。与 ChatGPT 类似,Bing Chat 允许用户与庞大的语言模型进行自然互动,并接收类似人类的响应。尽管 Bing Chat 的功能已经逐步推出并且现在广泛可用,但我们的机构对谷歌服务的偏好使得基于谷歌的解决方案更为合适。谷歌提供了 Bard,这是一个类似于 ChatGPT 的实验性 AI 聊天机器人。然而,Bard 的独特之处在于它能从网络上收集信息。它可以处理编码、数学问题和写作辅助。Bard 于 2023 年 2 月推出,由谷歌的 PaLM 2 语言模型提供支持。虽然它最初使用的是谷歌的对话模型 LaMDA,但后来为了更好的性能切换到了 PaLM 2。Bard 支持多语言,并且能够在其响应中包含图片。尽管具有这些功能,Bard 发布后遭到了批评。用户发现它有时会提供错误信息,并且不如 ChatGPT 和 Bing Chat 等竞争对手。为了解决这些问题,谷歌从 LaMDA 转向了 PaLM 2。PaLM 2 是谷歌语言模型的一个改进版本,基于从 LaMDA 等早期模型中吸取的教训。它结合了训练技术和模型架构的进步,从而在理解和生成语言方面实现了更好的整体性能。我们现在已经在 MEF 激活了 Google Bard,因此它对所有学生和教师都是活跃的,并且在撰写本文时,我们正在评估它作为可能的解决方案。
在我们与主要大型语言模型公司签订机构协议的持续努力中,同时在我们测试 Bard 的有效性时,重要的是要承认,如果这项努力在即将到来的新学年开始之前没有取得成果,将激活应急计划。在这种情况下,教师可以在课程开始时发起一项调查,以确定已注册使用 AI 聊天机器人和工具并愿意与同伴分享的学生。通过将拥有工具访问权限的学生与没有的学生分组,可以维护公平的课堂使用原则。这种方法还有其他好处。如果我们教育的重点是培养以学生为中心的课程中的协作参与,鼓励学生分享工具将避免当每个学生单独与他们的机器人互动时产生的孤立感。相反,这种共享工具使用的做法将促进集体参与和合作学习。同时,也值得记住,始终会有开源的替代方案可用。这些目前包括 OpenAI 的 GPT-3、BERT、T5、XLNet 和 RoBERTa。
与行业促进合作
为了应对为 AI 主导的世界准备学生的重大挑战,我们认为大学应采取主动方法,通过行业合作逆向工程 ChatGPT 和 AI 聊天机器人的机会,因为这将使他们能够获得关于由 AI 进步驱动的技能需求和就业要求的宝贵见解。基于他们的发现,大学将能够重新评估现有的课程和课程设置,以适应不断变化的就业市场需求。这个过程应包括确定关键的 AI 相关技能,并考虑将它们整合到各个学科中。此外,大学可以开发针对 AI 技术创造的崭新机会的特定课程。理想情况下,这些课程应通过将现实世界行业问题作为核心来开发,使学生能够在课程结束时作为评估的一部分,通过寻找解决方案来工作。这一点在佛罗里达大学已经得到实践,他们与行业合作伙伴共同创建了一个项目,该项目的成功导致了高毕业生的就业率和薪酬(《有效高等教育》,2023 年)。这种合作方法也为更多学生提供了在这些公司实习的机会。此外,通过他们的研究,通过确定行业目前使用的 AI 机器人类型,大学可以就是否为他们的部门购买或开发特定学科的机器人做出明智的决定。这将确保毕业生具备与其所选领域相关的 AI 机器人的专业知识和技能,更好地为他们为 AI 驱动的就业市场做准备。然而,需要注意的是,采用这种逆向工程方法需要持续的努力。大学必须持续评估行业趋势,与行业合作伙伴紧密合作,并参与 AI 专家,以确保他们的课程和 AI 工具保持最新并能够响应技术进步。
获取或开发专门的 AI 机器人
虽然我们已经讨论了目前我们正在积极寻求解决方案以确保所有学生都能公平地访问通用的 AI 聊天机器人,但承认这一点是一个临时措施至关重要。我们的研究显示,通用的 AI 机器人可能并不完全符合我们的需求,主要是因为它们在学科知识和文化数据库方面的局限性。因此,大学面临两个可行的选择。它们可以投资于一个现成的、针对特定需求的学科专用机器人,也称为“封闭式花园”,或者选择一个可以定制相关内容的空机器人,这些内容是根据它们的系所和地区量身定制的。每种方法都提供了独特的优势,应根据大学和系所的独特需求和偏好仔细考虑。让我们先从封闭式花园开始探讨。
园墙式 AI 代表了一种独特的 AI 流派,其特点是在精心挑选的数据集上进行专注的训练。与从广泛的互联网数据中汲取信息的更广泛 AI 模型不同,园墙式 AI 在有限的、精心挑选的信息中蓬勃发展(Klein,2023)。这种专门的 AI 变体由于能够为教师和学生提供更可靠和可信赖的 AI 工具,因此在教育领域找到了其相关性(Klein,2023)。值得注意的是,园墙式 AI 为能够提供精确和最新教育见解的聊天机器人的创建提供了基础。园墙式 AI 在教育领域的优势是多方面的:其受限的数据集通过最小化生成错误或误导性响应的风险来培养可靠性;参与其开发的信誉良好的组织为教师和学生建立了一个信任的基础,确保准确性和可靠性;园墙式 AI 的灵活性允许进行个性化互动,满足独特的教育需求(Klein,2023)。然而,这种方法并非没有挑战:园墙式 AI 的专注开发可能比更通用的模型成本更高;其响应的准确性取决于其训练数据的质量;并且必须解决来自训练数据的潜在偏差,以确保公平的结果(Klein,2023)。因此,虽然园墙式 AI 作为教育工具具有巨大的潜力,但其发展和部署的细致理解至关重要,因为其优势必须与它所固有的挑战和考虑因素权衡(Klein,2023)。BioBERT、SciBERT、ClinicalBERT、FinanceBERT、MedBERT、PubChemAI、PatentBERT 和 LegalBERT 都是园墙式 AI 的例子,每个都是针对特定领域定制的。这些模型在与其各自领域紧密对齐的精心挑选的数据集上进行了细致的训练。因此,它们在理解和生成与其专业领域相关的特定内容方面表现出色。通过满足独特的领域,如生物医学、科学研究、临床文献、金融、医学、化学、药物发现、专利分析和法律事务,这些模型可以为专业人士和研究人员提供一项宝贵的工具,用于需要深入理解特定信息的工作。然而,值得注意的是,这种专业化既带来了优势也带来了局限性,因为这些模型在处理需要更广泛和多样化知识库的任务时可能表现不佳。
与购买专业机器人相比,一种替代方法是获取一个“空机器人”或预训练的语言模型,并进行针对您学科的具体微调。微调涉及在特定领域的数据集上训练一个预训练的语言模型,使其更好地理解您领域的需求。与从头开始训练语言模型相比,这个过程节省了时间和资源,因为预训练模型已经拥有坚实的语言理解基础。微调在此基础上建立,使模型更适合您领域内的特定任务。然而,成功的微调依赖于特定领域数据集的可用性和质量,需要机器学习和自然语言处理的专业知识才能获得最佳结果。几个开源预训练语言模型是微调学科特定机器人的起点。像 BERT、GPT、RoBERTa、XLNet、ALBERT 和 T5 这样的流行模型是由领先的组织开发的,可以针对各种自然语言处理任务进行微调。这些模型形成了稳健的基础,可以通过使用相关数据集进行微调来适应您的领域。尽管如此,考虑到该领域的快速发展,大学持续探索最新发展,以找到最适合其目的的最新开源语言模型是至关重要的。
当考虑在大学中采用 AI 机器人时,决策过程应包括与每个学院和系的讨论。无论是选择一个机构通用的机器人、购买一个预训练的学科特定机器人,还是获取一个用于微调的空机器人,涉及相关利益相关者在决策过程中至关重要。正如之前讨论的,系应积极探索行业格局,以确定各自领域使用的机器人,然后从这些洞察中逆向工程,以确定其部门最合适的机器人类型。然而,我们理解并非所有机构都有足够的财务资源来承担这样的努力。在这种情况下,作为一个可行的备份选项,我们建议大学探索免费和开源的工具,以确保所有学生都能平等地访问机器人。开源社区致力于促进访问平等,并确保工具对每个人都是可访问的。通过利用这些开源选项,大学仍然可以为学生提供平等的机会来参与 AI 机器人,即使存在预算限制。关键是培养一种与机构价值观和目标相一致的合作方法,最终提升所有学生的学习体验。
提供提示工程课程
针对提示工程(prompt engineering)岗位市场的显著增长,大学应积极为所有学生提供提示工程课程。提示工程是一个复杂的过程,它围绕创建有效的提示来从语言模型(如 ChatGPT)中引发期望的响应。这一实践需要全面理解模型的能力和局限性,以便创建针对特定应用(如内容生成和代码补全)的定制提示。进行提示工程需要牢固掌握人工智能语言模型的架构、深入理解其处理文本的机制以及了解其固有的限制。拥有这些基础知识,可以策略性地构建提示,以产生既准确又与上下文相关的输出。这一多方面的过程包括各种元素。一方面涉及熟练使用预训练模型生成文本并对其进行优化以适应特定任务。这种熟练度有助于选择能够有效产生期望内容的提示。此外,创建能够导致连贯且相关的响应的提示是一项微妙的工作。它需要考虑上下文细微差别、具体性、措辞复杂性和多轮对话的管理。此外,控制模型输出至关重要。这通过提供明确指令、使用系统消息和基于特定关键词的条件响应等技术来实现。这些技术作为导航工具,用于引导模型的输出朝向期望的方向。能够有效减少响应中的偏见或敏感性的提示对于负责任的 AI 交互至关重要。提示工程的这一伦理维度确保生成的内容与公平无偏见沟通相一致。提示工程的迭代性质涉及实验、结果评估和提示优化的过程。这一动态循环对于实现预期结果、优化提示以获得最佳性能至关重要。此外,将提示工程适应各种任务,如内容创作、代码生成、摘要和翻译,需要根据每个任务的独特上下文定制提示。这种适应性确保提示被精细调整,以产生上下文相关且准确的输出。本质上,提示工程是一种综合方法,它将技术专长与语言技巧相结合。它优化了与语言模型的交互,产生的响应不仅准确,而且与预期的上下文和目的无缝对齐。
理解为学生提供即时工程课程的重要性,MEF 大学将从 2023 年 9 月开始提供由范德堡大学(White,2023)提供的 Coursera 托管课程“ChatGPT 的即时工程”,通过我们的基于 MOOC 的项目提供,让所有学生都能获得这门课程。
在本章中,我们广泛探讨了在教育中整合人工智能聊天机器人的关键维度。这次探索包括确保这些机器人公平访问的必要性、大学应与产业界合作的努力以理解毕业生所需的技能和工具、关于获取或开发专业人工智能机器人的战略决策,以及为学生提供即时工程课程的重要性。展望未来,下一章将深入探讨人工智能聊天机器人整合的教育后果。
第九章
教育影响
人工智能对基础学习的影响
在本章中,我们深入探讨了适应人工智能(AI)时代课程、评估方法和教学策略的重要性。这里的一个主要关注点是潜在的基础学习影响,这在我们研究发现的以及 Sullivan 等人(2023)的文献中都有所强调。与任何技术一样,Chat Generative Pre-trained Transformer(ChatGPT)对学生学习的影响既有积极的一面,也有消极的一面。然而,我们的主要关注点是其对基础学习的显著影响。在此背景下,通过我们的研究观察,出现了几个值得注意的潜在负面影响。一个关键的关注点是过度依赖 ChatGPT 生成内容、答案和想法的可能性。这种依赖可能会阻碍批判性思维和解决问题的技能,可能导致学生作品中原创性的减少以及有效综合信息能力的下降。此外,如果学生经常求助于 ChatGPT 来完成作业,他们自主理解和研究主题的动机可能会减弱,可能导致表面化学习和对基本概念的理解有限。另一个关键方面是过度依赖 ChatGPT 的潜在负面影响,这可能会减少与同学和教师的真实互动。这种互动在培养深度学习和培养重要社交技能方面起着至关重要的作用。此外,持续依赖 AI 进行沟通可能会对语言和沟通能力产生负面影响。长期接触 AI 生成的内容可能会损害学生表达思想连贯性和参与有意义对话的能力。此外,未经适当归属使用 ChatGPT 进行内容创作可能会损害学生提出原创论点和想法的能力。过度依赖 AI 进行写作或解决问题的创造性任务可能会抑制学生的内在创造力,因为学生越来越习惯于 AI 生成的模式和概念。在此阶段,我们认为指出写作不仅对创作至关重要,也对学习至关重要——这种做法通常被称为“写作以学习”(Nelson,2001)。根植于建构主义理论,这一观念强调了人类知识和沟通的演变。无论从个体认知视角还是更广泛的社会视角来看,写作与学习之间的动态关系涉及选择、组织和联系(Nelson,2001)。Nelson 的著作《写作作为学习工具》(2001)考察了写作连接性的四个维度:连接思想、文本、作者和学科。她确定了写作以学习方法的两个主要理由:权威理由,侧重于通过写作掌握学科;真实性理由,断言在学术领域,学习内容和写作规范是相辅相成的。这加强了写作在学习中的基本作用。Sullivan 等人(2023)的研究同样强调了学习和写作之间的联系,强调了写作在阐明思想中的作用。因此,写作成为强化知识的强大工具。总结来说,用自己的话总结、改写或解释概念可以增强理解和记忆。写作培养批判性思维,因为学生在分析、评估和综合信息时,会完善他们构建连贯思想和用证据支持论点的能力。写作还鼓励自我反思和自我评估,使学生能够回顾学习经历,识别优势并设定改进目标。这种自我评估有助于确定差距和进一步探索的领域。此外,写作培养创造力和表达力,为学习者提供一个深入探讨思想和情感的平台,与主题建立深刻的联系。在各个学科中,写作推动问题解决、研究和分析,因为学生参与研究论文、案例研究和论文,完善他们构建解决方案和提出结构化论点的能力。写作还提高了沟通技巧,使学习者能够在不同领域熟练地表达思想。此外,写作加强长期信息保留。做笔记、创建学习指南和练习写作巩固记忆。将写作与其他学习方法(如图表和多媒体)相结合,通过多种途径促进多样化学习,增强理解。写作还培养元认知,使学生能够监控思维过程、评估决策和探索不同的观点。此外,它对语言能力的积极影响,通过定期写作练习提高语法、词汇和句子结构。考虑到写作在学习过程中的关键作用,人们对支持作者在这些方面的 AI 工具的潜在影响表示担忧。过度依赖 AI 生成的内容可能会削弱学生的批判性思维能力。仅依赖 AI 的建议和反馈可能会阻碍对材料的彻底参与和独立分析技能的发展。虽然 AI 工具在生成结构化内容方面表现出色,但它们可能会抑制创造力和原创性,导致标准化和重复的写作。过分强调语法准确性和遵守规则可能会阻碍实验和冒险,阻碍学生探索独特的写作风格。此外,过度依赖 AI 工具可能会培养技术依赖性,减少学生在解决问题和学习中的自力更生。最终,仅关注使用 AI 工具生产结构化的书面内容可能会掩盖学习过程本身。学习不仅包括最终结果,还包括在整个教育旅程中的认知参与、探索和成长。这促使我们思考:如果出现这种情况,会产生哪些影响?
失去基础学习的后果是重大且深远的。这个形成阶段构成了获取高级知识和技能的基石,其缺失可能会在学生学术旅程和未来前景的各个方面产生共鸣。例如,基础学习提供了理解复杂主题所需的基本原则。如果没有坚实的基础,学生可能难以理解高级概念,导致对学科的理解停留在表面。高级课程通常建立在基础知识之上;缺乏这种基础可能会阻碍高等教育中的成功,并使学生课程负担过重。此外,基础学习还培养批判性思维、分析技能和有效解决问题的能力。缺乏这一阶段的学习可能会阻碍学生分析信息、做出明智决策和有效处理复杂问题的能力。坚实的基础也有助于适应新信息和不断变化的环境,没有这种基础会变得具有挑战性。此外,大多数专业角色都需要对基础概念有牢固的掌握。如果没有这种理解,学生在面试、工作任务和职业发展过程中可能会遇到困难。此外,过度依赖像 ChatGPT 这样的 AI 工具可能会阻碍独立和批判性思维,最终抑制创造力、解决问题的能力和原创性。在基础学习过程中,语言发展、沟通技能和思想的连贯表达也得到了培养。这些技能对于书面和口头形式的有效沟通至关重要。缺乏基础学习可能会导致知识差距扩大,侵蚀学习的信心和动力。基础学习还培养了研究技能和收集可靠信息的能力。没有这些技能的学生可能难以独立找到和评估可靠的信息来源。在学术之外,教育有助于个人成长、智力好奇心和全面视角。缺乏基础学习可能会剥夺学生这些全面的经验。为了防止这些不良后果,优先考虑强大的基础学习至关重要。这强调了创建能够抵御 AI 影响的课程、评估和指导的重要性。但我们如何做到这一点呢?
通过翻转学习应对 AI 挑战
为了解决学生因 ChatGPT 而失去基础学习的问题,我们相信我们应该转向当代学习方法,例如翻转课堂。Neumann 等人(2023 年)和 Rudolph 等人(2023 年)建议,处理 AI 的有效方法是将它融入现代教学方法中,特别强调翻转课堂作为一种合适的方法。Rudolph 等人提出了使用翻转课堂的建议,因为基础课程作业(支持基础学习发展的部分)可以面对面进行,强调多媒体作业和口头报告,而不是传统的任务(2023 年)。他们认为采取这种方法将增强反馈和修订的机会,从而支持基础学习。Rudolph 等人还指出,ChatGPT 可以支持体验式学习,这是翻转课堂的关键方面。他们建议学生通过基于游戏的学习和以学生为中心的教学法使用 ChatGPT 来探索不同的解决问题的方法(2023 年)。此外,Rudolph 等人强调 ChatGPT 促进协作和团队合作的潜力,这是翻转课堂的另一个固有方面。他们建议在 ChatGPT 生成鼓励协作解决问题的场景的小组活动中融入,因为这种方法将培养学生在社区和相互支持中的感觉。因此,而不是将 ChatGPT 视为破坏性的,Rudolph 等人强调其改变教育的潜力,但认为这应该通过当代教学方法,如翻转课堂来实现(2023 年)。因此,基于我们的经验和文献支持,我们相信翻转课堂为创建能够抵御 AI 影响的课程、评估和教学提供了一个有用的起点。
在我们研究方法章节的研究背景部分,我们提出了 MEF 教师准备翻转课程的建议阶段。这包括从“通过设计”(UbD)和整合布鲁姆的分类法、评估学习、作为学习和关于学习的评估以及为翻转学习重新排序的加涅的九个教学事件开始。在那个部分,我们描述了如何通过结合这些框架,我们可以在课程、评估和教学之间建立一致性,从而实现有效的学习。但是,当涉及到 AI 时会发生什么呢?在 UbD 中,教师遵循三个阶段:阶段 1 - 确定期望的结果(课程);阶段 2 - 确定可接受的证据(评估)和阶段 3 - 创建学习计划(教学)。因此,在解决如何使教学和学习具有 AI 弹性时,我们通过每个阶段,提出在每个阶段可以提出的问题,以指导如何和何时整合 AI 的决策过程。
人工智能时代的未来课程
在我们推荐的翻转式学习规划方法中,我们首先从 UbD 框架的 Stage 1 开始——确定期望结果。尽管我们在研究方法章节中详细介绍了 Stage 1,但为了清晰起见,我们在此简要回顾。在 Stage 1 阶段,教师确立课程目标并制定能够捕捉基本、持久概念的持久理解。随后,创建关键问题以引导学生探索,培养批判性思维和解决问题的能力。这些问题可以是宏观的或具体的,与更广泛或更具体的主题相一致。一旦确定了课程目标、持久理解和关键问题,下一步就是设计学习成果。这是通过使用布卢姆的分类法作为指导来完成的,从较低到较高的认知水平,根据需要而定。这一结构化过程确保了有效学习成果的发展,这些成果深化了理解并指导了有意义的指导。然而,鉴于 AI 聊天机器人,如 ChatGPT 的出现,我们认为我们审视 Stage 1 的每个方面以评估它们是否可能受到任何影响是很重要的。
持久理解,代表着具有持久价值的核心知识,不太可能因 AI 的进步而改变。同样,旨在培养批判性思维的关键问题,尽管受到 AI 的影响,但可能保持一致。然而,不断发展的 AI 格局促使我们更仔细地审视学习成果,促使我们思考我们制定的学习成果在 AI 驱动的世界中是否仍然相关。为了进一步调查这个问题,让我们考虑学习成果“在真实案例的一个特定语言方面撰写模拟结辩并论证你的论点”,这是法语言学课程结束时的表现任务的核心。当评分标准输入到 ChatGPT 中时,ChatGPT 立即能够完成这项任务的大部分,并在完成这项任务的过程中,几乎没有从学生那里得到任何输入就实现了学习成果。因此,这个原本在现实世界中有价值的成果,可能因为 AI 的能力而失去了其重要性。毫无疑问,学生在未来的职业生涯中无疑会使用这样的工具来帮助他们撰写结辩,ChatGPT 将证明是这一目的的有用工具。尽管如此,在法律领域,口头陈述和论证结辩仍然至关重要。这强调了这样一个事实:我们可能应该更多地关注口头陈述作为学习成果,而不仅仅是书面展示,也许学习成果的措辞可以更好地表述为“在真实案例的一个特定语言方面撰写并陈述模拟结辩,并向现场观众论证你的论点”。
基于这个例子,我们提出,在现有课程中,许多学习成果可能需要根据人工智能的能力进行重新评估。因此,为了评估学习成果的持续相关性,我们建议提出一个关键问题:“在人工智能驱动的现实世界中,学习成果是否仍然相关?”如果答案是“是”,我们相信学习成果应该保持不变。如果答案是“否”,我们建议教师重新评估包含该学习成果的合理性。在这种情况下,我们建议教师应与行业合作进行工作分析,以评估现实世界受到人工智能的影响,正如前一章所讨论的,然后相应地调整学习成果。
为了进一步理解与第一阶段相关的联系和影响,我们展示了以下流程图(图 2)。该图展示了持久理解、核心问题、学习成果与人工智能出现之间的相互作用。其目的是指导我们在考虑人工智能的影响时做出明智的决策。

图 2.人工智能环境中的学习成果重新评估决策过程。
AI-Resilient Assessment Strategies
如文献综述中所述,在 ChatGPT 时代,某些大学正在选择传统的考试来规避与 ChatGPT 生成内容相关的问题。然而,Sullivan 等人(2023)反对过度依赖考试。他们提出将评估任务转向以降低对 AI 工具的依赖性,主张个性化的作业来评估批判性思维。鉴于我们对翻转课堂中固有的现代评估方法的支持,我们同意他们的观点。因此,这使我们进入了翻转学习设计的第二阶段。第二阶段涉及教师确定评估证据,以确定学生知道什么以及能做什么。这包括教师提出以下问题:我们如何知道学生是否达到了预期的结果?我们将接受哪些作为学生理解及其在新情境中应用(迁移)学习能力的证据?我们将如何以公平和一致的方式评估学生的表现?(Wiggins & McTighe, 1998)。在第二阶段,主要有两种类型的评估:表现任务和其他证据。表现任务要求学生将所学知识应用于新的和真实情境中,以检验他们是否真正理解和能够应用他们的学习。这些任务不是日常课程的一部分;它们类似于单元或课程的最终评估,应在整个学期内包括 AoL、AfL 和 AaL 的所有三个要素,同时遵循 GRASPS 助记符(目标、角色、受众、情境、产品-表现-目的、标准)。在表现任务之外,第二阶段还包括其他证据,如测验、测试、观察和作品样本(AfL)以及反思(AaL),以了解学生知道什么以及能做什么。虽然我们在第一阶段观察到与 AI 能力相关的学习成果可能存在一些问题,但在第二阶段,我们开始看到更多令人担忧的问题。让我们从考察课程结束时的表现任务开始。
课程结束时的表现任务
课程结束时的表现任务的主要目标是提供一个学生在特定时间点的整体表现快照。虽然这种评估可以在课程期间定期进行,但它通常发生在课程结束时。然而,人工智能(AI)的出现,尤其是 ChatGPT,引发了一个重要的考虑。在 AI 能够熟练完成这些评估的情况下——正如我们所观察到的,它通常可以轻松完成——教师可能会遇到准确衡量学生真实学习成果的挑战。这种潜在后果是无法确定学生是否达到了进入下一课程或学年的必要水平。这随后可能会产生连锁反应。如果学生的成绩作为潜在雇主和研究生院指标的可信度受损,它可能会侵蚀对大学体系的信任,并导致学位贬值,最终导致大学的衰落。那么我们该怎么办?我们是否应该阻止使用 ChatGPT?我们是否应该打击作弊?我们认为这两个问题的答案都是“不”。那么,我们该如何应对这种情况?为了回答这个问题,让我们回到我们案例研究课程中的例子。
在 ChatGPT 推出之前,在之前的课程中,根据翻转式学习的推荐 MEF 课程规划方法,教师应用 GRASPs 助记法来创建课程结束时的表现任务,目的是评估学习成果“在现实生活中的案件特定语言方面撰写模拟总结陈词并证明你的论点”。基于此,她设定了以下任务:
对于这个任务,你将扮演辩护人或检方,目标是使被告在一项案件中获释或被判有罪。你的听众将是法官和陪审团。这种情况包括在审判结束时进行总结陈词。作为产品/表现,你需要创建一份书面和录音的总结陈词。评估标准包括:对案件进行回顾,对证据进行回顾,讲述故事和类比,提出论点以使陪审团站在你的客户一方,提出攻击对方立场的论点,总结你的论点的结论性评论,以及来自案件的可视证据。
在教师为这次评估创建的评分标准中,每个标准都被平均加权。为了了解原始评估的 ChatGPT 抗性,正如研究方法章节所述,教师将评分标准复制粘贴到 ChatGPT 中,针对特定案例,看看它能做什么。结果令人震惊。ChatGPT 迅速为每个案例生成了大部分演讲内容,包括评分标准中几乎所有的方面。然而,她观察到它的弱点在于提供与法语言学相关的详细证据,尽管它不能创建与案例相关的特定视觉元素,但它可以提出图像建议。虽然这最初似乎使大部分现有评估变得多余,但教师意识到 ChatGPT 作为学生未来职业的有用工具的激动潜力。因此,她决定保留 ChatGPT 作为评估的一个功能,但需要解决它能够处理大部分任务的事实。为此,教师通过调整权重来调整评分标准,给予 ChatGPT 无法处理的方面更多的重要性,并在它表现优异的领域减少其权重。这包括赋予证据审查更大的权重,强调引用原始资料的重要性,而不是仅仅依赖 ChatGPT,以及增加提供视觉证据的权重。她还意识到,在关于学习成果“针对现实生活中案例的一个特定语言方面撰写模拟结辩词并论证你的论点”的相关方面,她依赖于书面证据让学生论证他们的论点,而不是一个更贴近现实场景,他们需要在现场口头论证他们的论点。因此,她决定在视频展示后增加一个问答环节,学生将根据他们向其他学生提出的问题以及他们回答提出的问题的能力进行评估。这也比 ChatGPT 能够完成的方面给予了更高的权重。在反思春季 2022-2023 班重新设计的评估/评分标准的结果时,教师对学生们产生的评估感到满意。然而,一个反复出现的观察结果是,大多数学生在视频展示中直接从他们准备的脚本中阅读——这种策略在现实世界中不太适用。因此,教师计划在下一学期进行现场(同步,在线)展示,以增强学生的公共演讲技能,并消除对部分由 AI 生成的脚本的依赖。在此阶段,应该注意的是,如果,如上所述第一阶段建议的那样,教师通过在 AI 环境中的学习成果评估决策流程仔细分析了她的学习成果,这个问题就不会出现。
在设计课程结束绩效任务时需要考虑的另一个关键因素,在我们案例研究的例子中没有探讨,是 AI(如 ChatGPT)在执行任务某些可能对学生未来职业生涯有益但会损害学生基础学习的元素中的潜在参与。在这种情况下,教育者应该如何行动?在这种情况下,我们建议创建一个封闭的环境,在那里不允许也不可能出现 ChatGPT 或类似的 AI 聊天机器人。这可能涉及在严格控制的环境中进行评估或阻止互联网访问。如果评估以写作的形式进行,这一点尤为重要。更好的是,教师应选择强调动手技能、实践实验和触觉任务的评估——在这些领域,即使是像 ChatGPT 这样的先进系统也面临固有的局限性。这些评估需要物理存在和直接操作,使它们对 AI 干扰具有抵抗力。因此,这种评估方法成为 AI 弹性,促进对知识的真实理解和实际应用。
根据我们上面的讨论,我们提出以下流程图,以协助在人工智能环境中设计课程结束绩效任务的决定过程(图 3)。

图 3.在人工智能环境中设计课程结束绩效任务的决定过程。
在考虑创建课程结束绩效任务时,我们建议使用 UbD 中的 GRASPS 助记法。我们认为这种方法很有价值,因为它将现实世界的情境融入评估中,这对于为学生未来的职业生涯提供必要技能尤为重要。然而,一种更具优势的方法是将评估围绕一个真实的行业问题进行,这可以通过与行业合作来实现,如前一章所述。这种方法不仅将增强真实性,而且使学生能够应对各种行业中的现实世界挑战,从而提高他们的就业准备能力。我们作为教育者的主要目标是为学生提供应对生活中挑战所需的工具。通过解决未来问题,我们的学生将更好地为即将到来的就业机会做好准备。
课前测验
在上一节中,我们探讨了在人工智能背景下课程结束时的表现任务设计。然而,UbD 规划的第二个阶段还涉及到确定其他证据来评估学生的学习过程。在翻转学习的框架内,这一过程的一个重要方面包括课前测验(AfL)。因此,我们在此简要回顾实施这一过程的步骤。在课前或在线阶段,每个单元都以概述和关键术语的介绍开始。然后,学生通过一个先验知识活动来评估他们的理解。随后,通过视频或文章介绍概念,并通过 AfL 确保问责制,通常以简短测验的形式提供自动反馈。这种方法确保学生在上课前具备必要的知识。我们的经验表明,评分课前测验提高了学生对课前材料的参与度。然而,由于 ChatGPT 提供快速响应的能力,课前测验出现了一个挑战,即学生可能会完全依赖它,而不与课前资源互动。这导致了两个挑战。首先,如果学生采取这种捷径,他们就是在绕过学习过程。其次,课前测验的结果是教师评估学生在课前对概念掌握的重要工具。这一洞察揭示了学生理解了什么,识别了误解,并突出了困惑的领域。因此,它使教师能够使用“即时”教学来调整他们的教学方法,以解决这些差距。然而,如果学生没有自己完成课前测验,这种适应性教学策略就变得毫无意义。那么,我们应该如何处理这个问题呢?
为了解决这个问题,我们认为修改问题类型变得至关重要。与其使用封闭式答案问题,教师可以引导学生描述他们所学知识的现实生活应用。或者,在课前评估中整合在线互动元素,如小组讨论或辩论,可以促进协作和观点的分享,这是 ChatGPT 无法复制的。这种个性化培养高级思维,并阻止过度依赖 ChatGPT。然而,这种方法需要教师手动评分,因为自动化系统通常只能处理封闭式问题。因此,它增加了教师的工作量,对于学生人数较多的班级来说可能具有挑战性。在个性化评估和可行的评分策略之间取得平衡,对于在有效管理工作量同时保持积极参与的好处至关重要。另一种解决这个挑战的方法是将课前测验从在线环境转移到每节课开始时的课堂中。在这种方法中,学生需要在课前与课前材料互动并做笔记,然后他们将使用这些笔记在课堂上回答测验问题。为了确保 ChatGPT 无法轻易完成这些测验,教师可以通过实施 Kahoot 或 Mentimeter 等互动测验工具来引入时间限制。这些工具很有用,因为它们不仅鼓励快速信息处理,还为教师提供了根据每个学生的回答进行评分的宝贵数据。另一种有效的方法是让学生创建视觉图表来展示他们对课前内容的理解。例如,学生可以开发思维导图、流程图、概念图、时间线、维恩图、条形图、信息图表、故事板或标注图。这些活动很有用,因为它们促进了记忆和理解主题内容,同时促进了视觉表示,这增强了学生的整体理解。此外,参与这些活动给了学生在上课前与课前材料互动的强烈动力。将此类活动融入其中的优势在于学生与课前材料的实质性互动,因为他们积极利用视觉图表的创建来增强他们的理解。此外,教师可以在活动完成后、课程开始时收集学生的视觉图表,并据此评分。在在线环境中,学生可以拍摄他们手绘的视觉图表并将其提交给教师进行评估。这样,评估变得更加全面,既鼓励深度学习,又鼓励创造性表达。然而,如果在课堂期间进行课前测验,重要的是要认识到这种方法缩短了教师在课前识别学生理解差距的时间窗口,并限制了为“即时教学”做准备的时间。在这种情况下,适应需要在课堂上实时发生。为了展示教师应通过以下流程图来决定如何设置课前测验的决策过程,我们提出了以下流程图(图 4)。

图 4.在人工智能环境中设计课前测验的决策过程。
评估即学习
除了规划课程结束时的表现任务和课前测验外,UbD 的第二阶段还包括对评估即学习的规划。因此,让我们简要回顾一下这包括哪些内容。在教育中,评估即学习(AaL)侧重于通过评估来提升学习过程。与传统教学后的评估不同,AaL 将评估融入学习过程中,积极调动学生的参与。AaL 强调学生在学习中的积极参与。自我评估和反思有助于提高对自身优势和改进领域的认识。学生对自己的学习负责,根据自我评估设定目标并调整策略。AaL 采用目标设定或个人反思等工具。这些活动帮助学生衡量理解程度,识别困惑,并将新知识与已有理解联系起来。这一循环培养了元认知能力,这对于独立学习至关重要。AaL 带来了诸如积极参与、自我调节和动机等好处。它培养了积极主动的学习者,他们能够解决学习差距,并培养一种将挑战视为成长机会的成长心态。AaL 赋予学生力量,丰富了理解力,并培养了终身学习技能。但是,ChatGPT 的出现如何影响这一点呢?
ChatGPT 的实时反馈提供了潜在优势,能够迅速帮助学生识别自己的弱点。然而,仅仅依赖 AI 生成的反馈可能会导致表面化的自我评估,学生接受建议而不深入理解更深层次的细微差别。同样,在承担学习责任和设定目标方面,ChatGPT 的输入可能很有价值。它可以根据自我评估结果引导个性化的目标设定和策略。然而,过度依赖 ChatGPT 可能会忽视个人学习旅程,限制目标个性化。ChatGPT 的深思熟虑的问题可以激发深入的反思,但仅仅依赖 AI 生成的反思可能会阻碍真实的自我反思成长。解决这些担忧需要平衡的方法,充分利用 AI 的优势,同时培养必要技能。例如,ChatGPT 的实时反馈有助于及时自我评估,但学生应批判性地分析并补充 AI 生成的见解,以获得更深的自我意识。虽然 ChatGPT 支持目标设定,但保持学生在塑造目标方面的自主性至关重要。平衡 AI 生成的和个人反思是保持真实性的必要条件。总的来说,在导航 AaL 与 ChatGPT 新兴影响之间的相互作用时,很明显,平衡整合 AI 的优势与培养必要技能对于促进学生的全面发展至关重要。
随着我们对在 ChatGPT 时代建立 AI 抗性评估的考察告一段落,我们坚信我们提出的策略的有效性。然而,我们也相信这些策略提供了额外的益处。通过将评估分散在整个学期中,我们可以减少学期末的匆忙,抵制抄袭或剽窃等捷径,并激励学生创作原创且有意义的作品。这种较轻的评估负担可以增强学生的信心并鼓励有意义的学习。此外,将评估分散在整个学期中增强了反馈循环。来自教师的持续指导使学生能够跟踪进度,发现改进领域并与他们的目标保持一致——这在仅依赖期中和期末考试的情况下往往是缺失的。我们的方法将反馈顺利地融入学习,通过重复学习周期鼓励持续改进和深入理解,从而实现有效的学习。此外,我们相信采取这种做法将为我们的毕业生应对现代世界的挑战做好准备,而忽视适应可能导致他们无法为快速变化的世界做好准备。有趣的是,教育专家已经倡导了多年,我们相信 ChatGPT 可能正是推动这一变革所需的推动力。然而,如果我们没有承认这些变化的实施往往落后于大学入学考试、认证机构和高等教育部门,我们将犯下错误。因此,我们认为大学在承担领导角色以倡导这些改革方面发挥着至关重要的作用,确保我们共同赋予学生战胜由 AI 主导的世界的能力。
适应 AI 时代的教学
转入下一阶段,第三阶段——教学,让我们简要回顾一下背景,以帮助理解。在 UbD 中,这一阶段集中在设计与第一阶段设定的目标相一致的学习体验。以下关键问题指导这一阶段:我们将如何支持学习者理解重要思想和过程?我们将如何准备他们自主转移学习?学生需要哪些促进知识技能,以有效地执行并实现期望的结果?哪些活动、顺序和资源最适合实现我们的目标?(Wiggins & McTighe, 1998)。从课程结束时的表现任务开始,讲师确定关键概念和技能,然后将其分解成单元以指导学生。之后,在每个单元中设计周到的教学活动,利用 Gagne 的九个教学事件以实现有效的学习。因此,在这个阶段,我们重新审视 Gagne 的九个教学事件,我们已重新排序以适应翻转学习方法。我们的方法包括以下要素。在课前在线阶段,应有:单元概述;关键术语的介绍;先前知识活动;关键概念的介绍(通过视频、文章);以及课前测验以进行问责。在课堂阶段,应有:课堂开始/桥梁活动以复习课前概念;结构化的以学生为中心的练习;半结构化的以学生为中心的练习;更自由的以学生为中心的练习;以及课程/单元结束时的自我反思(AaL,课内/课外)。
在本节中,我们密切审视这些组件与 ChatGPT 潜在影响的关系,以及我们可以实施的预防措施,以避免对学习成果产生任何不利影响。然而,由于我们已经在上一节中讨论了 AfL 的课前元素,在 AI 防护评估的背景下,我们的重点现在转向探索课堂活动。在我们的翻转学习方法中,讲师通过让学生参与课堂开始的复习活动来复习课前概念,以此加强理解。之后,重点转向以学生为中心的活动,使学生能够积极实践和应用所学概念。因此,我们现在更详细地审视这些各个阶段。
课堂开始时的复习活动
课堂开始的复习活动,也称为桥梁活动,在翻转式学习的教学策略中扮演着至关重要的角色。这些活动在课堂开始时实施,作为课前内容和当前课程之间的无缝连接。它们的主要目标是激活学生的先验知识,刷新他们对课前活动中涵盖的必要概念的记忆,并为即将到来的课程做好准备。通过让学生对课前材料进行简短、互动的复习,教师可以增强记忆和理解,确保更顺畅、更有效的内容过渡。为了实现这一目标,教师有多种选择用于这些复习活动。例如,设置基于纸质的简短测验或与课前关键概念相关的问题,可以评估记忆。要求学生创建概念图或图表来可视化课前呈现的概念之间的联系,可以促进更深入的理解。教师可以利用一分钟的纸笔提示,让学生在一分钟内简要总结课前材料中的主要观点,鼓励快速回忆。此外,可以使用思考-配对-分享活动来提示学生以成对或小组的形式单独回忆和讨论关键点。其他选项包括互动记忆游戏或闪卡来复习重要术语或概念,小总结演示,其中学生总结课前材料的主要观点,或基于课前材料的问答比赛风格的活动。活动选择可以根据学科内容、班级规模和教学风格而变化,确保灵活性和参与度。我们这里提出的例子设计得确保学生无法有效地利用 ChatGPT 来完成它们,使得这些活动在当前形式下对 ChatGPT 具有抵抗力。然而,在随后的课堂活动中,某些挑战开始显现。
结构化/半结构化活动
在翻转式学习的背景下,课堂活动的首要目标是让学生应用课前材料中获得的知识。最大化这一过程的有效性需要精心实施有支架的课堂活动。在教育学中,支架涉及在学习任务或练习中为学习者提供临时的帮助、指导和支持。总体目标是促进学生技能和理解的逐步发展,使他们能够独立完成任务,同时随着他们的能力和信心增强,逐步减少帮助的水平。因此,组织课堂活动的最佳方法遵循一个顺序:从结构化活动开始,发展到半结构化任务,最终 culminating in freer activities。
基于我们从探索性案例研究中获得的见解,很明显,涉及结构化和半结构化活动的阶段是 ChatGPT 对有效学习造成最大阻碍的地方。因此,教师在 ChatGPT 中事先尝试他们的结构化活动具有重要意义。如果发现 ChatGPT 能够完全完成一项任务,教师应修改任务或设计一种需要学生参与而不依赖 ChatGPT 的方法。在 ChatGPT 能够执行任务某些部分的情况下,教师应寻求修改活动的途径,将更多注意力放在 ChatGPT 无法完成的部分。然而,我们知道这说起来容易做起来难。因此,我们回到法语言学课程中的实例,以检查出现的挑战以及教师如何有效地解决这些问题。
-
词汇分组活动
-
由于课程中的学生是非母语者,每次课的一部分时间都用于复习本周案例中的关键词汇。这种做法不仅帮助学生回顾案例,还确保他们熟悉了这些关键术语。通常,这包括向学生提供关键词汇,并要求他们将术语分类到预先指定的组别中。随后,他们需要用每个词写一个与案例相关的句子。然而,由于 ChatGPT 可以轻松完成这些任务,教师对活动进行了如下修改。学生以小组形式工作,他们得到了单词,但没有分类,他们的任务是将这些单词分类到合适的组别中。然后,他们比较自己的分类与 ChatGPT 建议的分类,并就哪些分组最能概括案例的核心词汇进行课堂讨论。教师没有让学生构造句子,而是口头描述了一些单词,学生必须推断出相应的单词。之后,个别学生向小组描述单词,让他们猜测。通过这种方法,ChatGPT 在词汇复习中扮演了工具的角色,而不是学习过程的直接替代品。
-
绘制时间线
-
为了回顾每个案例的重要方面,学生被要求使用 Padlet 的时间线功能创建时间线。虽然 ChatGPT 不能创建视觉内容,但它可以列出案例的主要观点。学生可以轻松地将这些内容复制到时间线中,而不需要深入思考,从而使这项活动变得毫无意义。为了解决这个问题,讲师采用了两步法。首先,学生根据记忆制作时间线。然后,他们要求 ChatGPT 做同样的事情。这有助于学生看到他们是否遗漏了什么,并做出更改,或者识别 ChatGPT 错误的地方。接下来,增加了一个口头讨论。学生讨论了时间线上的事件是如何相互关联的。他们被问及某些事件是如何导致其他事件的。通过这种方式,ChatGPT 被学生用来检查他们的工作,而不是完成它。口头任务促使学生更深入地思考事件的顺序及其相互关系,这是讲师之前没有采用的方法。另一个优点是,这最终丰富了学习过程,为活动增添了价值。
-
SWOT 分析
-
在一次课堂教学中,学生被分配了一个任务,即对 ChatGPT 对法律行业的影响进行 SWOT 分析。然而,ChatGPT 迅速生成 SWOT 分析图表的能力提出了挑战,因为学生不需要进行批判性思考就能得到结果。为了解决这个问题,讲师采用了以下方法。首先,学生在不依赖 ChatGPT 的情况下独立完成 SWOT 分析。然后,他们与同伴分享他们的发现,并将他们的见解整合到一个统一的图表中。其次,学生获得了最新的视频和阅读材料,讨论了 ChatGPT 对法律行业的影响,这些内容在 ChatGPT 的数据库中并不存在。利用这些新资源,学生完善了他们的图表。只有在这一阶段之后,他们才咨询 ChatGPT 来创建 SWOT 分析图表。比较他们自己的图表与 ChatGPT 的图表,他们寻求额外的想法,并将 ChatGPT 的图表与他们的当前阅读材料进行比较,指出任何过时的信息,从而对 ChatGPT 的局限性进行评论。这导致了对 ChatGPT 局限性的讨论。这种互动过程增强了学生的批判性思维,并扩展了他们的学习范围,超出了 ChatGPT 的能力。这通过角色扮演场景得到了进一步的加强,学生扮演了各种角色,如律师事务所合伙人,讨论 ChatGPT 对他们业务潜在的影响。这种角色扮演练习引入了复杂性和背景,将 SWOT 分析扩展到了 ChatGPT 范围之外的细微差别。通过以超越 ChatGPT 仅仅生成图表的方式结构化 SWOT 分析过程,讲师设法确保学生获得了 ChatGPT 难以轻易复制的有价值的见解和技能。
-
SPRE 报告
-
在原始课程中,学生被要求撰写一个情景、问题、回应、评估报告(SPRE),以总结每个案例。然而,如果案例在 ChatGPT 的数据库中,ChatGPT 可以立即完成这项工作,从而绕过学习过程。因此,教师采取了以下方法。首先,学生使用 ChatGPT 创建案例的 SPRE 报告。然后,教师为学生提供了一系列详细的问题,以指导学生通过 ChatGPT 产生的 SPRE 分析的每个组成部分。这鼓励学生对 ChatGPT 的输出进行批判性分析,并添加任何缺失的信息,从而促进更深入的分析和解释。在可能的情况下,教师为学生提供了一个基于相同法语言学点(例如,表情符号)的类似案例,该案例是最近的,因此不在 ChatGPT 的数据库中。然而,这涉及到在互联网上搜索相关的近期案例,并不总是可行的。然后,学生为新的案例创建了 SPRE 报告,并将两个案例进行比较,以查看在两个案例之间是否做出了任何关于决定或法律的改变。这要求他们识别涉及更高阶思维的规律、对比和趋势。然后,学生们分组工作,想象自己是原始案例的检方或辩方,并就案例中的法语言学点创建简短笔记。然后,他们被混合在一起,进行角色扮演,在角色扮演中,他们为或反对所讨论的语言学点进行辩论。这增加了原始 SPRE 分析的复杂性和深度,使其比 ChatGPT 单独生成的结果更稳健。
那么,基于这些例子,我们关于如何使课堂上的结构化或半结构化活动 ChatGPT 增强或 ChatGPT 弹性有什么收获呢?我们提出,教师应采取以下措施:
-
批判性地分析 ChatGPT 的输出
-
鼓励学生批判性地评估 ChatGPT 的建议,识别差距、局限性、错误和潜在改进。
-
整合外部资源
-
鼓励学生结合额外的材料,以扩展他们的学习,使其超越 ChatGPT 的数据库。
-
启动讨论和角色扮演
-
促进互动讨论,比较 ChatGPT 的见解与他们的见解,通过角色扮演场景进行多方面探索。
-
进行对比分析
-
引导学生将他们的工作与 ChatGPT 的输出进行比较,指出差异并评估准确性。
-
独立评估
-
鼓励学生将 ChatGPT 的建议与他们的理解进行比较,培养独立判断能力。
-
综合见解
-
将 ChatGPT 的见解与他们的发现相结合,以全面理解主题内容。
-
探索案例研究和整体学习
-
向学生提出 ChatGPT 数据库中不存在的最新案例研究,同时参与口头讨论、比较和互动,以获得全面的视角。
-
情境化与迭代
-
鼓励学生在通过整合 ChatGPT 的见解以及他们独立理解的反馈进行迭代反馈的过程中,考虑现实世界的情境、影响和行业变化,同时完善他们的工作。
总结来说,虽然 ChatGPT 在协助上述活动的一些特定方面发挥了宝贵的作用,但我们的改进和增强扩展了其范围,超出了 ChatGPT 的能力。这些活动旨在培养学生的能力,以在现实世界情境中综合、评估和应用知识。此外,它们还包括超越 ChatGPT 个体能力的讨论和场景。因此,这里概述的活动并非完全不受 ChatGPT 的影响,而是通过它得到了增强。本质上,我们的信念是,整合此类活动将激发主动学习、深刻理解和技能的发展,这些技能是像 ChatGPT 这样的 AI 文本生成器无法复制的。现在,让我们转向自由活动。这正是我们认为像 ChatGPT 这样的 AI 聊天机器人可以真正有效地用来增强学习的地方。
自由活动
首先,让我们理解自由活动及其重要性。这些活动鼓励学生创造性地独立应用他们的学习,培养高级思维和解决问题的技能。它们包括开放式提示、辩论、项目、角色扮演和现实世界场景等任务,赋予学生表达自我的真实性。目标包括实际知识应用、批判性思维、创造力、有效沟通、语言流利、自主性、现实世界适用性和提高参与度。最终,这些活动使学生能够成为自信、积极的学习者,熟练地应对各种挑战和情境。鉴于我们之前的讨论,值得注意的是,ChatGPT 可能能够执行这些活动中的许多部分。虽然,正如我们所见,它可以作为提高学习的工具,但我们相信,通过战略性的利用,它具有更大的潜力;即真正改变学习体验的潜力。考虑到这一点,让我们看看我们案例研究中的两个例子,以说明这一点。
在法医语言学课程中,有一位学生被一所波兰法学院录取,参加了即将到来的学期 Erasmus 项目。为了他的毕业设计,他决定使用 ChatGPT 来为旅行做准备,并在最后的展示中分享了他的见解。他的目标多种多样:了解大学、课程、城镇和当地文化,以便做好充分准备。ChatGPT 在协助这一过程中证明极其有用。然而,真正引人注目的是他对 ChatGPT 在语言学习上的创新使用。他想要学习基本的波兰语短语,于是向 ChatGPT 寻求建议并练习对话。这对他的学习非常有帮助,因为 ChatGPT 作为一个免费且易于获取的波兰语对话伙伴,具有显著优势——考虑到在伊斯坦布尔找到这样的练习伙伴的挑战。他描述这次经历为极大地提高了他在访问之前学习一些波兰语的能力。这是 ChatGPT 如何真正改变学习的例子之一。然而,主要研究员本人也在研究过程的分析部分发现了类似的使用。在这项调查中,研究人员参考了四位理论家的见解,为分析结果创建了一个理论框架。尽管研究人员对这些理论已经有了很好的基础,但她仍想提高分析阶段。为此,她使用 Forefront AI(Forefront AI,n.d.)为每位理论家创建了定制的角色。在开发出这些个性化的聊天机器人后,她使用它们来讨论她不断发展的分析,这在某种程度上类似于与实际理论家本人进行对话。这产生了变革性的影响,推动她的思考超越了独自所能达到的境界。虽然在没有 AI 聊天机器人的支持下可能做到这一点,但找到有时间和专业知识参与这些讨论的同伴将会困难且耗时。因此,在这两个实例中,ChatGPT 都成为了一种变革性的学习工具,展示了它独特的促进学习体验的能力,这些体验在没有 AI 帮助的情况下将难以实现。它超越了单纯的增强,真正地革新了学习过程。
那么,我们能从中得出什么结论呢?我们相信 ChatGPT 在教育工具方面展现出巨大的潜力。它可以使各种课堂教学方法得到改善,并提高学生的学习方式。然而,我们呼吁在使用时保持谨慎。这在涉及基础学习时尤为重要。因此,在这些活动中,我们建议不要使用 ChatGPT,而应使用无 AI 的方法。然而,当涉及到结构化和半结构化的课堂活动时,我们认为 ChatGPT 应承担关键角色。在这些类型的活动中,我们相信 ChatGPT 可以扮演指导伙伴的角色,丰富学生的参与度和理解力,而不取代主要的学习过程。此外,将 ChatGPT 整合到这些类型的活动中可以提高学生的兴趣和参与度,从而带来独特且互动的学习之旅。此外,它还极大地促进了批判性思维,促使学生仔细审查其响应,识别差距,并参与讨论,进一步增强他们的认知参与。然而,我们认为 ChatGPT 最大的潜力在于更自由的活动,在这些活动中,ChatGPT 可以作为变革力量,使学生能够接触到传统学习材料边界之外的见解、资源和观点。总之,在规划指导时,为了成功实现学习目标,我们认为教师应考虑以下因素。首先,避免在基础学习(如课堂开始时的复习)中整合 AI。然而,之后,转向使用 ChatGPT 的结构化活动,但需要仔细评估 ChatGPT 的输出。接下来,过渡到半结构化任务,鼓励学生与 AI 生成的想法互动并加以扩展。最后,以更自由的活动结束,在这些活动中,ChatGPT 成为深入探索和分析的变革性工具。为了帮助做出这些决定,我们建议以下图表(表 1)。
表 1. 在 AI 环境中设计教学活动的决策图表。
| 第三阶段:指导 - 规划学习体验和指导 |
|---|
| 基础学习活动 |
| 结构化活动 |
| 半结构化活动 |
| 更自由的活动 |
尽管我们对策略的有效性充满信心,但它们显然需要在即将到来的学年中进行测试。尽管我们有策略,但学生可能会在非 AI 区域等意想不到的方式使用 ChatGPT 的可能性仍然存在。为了解决这一担忧,通过展示 ChatGPT 可能如何破坏他们的学习之旅,从而可能导致他们在学术或职业生涯后期遇到困难,确保学生的支持至关重要。为了应对这一问题,我们建议教师投入时间强调基础学习的重要性,正如本章前面所强调的那样。随后,教师可以引导学生通过提供的流程图问题,说明何时以及如何使用 AI 来辅助他们的学习。然而,重要的是,课程中提供的评估和学习活动应与流程图中概述的建议相一致,这样才能使这种方法有效。这在在线课程中尤为重要,因为教师无法直接监督学生的 ChatGPT 使用情况。通过让学生理解仅依赖 AI 工具的潜在缺点,我们可以确保他们的合作并保护学习过程的完整性。因此,这些方面应纳入 AI 素养培训计划中,我们将在本章后面讨论。然而,在我们深入探讨 AI 素养培训的细节之前,我们认为检查提示库的重要性是至关重要的,因为这些将在培训计划中发挥关键作用。
利用 AI 提示库
根据我们的研究,您提供给 ChatGPT 的输入将直接影响您收到的输出。如果没有明确上下文,您可能不会得到期望的响应,而且如果您的请求缺乏质量,输出也可能不尽如人意。此外,为了获得最佳结果,通常需要进行多次迭代来完善您的查询。然而,用户往往过于频繁地求助于一次性请求。在 ChatGPT 中,一次性请求是一个没有后续交互的单个输入提示。这是一个独立的查询,模型仅根据那个初始提示生成响应,没有先前的上下文或对话。一次性请求适用于特定任务或快速信息检索,但在上下文和连续性方面存在局限性。对于更互动的对话,多轮交互更受欢迎,使模型能够维持上下文,并根据先前的交互提供准确和连贯的响应。然而,用户往往对此不太了解。那么我们如何纠正这一点呢?我们认为答案在于提供或开发用户提示库。
用户提示库是一个预先准备好的提示或示例查询的集合,用户在与 AI 语言模型交互时可以参考。提示库旨在指导用户以能够从 ChatGPT 获得更准确和相关的响应的方式制定他们的问题或输入。提示库的目的是为用户提供有用的示例和建议,以有效地构建他们的查询。它可以涵盖用户在使用 ChatGPT 时可能遇到的各种主题、场景或交互风格。通过访问提示库,用户可以了解哪种输入会产生更好的结果,并提高他们在 AI 模型整体体验中的质量。例如,ChatGPT 的提示库可能包括寻求信息、创意写作、问题解决、语言翻译等方面的示例提示。用户可以参考这些示例,并根据他们的具体需求进行调整,使他们能够更有效地从 ChatGPT 获得所需的响应。通过利用提示库,用户在与 ChatGPT 的交互中会更有信心,并通过提供清晰和上下文相关的输入来提高 AI 输出的质量。它为用户探索语言模型的能力和最大化 ChatGPT 在各种任务和应用中的好处提供了一个宝贵的资源。
虽然我们还在大学里开发用户提示库的过程中,下面我们提供一些例子。在制定这些提示时,我们再次借鉴了布鲁姆的分类法。这是因为通过布鲁姆的分类法,用户可以从较低层次的知识问题开始,逐渐过渡到更高层次的分析,因为这可以导致更有意义和洞察力的回答。我们的建议分为初始提示和修改提示。我们将提示分为两组:初始提示和修改提示。以下,我们提供了遵循布鲁姆分类法的初始提示示例。
知识:
-
定义术语 ______。
-
列出 ______ 的主要特征。
-
列出 ______ 的关键组成部分。
理解:
-
解释 ______ 是如何工作的。
-
总结 ______ 的主要思想。
-
描述 ______ 的过程。
应用:
-
使用 ______ 来解决这个问题。
-
将 ______ 的概念应用于现实生活中的场景。
-
在实际情况下展示如何使用 ______。
分析:
-
将 ______ 分解为其组成部分。
-
比较和对比 ______ 和 ______ 之间的差异。
-
识别 ______ 中的因果关系。
综合:
-
为 ______ 创建一个新的设计或解决方案。
-
撰写一篇将 ______ 和 ______ 中的想法整合在一起的写作。
-
根据提供的数据制定一个改进 ______ 的计划。
评估:
-
评估 ______ 在实现其目标方面的有效性。
-
判断 ______ 中提出的论点的有效性。
-
批评 ______ 的优缺点。
类似地,可以为知识的四个领域中的每一个使用不同的提示。当旨在提高各种科目或学科的学习和理解时,这很有用。以下是一些例子:
元认知知识:
战略知识:
- 解释你将如何解决[领域/科目]中的复杂问题。
对认知任务的知识:
-
讨论在[领域/科目]中分析和综合的区别。
-
解释批判性思维的过程及其在[领域/科目]中的重要性。
适当的情境和条件知识:
-
提供在[领域/科目]中应用[特定技术]的例子。
-
描述影响[领域/科目]中决策的因素。
自我知识:
- 解释如何根据[个人学习偏好]调整我的学习策略。
程序知识:
对特定学科技能和算法的知识:
-
展示在[领域/科目]中解决[特定问题]的步骤。
-
解释[领域/科目]中[特定过程]使用的算法。
对特定学科的技术和方法的知识:
-
描述在[领域/科目]中使用的不同研究方法。
-
解释对[特定数据]进行统计分析的关键步骤。
确定何时使用适当程序的标准的知识:
-
讨论在[领域/科目]中确定何时使用定性或定量研究方法的因素。
-
解释在[领域/科目]中[特定技术]最有效的条件。
概念知识:
对分类和类别的知识:
-
在[领域/科目]中分类不同类型的[特定元素]。
-
解释根据[领域/科目]中的特征对生物的分类。
对原则和一般化的知识:
-
描述[领域/科目]中[特定理论]的基本原理。
-
讨论在[领域/科目]中[特定研究]内做出的概括。
对理论、模型和结构的知识:
-
解释在[领域/科目]中使用的[特定模型]的关键组成部分。
-
讨论影响[领域/科目]中[特定领域]的主要理论。
事实知识:
术语知识:
-
在[领域/科目]中定义以下术语:[术语 1],[术语 2],[术语 3]。
-
提供与[领域/科目]中[特定主题]相关的必要词汇列表。
对具体细节和元素的知识:
-
列出对[特定过程]在[领域/科目]中的主要贡献元素。
-
确定与[历史事件]相关的[领域/科目]中的关键事件和日期。
上述建议是初始提示。然而,对于 ChatGPT 输出的修改和迭代,我们建议以下提示:
理解:
-
明确提示:你能提供更多关于[主题]的细节吗?
-
扩展提示:你能详细说明[想法或概念]吗?
应用:
-
修正提示:实际上,[事实或信息]并不准确。正确的信息是[修正]。
-
重新措辞提示:你能用更简单的语言重新表述[句子或段落]吗?
综合分析:
-
创意输入提示:想象一个[情况]发生的场景。描述接下来会发生什么。
-
另一种观点提示:考虑[想法或论点]的相反观点。
分析:
- 对比分析提示:比较和对比[两个概念、产品或解决方案]。
评估:
-
深入解释提示:请提供对[特定方面或主题]的更详细分析。
-
摘要和结论提示:用几句话总结你回答的关键点。
-
续写提示:请基于你之前的回答,并探讨[下一个方面或问题]。
虽然我们上面给出的例子是通用的,并且可以应用于所有学科,但我们相信,开发特定学科的提示库将更加有效。因此,MEF 计划在即将到来的学年采取的一项举措是让每个部门创建他们自己的提示库,这些提示库将根据他们特定的学科和独特需求定制。这种方法旨在通过提供与他们的学术领域紧密相关的提示来增强学生的体验,确保与 ChatGPT 的互动更加相关和定制。然而,还有一个替代选项:个人可以创建他们自己的个性化提示库。实际上,这正是作者在写作过程中的采用的方法。
在人工智能驱动的教育和学习环境中,创建个人提示库为用户提供了众多优势。通过创建和整理他们自己的提示,用户可以定制他们的学习体验,以符合他们独特的目标、兴趣和关注领域。这种个性化的方法不仅培养了一种更深的参与感,而且也允许与人工智能系统进行更有意义和相关的互动。其中一项关键好处是用户有机会定制他们的学习之旅。通过选择满足他们特定学习需求的提示,他们可以解决疑惑区域、挑战自我并更深入地探索主题。整理个人提示库本身就可以是一项激励人心的努力,因为用户会积极投入于塑造他们的学习内容。此外,个人提示库作为持续学习和实践的动力工具。用户可以回顾与挑战性概念相关的提示,随着时间的推移加强他们的理解。当他们使用整理好的提示与人工智能系统互动时,可以根据收到的响应来调整和改进他们的库,从而提高互动和学习成果。这个过程鼓励用户积极参与他们的学习之旅,并与人工智能技术互动。它培养了如数字素养和适应性等技能,这些技能在以人工智能为中心的世界中越来越有价值。除了即时好处之外,一个精心整理的提示库可以演变成为一个宝贵的资源,能够适应长期变化的学习需求。本质上,创建个人提示库赋予用户自主权和能动性,促进定制和丰富的学习体验。它使用户能够积极塑造他们的教育,使其与他们的偏好和需求相一致,同时加深他们对人工智能学习环境的理解和参与。
培养人工智能素养
我们的研究明确强调了在学生和教师中开展人工智能素养培训的紧迫需求。然而,人工智能素养究竟包含哪些内容呢?本质上,人工智能素养超越了数字素养,包括理解、应用、监控和批判性地反思人工智能应用的能力,即使没有开发人工智能模型的专业知识。它不仅超越了仅仅理解人工智能的能力;它还涉及到开放地利用人工智能进行教育目的。为教育者和学生提供有效使用人工智能工具的信心和责任感,使人工智能素养成为一种不可或缺的技能。然而,在推广人工智能素养时,必须考虑两个主要目标。首先,全面探索用户如何熟练地使用 ChatGPT 作为有价值的教育工具是至关重要的。其次,为教师提供指导,确保将 ChatGPT 无缝集成到他们的教育实践中,同时保持课程、评估和教学的完整性,这一点至关重要。这确保了学生不会绕过必要的学习过程,忽视基础知识。然而,在大学中的人工智能素养培训应根据学生和教师的不同需求进行定制,尽管会有一定程度的交叉。对于学生来说,掌握人工智能的基本概念、其应用以及其在各个领域的潜在影响至关重要。这些知识将使他们能够做出明智的决定,并积极参与人工智能技术。此外,我们还需要让学生了解人工智能的伦理影响,包括偏见、隐私问题和问责制。他们需要理解人工智能技术如何塑造社会,并培养负责任的用法。人工智能素养应侧重于培养学生的批判性思维技能,因为这将使他们能够评估人工智能生成的内容,区分人类和人工智能的贡献,并评估人工智能产生信息的可靠性。至于教师的培训,教师应掌握将人工智能工具无缝集成到教学方法中的技能。这包括理解人工智能在增强学习体验、自动化行政任务和为学生提供个性化反馈方面的潜力。教师还需要了解人工智能驱动的工具,包括数据分析工具和自然语言处理工具。这些知识将确保他们能够跟上各自领域的最新进展。此外,教师需要在负责任地指导学生使用人工智能工具进行学术目的方面发挥关键作用。这包括培养原创性,避免剽窃或不道德的行为,并确保积极的学习体验。虽然人工智能素养的核心概念可能具有相似性,但培训的重点和深度需要根据不同的需求进行定制。学生需要全面理解,以有效地导航人工智能驱动的领域,而教师则需要更深入地关注将人工智能集成到他们的教学和研究方法中。实现这一目标的方法将根据每所大学的特定要求和可用技术资源而有所不同。为了提供一些指导,我们提出了 MEF 目前正在开发的人工智能素养培训课程框架,可在附录中找到。这些包括以下内容:为教师设计的人工智能素养培训计划(附录 A);为学生的设计的人工智能素养培训计划(附录 B);以及为学生的建议的为期一个学期的人工智能素养课程(附录 C)。
总结来说,本章讨论了关于人工智能在教育中整合的关键主题。我们探讨了人工智能对基础学习的影响,通过翻转课堂的使用来应对挑战,并制定了一个设计未来课程框架。我们讨论了弹性评估策略以及适应人工智能时代的教学调整的重要性。强调了人工智能提示库的使用,以及培养学生和教师人工智能素养的必要性。这把我们带到了最后一章,其中我们讨论了我们的研究对高等教育中人工智能领域的知识和研究做出的贡献。
第十章
对知识和研究的贡献
研究范围和方法综述
在我们的研究中,我们全面考察了 ChatGPT 和人工智能(AI)聊天机器人对高等教育的影响。伊斯坦布尔的 MEF 大学作为我们的研究场所,以其人工智能和创新的教學方法而闻名。通过实验和教师讨论,我们启动了这个项目,以调查 ChatGPT 可能对高等教育机构、学生和教师产生的影响。我们的目标是了解这些技术引起的动态变化。我们围绕 ChatGPT 存在时学生、教师和高等教育机构的作用来构建我们的研究问题。通过探讨这些问题,我们的目的是深入了解 AI 聊天机器人在教育中的变革性影响,并提供成功整合的指导。为了理解整体情况,我们探索了人工智能和 ChatGPT,包括其历史发展和解决隐私、偏见和透明度等伦理问题。我们强调了 ChatGPT 的局限性,包括其产生误导性信息的潜力以及解决其不足的挑战。此外,我们还讨论了人工智能对工作和教育未来的更广泛影响。我们还简要提到了人们对人工智能可能构成的威胁日益增长的担忧,并讨论了国家和国际政策如何开始制定以减轻这些威胁。为了深化我们的理解,我们探讨了批判理论现象学等理论视角,使我们能够检查与 ChatGPT 相关的权力动态、社会结构和主观体验。然后,在我们的文献综述中,我们分析了关于在教育中整合 ChatGPT 的多种学术论文,包括文档和内容分析、元文献综述和用户案例研究,这些研究在 4 个月的时间内进行。这次综述帮助我们确定了重复出现的主题、现有文献中的空白以及需要进一步研究的领域。我们的研究方法采用定性方法,探索与 ChatGPT 互动相关的主观体验和意义。通过案例研究方法,我们从多个来源收集数据,包括关键事件、研究者日记、访谈、观察和学生项目及反思。通过主题分析,我们确定了六个主题:ChatGPT 的输入质量和输出有效性、ChatGPT 的局限性和挑战、与 ChatGPT 的人性化互动、ChatGPT 的个人助手/导师角色、ChatGPT 对用户学习的影响以及通用机器人对教育背景的局限性。通过将每个主题与我们的研究问题、数据、文献和我们的理论框架联系起来进行考察,我们获得了对发现的影响和重要性的全面理解。
关键见解和发现
我们发现,虽然 ChatGPT 在各种应用中证明非常有用,但其效果取决于输入质量和具体性。清晰的提示可以导致准确的响应,但为了达到期望的结果,可能需要进行多次迭代和修改。ChatGPT 以预测性方式运行,缺乏对上下文的全面理解,这构成了一个限制。应用中的挑战包括缺乏标准化的参考指南、可能产生错误响应以及固有的偏见。用户将 ChatGPT 视为类似人类,模糊了人类与 AI 交互的界限,这需要促进批判性思维和信息素养技能。在教育领域,ChatGPT 显示出多样性和实用性,但有人担心过度依赖可能会阻碍批判性思维和独立知识获取。此外,其通用方法在学科和文化背景方面显示出局限性。
基于这些发现,很明显,人工智能的整合将带来学生、教师和高等教育机构角色的重要转变。这种转变以多种方式展开。借鉴克利斯滕森的理论,学生现在可以选择利用 ChatGPT 来完成特定的教育任务,从而迎来一个 AI 支持的优化时间的新时代。然而,这种转变也涉及到布迪厄的文化和社会资本的概念,因为过度依赖 AI 可能导致知识的复制而没有真正的理解,这可能会影响学生由其社会文化背景塑造的教育习惯。从马克思主义的角度来看,这一现象可能标志着技术决定论重塑学生教育动态的一个例子,可能导致批判性思维的下降和对学习过程的参与度降低。此外,引用 AI 生成信息的行为引入了独特的挑战,反映了知识的技术框架。因此,学生被委托主动导航他们的技术互动,培养真正的理解,并将他们从被动的接受者转变为教育旅程中的积极参与者。转向教师方面,根据克利斯滕森的“待完成工作”理论,教育工作者现在可以选择利用 ChatGPT 来自动化常规任务并生成教育材料,从而腾出时间采用更精细的教学方法。然而,对于教师来说,验证 ChatGPT 的输出,揭示 AI 技术需要微调的领域,是至关重要的。从布迪厄的视角来看,随着教师将 AI 整合到教学中的导航,他们的角色有望演变,包括文化资本的体现。为了防止学习的绕过和保持真实性,教学方法必须相应地发展。从马克思主义的角度来看,AI 自动化的引入可能标志着一种商品化形式。然而,教师持续需要验证输出和创建有效的作业,这可以作为防止完全异化的对策。通过海德格尔的框架来看,教师承担着指导学生明智使用 AI 的责任,确保技术作为真理揭示的渠道,而不是仅仅的知识框架。因此,即使在技术进步的背景下,教师也在培养一个以真实性和深思熟虑的参与为特征的教育环境方面发挥着关键作用。扩大视角以涵盖高等教育机构,ChatGPT 的整合为大学提供了一个提高生产力和简化教育流程的途径。然而,挑战在于将这一技术飞跃与学生和教师的需求相一致。这种一致性紧密符合布迪厄的资本和社会结构观念,需要更新机构政策、改进评估方法和强大的培训计划。从布迪厄的视角来看,ChatGPT 出现作为一种新的文化资本,增强了机构的声望和可信度。然而,维护公平获取和解决偏见仍然是防止社会差异持续的关键。从马克思主义的角度来看,ChatGPT 的纳入可能被视为一种教育商品化。然而,保护公平获取和培养批判性参与维护了教育领域人类监督的持久价值。从海德格尔的框架来看,机构承担着平衡学生、教师和技术内在本质之间互动的任务。因此,机构必须以揭示真理和增强理解的方式使用 AI,同时保持教育中人类要素的核心作用。
理论进步
将批判理论和现象学的理论框架整合到我们对 ChatGPT 对高等教育影响的研究中,标志着在学科领域内推进理论讨论的重要一步。通过运用这些哲学视角,我们的研究超越了单纯的考察,进入了深入理解、细致分析和全面探索的领域。通过批判理论和现象学的结合,我们的研究对 ChatGPT 的影响采取了多维度的理解。我们不是从单一的角度分析这种整合,而是深入探讨权力动态、主观体验、存在维度和真实性。这种全面的探索为我们提供了对技术对学生、教育者和机构影响的更深刻理解。批判理论对权力动态的关注揭示了隐藏的不平等和系统性结构。通过应用这一视角,我们的研究揭示了 ChatGPT 的采用和利用中可能存在的差异,揭示了技术如何维持或挑战现有的等级制度。这种隐藏动态的揭示丰富了关于技术在高等教育中变革潜能的讨论。现象学对主观体验的强调使我们的研究超越了技术实施的表面层次。通过深入到利益相关者的意识体验中,我们的研究将对话提升到技术功能性的层面,探讨个人如何感知、适应和与 ChatGPT 互动的细微差别。这种以人为中心的研究为我们在理论上的进步增添了深度和真实性。海德格尔哲学为我们研究引入了存在层面,敦促我们思考存在的本质以及技术对人类存在的深远影响。这一哲学视角将对话提升到一个在实证研究中很少见到的内省水平。它邀请研究人员、教育者和政策制定者考虑他们在技术整合方面的选择和决策的哲学基础。这些框架的融合鼓励对技术整合的伦理、社会和个人维度进行全面的考虑。因此,我们的研究不仅仅关注 ChatGPT 的功能性,而是关注其对权力结构、教学关系和参与者真实体验的影响。这种全面的分析通过促进全面和明智的决策,为理论进步做出了贡献。通过为深入探索 ChatGPT 的影响铺平道路,我们的研究为未来的调查设定了先例。我们的方法展示了哲学与技术在教育研究中的结合价值。对新兴技术与教育之间相互作用感兴趣的研究人员可能会从我们研究的基础哲学中找到灵感,进一步推进理论讨论。
高等教育机构的影响
总体而言,人工智能对高等教育机构的影响广泛而深远,影响着学术的各个方面。这些影响涵盖了伦理考量、与产品相关的调整以及教育方法的重大转变,所有这些都要求我们进行仔细的审查和适应。在伦理考量的领域,我们强烈建议避免使用人工智能检测系统。这种观点源于这些系统固有的不透明性、不准确性和潜在的偏见。此外,我们对现有的 AI 引用系统建议进行了广泛评估,最终得出它们不切实际和低效的结论。我们讨论的很大一部分内容集中在 AI 时代对剽窃的重新评估上,这一挑战因新兴技术对传统规范的挑战而加剧。当涉及 AI 时,这种复杂性进一步加深,因为 AI 缺乏可识别的作者身份,导致了一个有趣的观点,即 AI 的存在本身可以与剽窃相提并论。在这些复杂的挑战中,我们强调培养学生、教育机构和机构在 AI 伦理方面的熟练性至关重要。这不仅包括理解 AI 的伦理影响,还要确保其在学术环境中的负责任和知情整合。因此,我们断言,大学的伦理委员会应在推动这一转型中发挥关键作用。随着 AI 生成内容的日益普及,机构必须应对重新定义 AI 时代的剽窃和归因问题。这一努力将需要深入理解 AI 如何与既定的学术标准接口。在考虑对产品开发的影响时,我们坚决主张大学优先考虑实现 AI 机器人的公平分配。这可以通过建立机构协议,授予所有教师和学生机器人访问权限,从而确保普遍可用性,或者通过引导学生使用现成的开源资源来实现。随着 AI 成为教育景观的组成部分,解决与产品相关的考虑因素变得越来越重要。确保学生公平且平等地访问 AI 机器人变得至关重要,以防止在学生之间分配资源上的任何潜在差异。此外,我们强调大学与行业建立强大伙伴关系的重要性。认识到 AI 对这些部门的影响,并确定雇主在毕业生中寻求的技能集,将为大学课程改进提供宝贵的见解。这种与行业的合作努力对于使教育产品与不断变化的就业市场要求保持同步至关重要。这种合作对于确保学生具备在由 AI 技术塑造的行业中脱颖而出的必要 AI 相关能力至关重要。此外,通过促进合作,大学可以深入了解特定行业 AI 的演变使用。这些宝贵的信息可以随后用于创建或获取与行业趋势相一致的专业机器人。这种专注的方法将巧妙地解决教育领域通用机器人的局限性。学科特定 AI 机器人的想法为定制学习体验开辟了一条创新途径,能够精确地满足不同部门的独特需求,从而增强 AI 在各个学术领域的整合。此外,我们强烈主张大学立即向学生开设提示工程课程,无论是通过开发自己的课程还是通过提供对现有 MOOC 课程的访问。这一主动措施将赋予学生应对迅速变化的科技领域的不可或缺的技能。同时,提供提示工程课程将显著提高学生的 AI 熟练度并加深他们对最佳 AI 交互策略的理解。在教育影响的领域,我们强烈强调机构彻底评估 AI 对学生基础学习潜在影响的必要性。随着 AI 引入新的方法和工具,传统的基础学习概念面临着新的挑战。通过这些障碍需要修改教学方法,以培养批判性思维、解决问题的能力和创造力——这些是 AI 难以像人类那样有效复制的技能。在这种情况下,我们建议采用翻转学习法作为解决这些问题的有效框架。采用这种方法利用 AI 工具丰富课前参与,使课堂时间可用于互动讨论、协作项目和实际应用。此外,开发使学生为 AI 主导的世界做好准备的课程变得至关重要。鉴于 AI 的进步,可能需要重新考虑某些现有的课程学习成果。因此,我们建议教师与行业合作进行工作分析,旨在评估 AI 对现实世界的影响。在此评估之后,可以对学习成果进行适当的调整,以确保其持续的相关性。为了有效地评估学生的内容知识和 AI 素养技能,AI 弹性的评估策略至关重要。这些策略必须反映 AI 影响的现实,要求学生不仅拥有学科专业知识,而且能够熟练地与 AI 技术互动。类似的策略应在课堂活动中实施,以增强他们的 AI 弹性和防止潜在的学习差距。为了在这些方面提供实际指导,我们提供了一个全面的框架,并附有包含相关问题的流程图。这些问题旨在帮助教师制定面向未来的课程,制定能够抵御 AI 影响的评估方法,并调整教学方法以符合 AI 时代。此外,我们强调创建提示库作为提高 AI 系统有效利用的宝贵资源的至关重要作用。创建提示库在最大化 AI 系统有效性方面具有重大意义。这些库包含了一系列精心制作且多样化的提示,这些提示被战略性地设计来引导与 AI 平台(如 ChatGPT)的交互。作为初始提示,这些提示刺激 AI 生成响应、建议或解决方案。我们建议开发针对大学内不同学术部门独特需求的学科特定提示库。与此同时,我们主张鼓励学生和教师创建个性化的提示库,以满足他们的个人偏好和需求。此外,我们强调在学生和教师中培养 AI 素养的重要性,尽管目标不同。学生应熟练有效地使用 ChatGPT,而教师应无缝将其融入教学方法中。定制培训至关重要:学生应掌握 AI 基础、应用、伦理和批判性思维,而教师应擅长 AI 工具集成和伦理指导。因此,培训深度应有所不同,针对学生的 AI 导航和教师的集成专业知识。方法将取决于每所大学独特的需求和可用资源。为此,我们在附录中提供了培训计划和课程的建议,为教师和学生提供熟练使用 AI 的必要技能。简而言之,AI 在高等教育中的整合标志着转型阶段。机构必须深思熟虑地应对伦理、产品相关和教育影响,以确保学生为 AI 技术塑造的未来做好准备。这一旅程需要在拥抱技术进步和维护教育核心价值之间保持微妙的平衡。然而,我们认为大学的作用远不止于此。还有更大的图景需要解决。
全球行动与合作
在人工智能领域,目前存在广泛的关注点,涵盖了多个维度。随着人工智能技术的持续进步,越来越多的伦理困境正在出现,引发了对其与人类价值观的契合度及其可能产生的不良后果的疑问。我们目前看到,人工智能系统在常识推理、鲁棒性和对世界的全面理解等关键方面存在许多局限性。这阻碍了真正智能和可靠的系统的创建。此外,透明度、可解释性和问责制正面临着严峻的挑战,尤其是在医疗保健、金融和法律等领域,它们可以对人类生活产生重大影响。有时,人工智能发展的持续轨迹似乎在优先考虑特定目标,而没有充分考虑人类价值观,从而引入了不可预见的挑战和管理复杂性的风险。此外,对人工智能对就业市场、经济、治理和社会福利的潜在影响的担忧也在不断增长,这源于人工智能可能加剧现有不平等和偏见的能力。值得注意的是,某些专家认为人工智能构成了一个存在性威胁,因为它能够超越人类智能,从而对 society 和 humanity 产生重大风险。这一全球形势促使专家、政府和甚至人工智能公司呼吁制定法规,我们现在开始看到这些监管政策的出现。英国竞争与市场管理局正在对人工智能进行彻底审查,重点关注虚假信息和就业中断等问题。同时,英国政府正在修订人工智能法规,以应对相关风险。在美国,白宫的讨论涉及与人工智能首席执行官就安全和安全进行讨论,联邦贸易委员会也积极参与调查人工智能的影响。此外,欧盟的人工智能法案正在制定一个框架,以根据风险对人工智能应用进行分类,并倡导负责任的人工智能实践。此外,技术巨头 OpenAI、Anthropic、Microsoft 和 Google 共同推出了前沿模型论坛,致力于人工智能安全、政策讨论和建设性应用,这建立在英国政府和欧盟的贡献之上,与白宫的对话相一致,表明技术行业正在持续演变。因此,很明显,正在采取行动。然而,一个关键问题仍然存在:这些监管努力是否会产生有影响力的行动,有效地解决潜在问题并促进负责任的人工智能进步?这似乎不太可能。
目前,一些令人担忧的迹象指向潜在的负面结果,例如微软伦理团队的缩减和山姆·阿尔特曼对欧盟人工智能法规的保留意见。这些例子突显了公司和甚至个人所拥有的巨大影响力。这与鲁曼·乔杜里所表达的关注不谋而合,他强调了一个行业趋势,即实体机构在倡导监管的同时,又游说反对,通常优先考虑风险评估而非伦理考量。然而,这种由资源驱动的权力集中如果不加警惕地管理,可能会导致偏见和不良后果。因此,乔杜里提出通过协作利益相关者参与来重新分配权力。卡伦·豪也表达了对于科技巨头对先进人工智能技术影响的担忧。她呼吁透明和包容的人工智能政策制定,涉及多样化的利益相关者,强调不同观点在促进负责任的人工智能发展中的关键作用。哈拉里也传达了对与科技进步相关的潜在挑战的担忧(2018)。他强调社会学家、哲学家和历史学家在提高意识并解决公司和企业主经常宣传其技术创新的自我推广方面发挥着至关重要的作用。他强调迅速做出决策的紧迫性,以有效监管这些技术的影响,防止市场力量将其强加于社会。鉴于 ChatGPT 在人工智能行业的迅速发展,这正在催化其他公司采用和培养广泛的语言模型和生成式人工智能的竞争,这个问题目前具有极其重要的意义。这种快速的发展可能超过政府政策在及时应对这些进步方面的响应能力。这使我们回到了我们的 AI 专家:马克斯·泰格马克、加里·马库斯、欧内斯特·戴维斯和斯图尔特·罗素。在 2017 年的著作《生命 3.0:人工智能时代的人类》中,泰格马克概述了负责任的人工智能治理框架,强调人工智能符合优先考虑人类价值观、福祉和社会进步的伦理原则的重要性。他强调透明度和可解释性在确保人类理解人工智能的决策过程中的重要性。为此,他提出将通用人工智能(AGI)的目标与人类价值观对齐,并建立监督机制。泰格马克设想了一种涉及各种利益相关者,包括专家和政策制定者的协作方法,共同塑造 AGI 法规,并强调国际合作的重要性(泰格马克,2017)。他主张适应性治理框架,能够跟上人工智能景观的发展。泰格马克的总体目标是使人工智能与人类价值观和谐一致,防止滥用并促进社会进步,同时认识到在人工智能治理中持续进行跨学科对话和微调的必要性(泰格马克,2017)。马库斯和戴维斯主张对人工智能研究轨迹进行全面重新评估,提出一条解决当前人工智能系统固有局限性的跨学科路径(马库斯和戴维斯,2019)。他们的方法涉及整合来自认知科学、心理学和语言学等各个领域的见解,旨在创建与人类认知过程更好地对齐的人工智能系统。他们引入了一个重要概念——人工智能进步的“混合”方法,该方法结合了基于规则的系统统计方法(马库斯和戴维斯,2019)。这种融合旨在利用两种方法的优势,同时减轻它们的弱点。他们的愿景是,这种混合方法可以产生更智能、更可靠的人工智能系统,能够有效地处理复杂现实场景(马库斯和戴维斯,2019)。罗素介绍了价值对齐理论的概念,这是人工智能伦理的一个基本方面(罗素,2019)。这一理论以将人工智能系统与人类价值观和目标对齐这一关键目标为中心。它强调设计人工智能系统以反映人类意图和欲望的必要性,防止潜在的负面结果并确保其道德运行(罗素,2019)。在本质上,价值对齐理论旨在确保人工智能系统不仅实现其指定的目标,而且考虑人类价值观和伦理的更广泛背景;它承认人工智能系统,尤其是随着它们获得自主性,可能会以可能与人类意图冲突的方式追求目标(罗素,2019)。罗素的工作主张人工智能系统通过结合从人类互动和反馈中学习的机制来理解和尊重人类价值观。这种方法也强调透明度和可解释性,使人类能够理解人工智能的决策过程并在必要时进行干预。罗素对价值对齐的关注旨在避免人工智能系统行为与人类价值观相悖的场景,促进以人为本的人工智能发展方法,同时维护伦理标准(罗素,2019)。因此,基于这些 AI 专家对 AI 固有问题的解决方案,大学应扮演什么角色?
我们相信,在负责任的 AI 发展和治理的背景下,大学扮演着至关重要的角色,如果不是道德义务的话,并建议它们以下列方式贡献力量。首先,大学可以作为研究和教育的中心,在推进 AI 技术的同时,也灌输伦理考量。它们可以提供跨学科项目,将计算机科学、伦理学、认知科学、心理学和其他相关领域结合起来,鼓励学生批判性地思考 AI 对社会的影响。与 Tegmark 的观点一致,大学可以通过汇集专家、政策制定者和各种利益相关者来促进协作努力,讨论和制定 AI 治理的法规。它们可以举办会议、研讨会和研讨会,促进国际合作和思想交流,以塑造适应性强的治理框架,应对 AI 不断变化的格局。Marcus 和 Davis 呼吁采取跨学科方法,与大学促进不同部门和学院之间协作的能力相一致。大学可以鼓励联合研究项目,将 AI 专业知识与心理学和语言学等领域的见解相结合,以创建更好地模拟人类认知过程的 AI 系统。大学还可以在推进 Russell 提出的价值一致性理论方面发挥关键作用。它们可以在 AI 的伦理维度方面进行研究和教育,培训未来的 AI 开发者和研究人员,优先考虑人类价值观和社会福祉。此外,大学还可以提供平台,讨论 AI 的道德影响,培养 AI 发展中透明度和问责制的文化。总的来说,大学有责任作为知识中心,促进跨学科研究、伦理考量、国际合作和透明度。我们相信,它们的作用不应仅限于技术专长,而应涵盖 AI 技术整体发展和负责任治理的更广泛方面。这是我们行动的号召。
解决局限性
尽管我们研究的结果证明了其相关性,并导致了在我们机构实施 ChatGPT 的策略发展,但承认和解决某些研究局限性是至关重要的。该研究是在土耳其一所著名的以翻转课堂方法著称的特定英语授课非营利私立大学进行的。虽然获得的见解很有价值,但必须认识到,独特的背景可能限制了研究结果在其他教育环境中的普遍适用性。在研究过程中遇到的一个显著局限性是,当时关于 ChatGPT 的文献有限。这种稀缺性可以归因于 ChatGPT 的最近公开推出以及进行文献综述的时间框架有限。因此,审查部分依赖于灰色文献,包括预印本,这可能会影响分析的综合性和深度。该研究还采用了故意广泛和开放式的研究问题,以促进探索性研究。虽然这种方法允许进行全面的探索,但必须认识到,由于主要研究人员的双重角色(既是研究人员又是教师),在解释结果时可能存在偏见。此外,该研究依赖于来自选修人类学课程(侧重于法庭语言学)的 12 名学生的较小样本量,这也构成了一种局限性。必须认识到,在大班或不同学科中,结果可能会有所不同。此外,对其他声音的抽样,包括教师和管理人员,相对随机,基于关键事件、电子邮件、研讨会和临时互动。最后,值得注意的是,这项研究是在一个学期内进行的,这可能会限制对 ChatGPT 对教育影响的纵向分析。为了解决未来研究中这些局限性,我们将做出以下调整。首先,为了使我们的发现更适用于各种教育环境,我们将包括更广泛的学术学科。为了确保强大的理论基础,我们将持续监控信誉良好的来源,以获取关于 ChatGPT 和相关人工智能技术的最新研究,并相应地更新我们的文献综述。通过结合定量和定性方法,我们将获得对 ChatGPT 影响的更全面理解。将数值数据与来自学生、教师和管理人员的丰富叙述相结合,将提供对技术有效性和挑战的全面看法。为了保持客观性,我们将在数据收集和分析过程中涉及更多反思性,包括多位研究人员,并使用三角测量法验证和交叉检查来自不同视角的发现。通过包括更大、更多样化的参与者群体,包括来自各个学科和学术水平的学生、教育者和决策者,可以加强研究的有效性和代表性。通过长期调查,观察变化、适应和潜在挑战,将提供对技术长期影响的细致理解。探索我们建议的将 ChatGPT 有效整合到教育中的教学策略至关重要。通过调查这些提议的变化将如何影响教学和学习,我们可以获得进一步实际实施的宝贵见解。通过将这些改进纳入我们的未来研究,我们可以丰富我们对 ChatGPT 在教育中影响的了解,并为寻求有效利用人工智能技术的教育者和机构提供有价值的见解。
进一步研究的建议
我们的研究为探索高等教育中 AI 聊天机器人的各种途径打开了大门。在此,我们提出了可能的研究方向,这些方向可以扩展我们的发现范围,并为同行研究人员提供有价值的见解。
-
处理伦理影响
-
有迫切需要调查 AI 整合在教育中的伦理影响,包括数据隐私、学生同意、算法偏见和社会文化影响。因此,调查应扩展到探索教师在使用 AI 聊天机器人和确保数据隐私和偏见缓解中的伦理实践时面临的挑战。
-
AI 整合的长期影响
-
调查教育中 AI 整合的长期影响是相关的,理解 AI 聊天机器人的使用如何随时间演变及其对学生学习成果和教师实践的影响。混合方法可以提供一个全面的视角,结合关于成果的定量数据和关于用户体验的定性见解。
-
机器人的文化差异
-
另一个未来研究的潜在领域将涉及研究各种 AI 机器人数据库中存在的文化细微差别,当机构选择系统时应如何考虑。这项研究将提供有价值的见解,了解不同的 AI 机器人如何适应不同的文化背景,从而影响其在教育环境中的有效性。
-
在其他大学领域的应用
-
有空间调查 ChatGPT 在教育之外潜在的应用,例如在大学内的客户服务或行政任务中。这可能包括评估将这些领域整合 AI 技术的益处、挑战和影响,这可能导致效率提高和用户体验改善。
-
调查 AI 机器人整合到数字平台中
-
数字平台公司,如 Pearson,正在积极将 AI 聊天机器人整合到他们的平台中。一旦这些平台的新版本发布,探索这种整合对教学和学习的潜在益处和挑战将是很有价值的。
-
对教师角色和职业发展的影响
-
应评估 AI 整合对教师角色和责任的长远影响,以研究这可能如何影响学术领域的职业发展和工作满意度。这项研究可以为专业成长和适应提供见解。
-
ChatGPT 和 AI 聊天机器人的协作功能
-
我们认为探索 ChatGPT 和其他允许多人共享聊天的 AI 聊天机器人的协作功能是相关的。这可能包括对其在教育环境中应用于学生、教师、研究人员和机构进行协作学习、知识共享和集体解决问题的应用的调查。
-
ChatGPT 和 AI 聊天机器人对语言学习的影响
-
我们认为调查 ChatGPT 和 AI 聊天机器人对语言学习潜在影响是至关重要的。鉴于它们在翻译、总结、提高写作和作为对话伙伴方面的能力,建议进行进一步研究,以了解对语言习得和熟练程度的积极和消极影响。
-
调查人工智能-人类通信界面
-
我们认为,未来研究的一个特别有趣且重要的方向将是探索 AI 和技术的整合,如聊天机器人,在教育中的应用与海德格尔关于技术和存在本质的理论相一致。研究人-聊天机器人关系如何影响学生学习成果可能有助于阐明技术“框定”倾向对真实人类互动和理解的影响程度。此外,深入研究 Tlili 等人(2023)和 Firaina 与 Sulisworo(2023)讨论的沟通和符号互动理论在 AI 介导的互动背景下的应用,可能有助于了解技术如何塑造我们对沟通的认识。此外,检查教育中的媒体理论,如 Firaina 和 Sulisworo(2023)所提出的,可能有助于更深入地理解作为一种媒体形式的技术如何影响互动和信息获取。最后,将 Zhai(2022)倡导的教育优先事项与海德格尔对技术对人类本质影响的担忧相一致,可能有助于了解如何在人工智能驱动的教育时代在提升技能和保持真实人类体验之间找到平衡。这一未来研究方向有可能从技术和哲学角度对 AI 在教育中整合的内涵进行全面理解。
通过追求这些未来研究方向,我们相信该领域可以更全面地了解 AI 在教育中的影响,并制定利用 AI 潜力同时保护教育质量和以人为本学习的核心价值的策略。
最终反思与总结
我们的研究,以 AI 的影响为中心,特别是关注像 ChatGPT 这样的 AI 聊天机器人,为我们提供了对 AI 在我们教育机构、行业和社会上普遍影响的深刻见解。正如我们所见,AI 既是一种工具,也是一种变革性元素,重塑了传统的学习环境,重新定义了角色,并挑战了既定规范。然而,我们的发现超越了学术界的界限,涉及更广泛的全球对话,讨论 AI 的广泛影响。我们研究了 AI 快速发展带来的挑战和机遇,从潜在的就业替代到权力动态的重构。强调预防性治理、包容性决策和严格遵守伦理原则的重要性,我们概述了塑造 AI 未来轨迹的关键考虑因素。我们将克里斯滕森、布迪厄、马克思和海德格尔的理论作为指南,来剖析 AI 的变革潜力,它对权力结构的影响以及它引发的深刻存在主义问题。这种理论方法使我们能够驾驭 AI 快速演变的复杂景观,为那些寻求理解和参与这些问题的其他人提供了一个有用的框架。我们确定了大学在这些关键讨论中的关键角色。他们在塑造知识和推动创新中的影响力使他们成为负责任 AI 采用和治理的领导者。他们有潜力以促进共同利益、赋权个人和增强社会福利的方式引导 AI 的轨迹。当我们所有人都在应对这些变化时——学生、教育工作者、研究人员、政策制定者和整个社会——我们必须记住这项研究的关键信息:AI 不仅仅是一个工具,而是一个需要我们理解、参与和负责任导航的重要力量。当我们展望未来时,我们必须记住我们是 AI 叙事的作者。我们有能力确保 AI 技术被塑造以反映我们的共同价值观和愿望。我们研究的重要性在于它呼吁对 AI 集成采取有意识和有目的的方法。这是一个呼吁设想并积极努力实现一个未来,在那里 AI 促进更大的公平、理解和共同繁荣。这项研究是一个起点,一个我们希望将有助于未来努力实现负责任 AI 治理和 AI 有益融入我们生活各个方面的指南。
附录
附录 A:AI 素养培训教程
基于我们的研究,我们为教师建议以下 AI 素养课程。
课程名称
掌握 AI 素养以教学和学习
整体教育目标
课程结束时,你将获得将人工智能聊天机器人有效整合到你的教育环境中的全面知识和技能,以实现有效的学习和教学。
课程格式
本课程将以异步在线课程的形式提供,为教育工作者提供灵活性,让他们根据自己的节奏参与内容。课程材料将通过大学的在线学习管理系统获取,使参与者能够以自我指导的方式学习、反思和实践。为了增强参与度和互动性,整个学期将进行现场研讨会,重点关注课程内容的各个方面。这些研讨会将为参与者提供提问、参与讨论和获得实时指导的机会。
课程描述
这是一门动态且沉浸式的课程,为教育工作者提供了对人工智能聊天机器人技术和其在教育环境中道德影响的深入理解。从基础概念到高级策略,本课程带领教育工作者踏上一段通过人工智能聊天机器人的世界变革之旅。参与者将探索人工智能聊天机器人如何重塑教育格局,从个性化学习体验到高效的行政支持。课程深入探讨了人工智能整合的道德维度,解决诸如隐私、偏见和问责制等问题。教育工作者将获得关于如何通过人工智能增强教学方法、提高学生参与度和革新评估策略的实用见解。本课程旨在赋予教育工作者无缝整合人工智能聊天机器人到他们的教学实践中,同时确保道德考量始终处于前沿。参与者将参与互动单元,涵盖人工智能聊天机器人的出现和增长、其提高教学效率的潜力以及人工智能驱动教育的道德影响。现实世界的例子将阐明与人工智能伦理相关的挑战和解决方案。课程结束时,教育工作者将具备培养负责任的人工智能整合、设计面向未来的课程大纲和利用人工智能工具进行有影响力的教学的技能。
持久理解
通过人工智能聊天机器人赋权教育工作者涉及掌握其实际应用、理解道德影响以及调整教学实践以适应人工智能增强的教育环境。
核心问题
-
教育工作者如何在维护道德考量的同时,有效地将人工智能聊天机器人整合到他们的教学实践中?
-
教育中使用人工智能聊天机器人引发了哪些道德困境,教育工作者如何应对它们?
-
人工智能聊天机器人如何以何种方式增强学习过程中的学生参与度、反馈和支持?
-
人工智能对教学和学习提出了哪些机遇和挑战,教育工作者如何利用其潜力?
-
教育工作者如何设计课程,以使学生为人工智能集成未来做好准备,并培养关键的 AI 素养?
-
教育工作者可以采取哪些策略来导航人工智能增强的评估方法,同时确保公平和透明?
-
教育工作者如何调整他们的教学方法,以创建适应多样化学生需求的人工智能弹性学习环境?
-
需要哪些工具、平台和最佳实践才能无缝地将人工智能聊天机器人集成到教育环境中?
-
教育工作者在将人工智能聊天机器人融入教学实践时应考虑哪些关键伦理原则?
-
教育工作者如何培养所有学生对人工智能聊天机器人的包容性和公平获取?
-
在人工智能增强的教育领域中,教育机构和产业之间存在哪些协作机会?
课程学习成果和能力
完成课程后,教育工作者将能够:
-
将人工智能聊天机器人融入他们的教学方法,以增强学生的参与度、反馈和学习支持。
-
批判性地评估和解决与人工智能聊天机器人集成相关的伦理挑战。
-
利用人工智能聊天机器人实现个性化学习体验、高效的行政任务和创新评估策略。
-
创建人工智能增强的课程,以使学生为技术驱动的未来做好准备,同时培养关键的 AI 素养。
-
调整教学方法,以创建适应多样化学生需求的人工智能弹性学习环境。
-
实施确保公平和透明的人工智能弹性评估策略。
-
与产业合作,通过人工智能集成提升教育实践。
课程内容
(1)第一单元 – 理解教育中的人工智能聊天机器人
-
教育环境中人工智能聊天机器人的介绍
-
探索人工智能在提升教学和学习中的作用
-
定义教育工作者采用人工智能的伦理必要性
(2)第二单元 – 利用人工智能聊天机器人导航教育领域
-
教育中人工智能聊天机器人的出现和演变
-
人工智能在转变教学效率和学生学习参与度方面的潜力
-
整合人工智能聊天机器人在教育中的挑战与机遇
(3)第三单元 – 教育工作者在人工智能聊天机器人中的伦理考量
-
人工智能集成中的伦理:隐私、偏见和问责制
-
在人工智能驱动的教育现实世界中导航伦理困境
-
人工智能集成中的伦理挑战和解决方案
(4)第四单元 – 利用人工智能聊天机器人增强学生参与度和学习
-
通过人工智能聊天机器人个性化学习体验
-
利用人工智能进行有效的反馈和支持
-
人工智能增强学生参与的伦理影响
(5)第五单元 – 适应人工智能时代的教学:策略和挑战
-
为人工智能集成未来设计课程
-
创建人工智能弹性学习环境
-
人工智能驱动教学方法中的伦理维度
(6)第六单元 – 人工智能增强评估策略:公平与透明
-
通过人工智能重新定义评估
-
以道德诚信导航 AI 弹性评估策略
(7)第 7 单元 – AI 增强教育中的合作
-
行业-教育者伙伴关系以有效整合 AI
-
通过 AI 增强教育实践促进合作
(8)第 8 单元 – AI 伦理:教育者的指导原则
-
教育者 AI 整合的关键伦理原则
-
确保所有学生都能公平地访问 AI 聊天机器人
(9)第 9 单元 – 构建 AI 素养:为学生准备 AI 驱动未来
-
在学生中培养批判性 AI 素养技能
-
培养学生导航 AI 的伦理和技术维度的能力
总结来说,这门 AI 素养课程将赋予教育者无缝地将 AI 聊天机器人整合到教学方法中的能力,强调伦理,并为他们提供在 AI 时代有效教学的必要技能,同时也在他们的学生中培养批判性 AI 素养。
附录 B:学生 AI 素养培训
根据我们的研究,我们建议以下 AI 素养课程供学生参考。
课程名称
掌握 AI 素养学习
整体教育目标
在本课程结束时,你将获得与 AI 有效互动、评估其伦理影响、通过 AI 策略提升学习以及批判性地评估其局限性的技能。你将能够将 AI 作为创造力和效率的工具来实施,同时识别并解决绕过学习的潜在情况,培养 AI 时代的负责任学习实践。
课程格式
本课程将以异步在线课程的形式提供,为学生提供灵活性,使他们能够根据自己的时间表以自己的节奏参与内容。课程材料将通过大学的学业管理系统提供,使学生能够以自我指导的方式学习、反思和实践。
课程描述
本课程的主要目标是让学生发展必要的技能,使他们能够有效地与 AI 互动,进行道德评估,并通过 AI 策略战略性地提升学习。在本课程结束时,学生将能够批判性地评估 AI 的局限性,利用其创造力和效率的潜力,并确保负责任的学习实践,以防止潜在的捷径。通过灵活的在线格式,学生将探索 AI 在教育中的变革性作用,其对学习策略的影响,以及如何导航其伦理考量,使他们能够利用 AI 的力量,同时在 AI 时代促进负责任的学习实践。
持久理解
在 AI 时代,掌握 AI 素养使学习者具备与 AI 互动、协作和有效适应 AI 的技能,在快速发展的技术环境中提升学习策略,同时防范潜在的学习捷径。
核心问题
-
掌握人工智能素养如何使学习者能够有效地与人工智能在各种情境中互动和协作?
-
对于学习者来说,哪些具体技能是适应不断发展的人工智能领域并确保学习旅程完整性的关键?
-
如何通过人工智能素养提升学习策略以适应快速变化的技术环境的需求?
-
在人工智能存在的情况下,学习过程中可能出现的潜在学习捷径有哪些,以及学习者如何防范它们?
-
人工智能素养如何帮助学习者批判性地评估和利用人工智能工具进行教育目的?
-
学习者如何平衡利用人工智能的益处和维护学习体验的深度和质量?
-
在学习过程中与人工智能协作时,学习者应考虑哪些伦理考量?
-
如何通过人工智能素养在人工智能驱动时代塑造教育未来的过程中培养学习者的责任感与积极参与感?
-
学习者可以采用哪些策略来有效地在他们的学习努力中导航不断变化的人工智能技术领域?
课程学习成果和能力
完成课程后,学生将能够:
-
识别和评估有效参与和适应人工智能所需的具体技能,以促进合作和明智的决策。
-
评估在学习过程中利用人工智能的伦理影响,展示对负责任人工智能使用和潜在挑战的认识。
-
制定通过人工智能提升学习体验的策略,包括优化输入质量、输出效果和个性化交互。
-
批判性地评估与人工智能技术相关的局限性和挑战,认识到可靠性和伦理考量的重要性。
-
将人工智能作为个人助手和导师实施,应用人工智能工具来提升创造力、效率和知识获取。
-
识别使用人工智能可能导致绕过学习的情况,并制定缓解策略,从而在人工智能时代培养负责任的学习实践。
课程内容
(1)第 1 单元 – 开始人工智能聊天机器人之旅
-
人工智能聊天机器人的介绍
-
人工智能聊天机器人的挑战
-
课程的目的和范围
(2)第 2 单元 – 探索人工智能聊天机器人的领域
-
聊天机器人的出现和增长
-
人工智能对就业市场的影响
-
人工智能对教育的影响
(3)第 3 单元 – 人工智能的输入质量和输出效果
-
提升用户体验:情境在人工智能交互中的作用
-
构建高质量输入:最大化人工智能输出效果
-
迭代优化:通过用户学习提升人工智能交互
-
开发个性化提示库
-
个性化人工智能交互以满足个人需求
(4)第 5 单元 – 探索人工智能的限制和挑战
-
理解人工智能输出挑战
-
确保从人工智能获取可靠信息
-
人工智能中的伦理考量
-
当前工具和系统的局限性
(5)第 5 单元 – 理解与人工智能的感知类似人类交互
-
感知类似人类的交互:人工智能沟通的动态
-
解读 ChatGPT 的输出:观点与预测
(6)第 6 单元 – 人工智能作为个人助手和导师:提升用户体验
-
提升用户想法和效率
-
超越学术的多样性和支持
-
反馈、提升与知识传授
(7)第 7 单元 – 探索人工智能对学习和责任的影响
-
理解人工智能对学习的影响
-
避免在人工智能时代绕过学习的策略
-
人工智能时代的学习者责任
总结来说,这个学生人工智能素养课程将使他们具备有效参与人工智能、评估其伦理影响、提升学习策略以及在人工智能时代应对潜在挑战的基本技能。
附录 C:学生人工智能素养课程
根据我们的研究,我们建议以下人工智能素养课程供学生选择。
课程名称
掌握人工智能聊天机器人
整体教育目标
本课程结束时,你将全面掌握人工智能聊天机器人,包括对其技术基础的深入了解,与其发展相关的问题以及它们对社会影响带来的挑战,同时培养在不同情境下适应和使用这些工具的能力。
课程格式
本课程计划为一学期,将采用翻转课堂模式。课程可以同步在线进行。
课程描述
本课程的主要目标是使学生熟练掌握人工智能聊天机器人,并学习如何在各种情况下有效地使用和应用这些工具。在整个课程中,学生将精通人工智能聊天机器人,从掌握其技术到战略性地使用它们。在课程中,学生将探索聊天机器人基础知识,同时评估它们对教育、工作和社会的影响。他们还将深入研究人工智能如何影响他们个人,以及个人与学习、技术和社会的关系。此外,学生将发现实际提高他们人工智能用户体验的方法,同时考虑伦理问题。他们还将研究人工智能聊天机器人的局限性和挑战,以及它们在学习中的作用。将讨论伦理考量与现实世界的例子,以提供对人工智能聊天机器人开发的洞见。此外,学生将检查人工智能威胁、伦理指南以及教育工作者、学校和大学在此背景下的责任。他们还将探索人工智能聊天机器人即将到来的趋势和创新,为人工智能技术的不断变化做好准备。本课程将强调实践经验,到课程结束时,学生将配置和训练一个满足他们个人需求的人工智能聊天机器人。因此,学生将获得人工智能理解、批判性思维、伦理考量和实践应用方面的技能,使他们能够有效地应对人工智能的世界。
持久理解
精通人工智能聊天机器人需要理解它们对个人、社会和伦理的影响,以及掌握技术进步的广泛影响。
核心问题
-
哪些趋势塑造了人工智能聊天机器人的进步及其对各个领域的影响?
-
如何使用人工智能聊天机器人进行有效的互动和高质量的响应?
-
人工智能聊天机器人限制带来的伦理考量有哪些?如何解决这些问题?
-
人工智能聊天机器人以何种方式模仿类似人类的互动,以及它们输出的意见和预测有何不同?
-
人工智能聊天机器人如何在不同环境中提高用户效率、支持和想法?
-
人工智能对学习有何影响,在这个背景下学习者有哪些责任?
-
考虑局限性和文化,通用和专用人工智能聊天机器人的范围是什么?
-
在人工智能聊天机器人开发过程中,会出现哪些伦理挑战?现实世界的例子如何为这些挑战提供洞见?
-
人工智能聊天机器人带来了哪些威胁,为什么在管理它们时伦理政策至关重要?
-
大学如何负责任地参与人工智能聊天机器人的开发和伦理讨论?
-
可以使用哪些工具、平台和实践来开发人工智能聊天机器人?
-
新兴趋势和技术如何塑造人工智能聊天机器人技术和集成的未来?
课程学习成果和能力
课程结束后,学生将能够:
-
制定培养适应 AI 技术影响的负责任学习方法的策略。
-
分析 AI 对个人、教育、社会、行业和全球格局的影响。
-
批判性地评估现实世界的 AI 困境,并评估解决这些困境的当前努力。
-
使用各种工具和平台配置和训练一个针对其特定需求的初级 AI 聊天机器人。
-
通过有效的交互策略、道德考虑和明智的决策展示对 AI 聊天机器人的熟练使用。
评估
课前测验 – 每个单元之前(20%)
(1)参与活动 – 在整个课程中,包括:
-
对 AI 检测工具的批判(5%)
-
一篇个人反思,讨论如何将 ChatGPT 用作搜索引擎,然后与原始资料进行事实核查(5%)
-
一篇关于基础学习重要性的反思论文,探讨 AI 可能产生的影响以及如何避免这种情况(5%)
-
对 AI 弹性教学和学习流程图的批判(5%)
-
开发一个个性化的提示库(5%)
-
一篇关于如何将 ChatGPT 用于教育领域之外的其他任务的个人日记(5%)
-
对通用型与专用型聊天机器人的 SWOT 分析(5%)
-
参与关于现实世界 AI 困境伦理影响的辩论,例如:如果这意味着拯救更多人的生命,自动驾驶汽车是否应该被编程去杀人?或者是否应该使用面部识别软件来追踪人们的行动?(5%)
(2)课程结束时的表现任务 – 配置 AI 聊天机器人以供个人使用(40%)
课程结束时的表现任务目标是根据您的特定需求个性化现有的 AI 聊天机器人。您将扮演一个 AI 爱好者的角色,定制现有的 AI 聊天机器人以满足您的需求。通过调整交互、响应和功能,您将展示您有效适应 AI 技术的能力。这项任务体现了课程的核心概念,提供了在实际场景中应用所学知识的实践机会。最终,您将创建一个符合您兴趣和需求的个性化 AI 助手。评估标准如下:
-
功能性和定制
-
配置的 AI 聊天机器人对所选场景或背景有清晰的理解。聊天机器人的交互和响应与场景的具体需求相关且一致。聊天机器人能够有效地处理各种用户输入并提供适当的响应。
-
工具和平台熟练度
-
学生有效地利用了各种工具和平台来配置聊天机器人。有证据表明,他们在设置和将聊天机器人与相关技术集成方面具有技术熟练度。
-
设计决策的合理性
-
在配置聊天机器人时所做的设计决策得到了清晰的解释。学生根据场景需求,对聊天机器人的功能、响应和交互的选择进行论证。
-
用户体验的考虑
-
聊天机器人为与用户互动提供了用户友好且无缝的体验。提供了有效处理用户查询、保持上下文并提供适当帮助的措施。
-
伦理考量
-
与聊天机器人的交互和响应相关的潜在伦理问题得到解决。有措施防止聊天机器人提供误导性、有害或偏见的信息。
-
适应性和未来改进
-
学生讨论了聊天机器人未来如何进一步改进或适应。根据潜在用户反馈或变化的需求,提供了改进聊天机器人功能的建议。
-
文档和解释
-
提供了聊天机器人配置过程的清晰文档,包括使用的工具和设置步骤。包括对聊天机器人功能、目的和预期用户体验的说明性解释。
课程内容
(1) 单元 1 – 开始人工智能聊天机器人之旅
-
人工智能聊天机器人的简介
-
人工智能聊天机器人的挑战
-
本课程如何帮助您掌握人工智能聊天机器人
(2) 单元 2 – 探索人工智能聊天机器人的领域
-
聊天机器人的兴起与成长
-
人工智能对就业市场的影响
-
人工智能对教育的影响
(3) 单元 3 – 人工智能将如何影响我
-
理解人工智能如何影响个人
-
人工智能与我:权力动态、社会结构和文化影响
-
人工智能与我:探索我与人工智能的关系
(4) 单元 4 – 人工智能的输入质量和输出有效性
-
提升用户体验:上下文在人工智能交互中的作用
-
构建高质量输入:最大化人工智能输出有效性
-
迭代优化:通过用户学习增强人工智能交互
(5) 单元 5 – 开发个性化的提示库
- 适应个人需求的人工智能交互
(6) 单元 6 – 探索人工智能局限性和挑战
-
理解人工智能输出挑战
-
确保从人工智能获取可靠信息
-
人工智能中的伦理考量
-
当前工具和系统的局限性
(7) 单元 7 – 理解与人工智能的感知类似人类交互
-
感知类似人类的交互:人工智能通信的动态
-
解读 ChatGPT 的输出:观点与预测
(8) 单元 8 – 人工智能作为个人助手和导师:提升用户体验
-
提升用户想法和效率
-
超越学术的多样性和支持
-
反馈、增强和知识传授
(9) 单元 9 – 探索人工智能对学习和责任的影响
-
理解人工智能对学习的影响
-
教育中适应人工智能的策略
-
人工智能时代的学习者责任
(10) 单元 10 – 通用聊天机器人与专用聊天机器人
-
理解通用聊天机器人:范围和限制
-
应对局限性:学科背景约束
-
文化考量:通用机器人的挑战
-
调查专业机器人
(11)第 11 单元 – 人工智能聊天机器人的伦理考量
-
理解人工智能聊天机器人开发中的伦理挑战
-
探索伦理困境:发展和使用
-
现实世界案例:行动中的伦理困境
(12)第 12 单元 – 人工智能威胁、政策和大学的作用
-
人工智能威胁和呼吁制定伦理政策
-
探索制定伦理人工智能政策的必要性
-
联合伦理见解:大学与人工智能对话
(13)第 13 单元 – 人工智能聊天机器人的未来趋势和创新
-
人工智能聊天机器人技术的新趋势和进步
-
人工智能聊天机器人与新兴技术的整合
-
人工智能聊天机器人在各行业中的演变角色
(14)第 14 单元 – 配置和训练您自己的人工智能聊天机器人
-
人工智能聊天机器人的工具和平台
-
配置和训练基本人工智能聊天机器人
-
解决最佳实践、定制选项和故障排除
(15)第 15 和 16 单元 – 个性化聊天机器人的展示和批判
总结来说,这门人工智能素养课程将使学生能够熟练掌握人工智能聊天机器人。他们将掌握这项技术,应对挑战并探索伦理维度。凭借实用技能和批判性思维,学生将能够熟练地适应人工智能聊天机器人,理解它们的社会影响,并在教育和其他领域指导其使用。
参考文献
Abdul, G.(2023, May 30). 通过人工智能灭绝的风险应成为全球优先事项,专家如是说。《卫报》。www.theguardian.com/technology/2023/may/30/risk-of-extinction-by-ai-should-be-global-priority-say-tech-experts
Aceves, P.(2023, May 29). “我认为伦理监控无法存在”:Rumman Chowdhury 谈人工智能的问责制。《卫报》。www.theguardian.com/technology/2023/may/29/rumman-chowdhury-interview-artificial-intelligence-accountability
Adamopoulou, E., & Moussiades, L.(2020). 聊天机器人技术概述。在 IFIP 信息与通信技术进展(第 584 卷)。doi.org/10.1007/978-3-030-49186-4_31
Alshater, M. M.(2022). 探索人工智能在提高学术表现中的作用:ChatGPT 案例研究。ssrn.com/abstract=4312358
Althusser, L.(1971). 列宁与哲学,及其他论文。新左派出版社。
Anyoha, R.(2017, August 28). 新闻中的科学 [哈佛大学文理研究生院]。人工智能的历史。sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/
Armstrong, P.(n.d.). 布卢姆分类法。范德比尔特教学中心。cft.vanderbilt.edu/guides-sub-pages/blooms-taxonomy/
Baker, T.,& Smith, L.(2019)。教育-AI-重启?探索学校和高等教育中人工智能的未来。Nesta。media.nesta.org.uk/documents/Future_of_AI_and_education_v5_WEB.pdf
Bellan, R.(2023, March 14)。微软裁减道德 AI 团队,加大在 OpenAI 上的投入。TechCrunch。techcrunch.com/2023/03/13/microsoft-lays-off-an-ethical-ai-team-as-it-doubles-down-on-openai/
Bensinger, G.(2023, February 21)。ChatGPT 在亚马逊上引发 AI 编写的电子书热潮。路透社。www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/
Bhuiyan, J.(2023, May 16)。OpenAI 首席执行官呼吁立法减轻“越来越强大的 AI 风险”。卫报。www.theguardian.com/technology/2023/may/16/ceo-openai-chatgpt-ai-tech-regulations
Bida, A.(2018). 海德格尔与“居住”。在 当代叙事中的家园绘制。地理批评与空间文学研究 中。Palgrave Macmillan.
Bloom, B.,Engelhart, M.,Furst, E.,Hill, W.,& Krathwohl, D.(1956)。教育目标分类:教育目标的分类。手册 1。认知领域。David McKay Company.
人工智能权利法案蓝图。(n.d.)白宫。www.whitehouse.gov/ostp/ai-bill-of-rights/
Bourdieu, P.(1978). 语言市场;1978 年 12 月在日内瓦大学发表的演讲。在 社会学问题(第 83 页)。Sage.
Bourdieu, P.(1982). 机构仪式,社会科学研究论文。在 J. Richardson(编),教育社会学理论研究手册(第 58–63 页)。Greenwood Press.
Bourdieu, P.(1986)。资本形式。在 J. Richardson(编),教育社会学理论研究手册(第 241–258 页)。Greenwood Press.
Braun, V.,& Clarke, V.(2006)。在心理学中使用主题分析。心理学定性研究,3(2),77–101.
Brockman, G.,& Sutskever, I.(2015, December 11)。介绍 OpenAI。OpenAI。openai.com/blog/introducing-openai
Brown-Siebenaler, K.(2023, March 28). ChatGPT AI 是否会革命性地改变工程和产品开发?以下是您需要了解的信息。 PTC. www.ptc.com/en/blogs/cad/will-chatgpt-ai-revolutionize-engineering-and-product-development
Cassens Weiss, D.(2023, March 16). ChatGPT 最新版本在律师资格考试中得分接近 90%。《美国律师协会杂志》。 www.abajournal.com/web/article/latest-version-of-chatgpt-aces-the-bar-exam-with-score-in-90th-percentile
Christensen, C.(1997). 《创新者的困境:新技术如何导致大企业失败》. 哈佛商学院出版社。
Christensen, C., Hall, T., Dillon, K., & Duncan, D. S.(2016). 《与运气竞争:创新和客户选择的故事》. HarperCollins.
Cousineau, C.(2021, April 15). 智能法庭与中国司法系统技术革新的推动研究. 策略与国际研究中心. www.csis.org/blogs/new-perspectives-asia/smart-courts-and-push-technological-innovation-chinas-judicial-system
Cresswell, J. W., & Poth, C. N.(2016). 《定性研究和设计:在五种方法中选择》. Sage Publications.
D'Agostino, S.(2023, May 19). 在 AI“淘金热”中,大学竞相招聘和建设。《高等教育内幕》在线。
Elster, J.(1986). 《卡尔·马克思导论》. 剑桥大学出版社。
EU AI Act: 首部关于人工智能的法规。 (2023, June 8). 欧洲议会新闻。 www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
Fauzi, F., Tuhuteru, L., Sampe, F., Ausat, A., & Hatta, H.(2023). 分析 ChatGPT 在提高高等教育学生生产力中的作用。《教育杂志》,5(4),14886–14891. doi.org/10.31004/joe.v5i4.2563
Felten, E., Manav, R., & Seamans, R.(2023). ChatGPT 等语言模型将如何影响职业和行业?ArXiv. 《一般经济学》,1–33. doi.org/10.48550/arXiv.2303.01157
Firaina, R., & Sulisworo, D.(2023). 探索 ChatGPT 在高等教育中的应用:频率和生产力的影响。《印度尼西亚教育通报》(BEI),2(1),39–46. journal.iistr.org/index.php/BEI/article/view/310/214
Forefront AI.(n.d.). Forefront AI 聊天。 chat.forefront.ai/
Fowler, G.(2023, March 16). ChatGPT 将如何影响工作?《福布斯》。www.forbes.com/sites/forbesbusinessdevelopmentcouncil/2023/03/16/how-will-chatgpt-affect-jobs/?sh=7fc6d501638b
加涅的九大教学事件。(2016)。佛罗里达大学教学技术培训中心。citt.ufl.edu/tools/gagnes-9-events-of-instruction/
Gates, B.(2023, March 24). 比尔·盖茨:人工智能是几十年来最重要的技术进步——但我们必须确保它被用于善行。《独立报》。www.independent.co.uk/tech/bill-gates-ai-artificial-intelligence-b2307299.html
Girdher, J. L.(2019). 高级护士在急性环境中管理风险和患者安全的生活体验是什么?一种现象学视角。西英格兰大学。uwe-repository.worktribe.com/output/1491308
2023 年全球教育监测报告:教育中的技术——这是一个谁的条件下的工具?(第 435 页)。(2023)。联合国教科文组织。
Gollub, J., Bertenthal, M., Labov, J., & Curtis, P.(2002). 学习和理解:改善美国高中数学和科学的高级研究(第 1-564 页)。国家研究委员会。www.nap.edu/read/10129/chapter/1
Griffin, A.(2023, May 12). ChatGPT 的创造者试图用人工智能来解释自己——却遇到了重大问题。《独立报》。www.independent.co.uk/tech/chatgpt-website-openai-artificial-intelligence-b2337503.html
Grove, J.(2023, March 16). 学术研究的 ChatGPT 革命已经开始。《泰晤士高等教育》。
Hammersley, M., & Atkinson, P.(1995). 民族志:原则与实践(第 16 页)。Routledge。
Hao, K.(2020, September 23). OpenAI 正在给予微软对其 GPT-3 语言模型的独家访问权限。《麻省理工学院技术评论》。www.technologyreview.com/2020/09/23/1008729/openai-is-giving-microsoft-exclusive-access-to-its-gpt-3-language-model/
Harari, Y. N.(2018). 21 世纪的 21 课。Vintage。
Harreis, H.(2023, March 8). 生成式 AI:开启时尚的未来。麦肯锡公司。www.mckinsey.com/industries/retail/our-insights/generative-ai-unlocking-the-future-of-fashion
有效的大学教育(第 1-8 页)。(2023)。南佛罗里达大学。
Hinsliff, G.(2023, May 4). 如果老板们未能检查 AI 的持续发展,他们自己的工作很快就会被从剧本中删除。The Guardian。www.theguardian.com/commentisfree/2023/may/04/ai-jobs-script-machines-work-fun
ChatGPT 和人工智能将如何影响金融行业?(2023, March 6)。FIN。www.dfinsolutions.com/knowledge-hub/thought-leadership/knowledge-resources/the-impact-of-chatgpt-in-corporate-finance-marketplace
如何在 MLA 风格中引用生成式人工智能?(n.d.)。MLA 风格中心。style.mla.org/citing-generative-ai/
Hunt, F. A.(2022, October 19). 司法体系中人工智能的未来。LSJ Media。lsj.com.au/articles/the-future-of-ai-in-the-justice-system/
Inwood, M.(2019). 海德格尔:非常简短的介绍(第 2 版)。Oxford University Press.
Jackson, F.(2023, April 13). “ChatGPT 完成了我 80%的工作”:认识那些使用 AI 机器人承担多个全职工作的工人——而他们的雇主却一无所知。MailOnline。www.dailymail.co.uk/sciencetech/article-11967947/Meet-workers-using-ChatGPT-multiple-time-jobs-employers-NO-idea.html
Jiminez, K.(2023, April 13). 教授们正在使用 ChatGPT 检测工具指控学生作弊。但软件出错怎么办?USA Today。www.usatoday.com/story/news/education/2023/04/12/how-ai-detection-tool-spawned-false-cheating-case-uc-davis/11600777002/
Johnson, A.(2022, December 12). 了解 OpenAI 的 ChatGPT——它正在颠覆什么以及如何使用它。Forbes。www.forbes.com/sites/ariannajohnson/2022/12/07/heres-what-to-know-about-openais-chatgpt-what-its-disrupting-and-how-to-use-it/?sh=7a5922132643
Kahneman, D.(2011). 思考,快与慢。Random House.
Karp, P.(2023, February 6). 一位议员在澳大利亚议会上表示,AI 可能被用于 ChatGPT 部分撰写的“大规模破坏”演讲。The Guardian。www.theguardian.com/australia-news/2023/feb/06/labor-mp-julian-hill-australia-parliament-speech-ai-part-written-by-chatgpt
Klee, M.(2023, June 6). 她被错误地指控使用 AI 作弊——而且她不会是最后一个。[杂志]。《滚石》。www.rollingstone.com/culture/culture-features/student-accused-ai-cheating-turnitin-1234747351/
Klein, A.(2023, July 25). 欢迎来到“围栏花园”。这是教育解决人工智能陷阱的方案吗?《教育周报》。www.edweek.org/technology/welcome-to-the-walled-garden-is-this-educations-solution-to-ais-pitfalls/2023/07?fbclid=IwAR2Wgk8e8Ex5niBsy6npZLnO77W4EuUycrkTpyH0GCHQghBSF1a2DKhzoNA
Liberatore, S., & Smith, J.(2023, March 30). 硅谷的 AI 内战:埃隆·马斯克和苹果的史蒂夫·沃兹尼亚克表示这可能对人类构成“灾难”。那么比尔·盖茨和谷歌为什么认为它是未来?《每日邮报》。www.dailymail.co.uk/sciencetech/article-11916917/The-worlds-greatest-minds-going-war-AI.html
Marcus, G., & Davis, E.(2019). 重启 AI:构建我们可以信赖的人工智能。Pantheon Books。
Martinez, P.(2023, March 31). ChatGPT 如何改变公关游戏。《新闻周刊》。www.newsweek.com/how-chatgpt-transforming-pr-game-1791555
Maslej, N., Fattorini, L., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Ngo, H., Niebles, J. C., Parli, V., Shoham, Y., Wald, R., Clark, J., & Perrault, R.(2023). 2023 年 AI 指数年度报告(AI 指数,第 386 页)。以人为本的 AI 研究所。aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf
McAdoo, T.(2023, April 7). 如何引用 ChatGPT。APA 风格。apastyle.apa.org/blog/how-to-cite-chatgpt
McLean, S.(2023, April 28). ChatGPT 的环境影响:呼吁在 AI 发展中实施可持续实践。Earth.org。earth.org/environmental-impact-chatgpt/
McTighe, J., & Wiggins, G.(2013). 关键问题:开启学生理解之门。协会监督和课程发展。
Mészáros, I.(2005). 马克思的异化理论。Merlin。
Mhlanga, D.(2023). 教育中的开放 AI,ChatGPT 的负责任和道德使用以促进终身学习。papers.ssrn.com/sol3/papers.cfm?abstract_id=4354422
Milmo, D.(2023a, 二月 3 日). 谷歌在 ChatGPT 成功后准备发布聊天机器人技术。《卫报》。www.theguardian.com/technology/2023/feb/03/google-poised-to-release-chatbot-technology-after-chatgpt-success
Milmo, D.(2023b, 四月 17 日). 谷歌首席执行官警告,如果部署不当,AI 可能有害。《卫报》。www.theguardian.com/technology/2023/apr/17/google-chief-ai-harmful-sundar-pichai
Milmo, D.(2023c, 五月 4 日). 英国竞争监管机构启动对 AI 市场的审查。《卫报》。www.theguardian.com/technology/2023/may/04/uk-competition-watchdog-launches-review-ai-market-artificial-intelligence
Milmo, D.(2023d, 五月 20 日). 英国学校被 AI“困惑”,校长们表示不信任科技公司。《卫报》。www.theguardian.com/technology/2023/may/20/uk-schools-bewildered-by-ai-and-do-not-trust-tech-firms-headteachers-say
Milmo, D.(2023e, 七月 11 日). OECD 表示,AI 革命将使熟练工作面临最高风险。《卫报》。www.theguardian.com/technology/2023/jul/11/ai-revolution-puts-skilled-jobs-at-highest-risk-oecd-says
Milmo, D.(2023f, 七月 26 日). 谷歌、微软、OpenAI 和初创公司成立机构以监管 AI 发展。《卫报》。www.theguardian.com/technology/2023/jul/26/google-microsoft-openai-anthropic-ai-frontier-model-forum
Mok, A., & Zinkula, J.(2023, 四月 9 日). ChatGPT 可能要来抢我们的饭碗了。以下是 AI 最有可能取代的 10 个职位。商业内幕。www.businessinsider.com/chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023-02
Moran, C.(2023, 四月 6 日). ChatGPT 正在编造假的《卫报》文章。这是我们如何应对的。《卫报》。www.theguardian.com/commentisfree/2023/apr/06/ai-chatgpt-guardian-technology-risks-fake-article
Nelson, N.(2001). 写作以学习。写作研究。在 P. Tynjälä, L. Mason, & K. Lonka(主编),写作作为学习工具(第 7 卷)。Springer。doi.org/10.1007/978-94-010-0740-5_3
Neumann, M.,Rauschenberger, M.,& Schön, E.-M.(2023)。我们需要谈谈 ChatGPT:人工智能与高等教育的未来 [教育]。汉诺威应用科学大学。doi.org/10.25968/opus-2467
O'Flaherty, K.(2023,4 月 9 日)。网络犯罪:小心你对聊天机器人助手说的话……卫报。www.theguardian.com/technology/2023/apr/09/cybercrime-chatbot-privacy-security-helper-chatgpt-google-bard-microsoft-bing-chat
Paleja, A.(2023a,1 月 6 日)。在世界上首次,人工智能律师将帮助在美国辩护一个真实案例。有趣工程。
Paleja, A.(2023b,1 月 30 日)。Gmail 的创造者表示,类似 ChatGPT 的人工智能将在两年内摧毁谷歌的业务。有趣工程。
Paleja, A.(2023c,4 月 4 日)。ChatGPT 禁令:其他国家会效仿意大利吗?有趣工程。
Patton, M.(2002)。定性研究与方法(第 3 版)。SAGE 出版社。
暂停巨型人工智能实验:一封公开信。(2023 年 3 月 22 日)。生命未来研究所。futureoflife.org/open-letter/pause-giant-ai-experiments/
Ramponi, M.(2022,12 月 23 日)。ChatGPT 实际上是如何工作的。AssemblyAI。www.assemblyai.com/blog/how-chatgpt-actually-works/
Ray, S.(2023,5 月 25 日)。ChatGPT 可能离开欧洲,OpenAI 首席执行官警告,在美国国会呼吁人工智能监管后不久。福布斯。www.forbes.com/sites/siladityaray/2023/05/25/chatgpt-could-leave-europe-openai-ceo-warns-days-after-urging-us-congress-for-ai-regulations/?sh=83384862ed85
以目的为导向重新思考课堂评估:学习评估;作为学习的评估;学习的评估。(2006 年)。曼尼托巴省教育、公民和青年。open.alberta.ca/publications/rethinking-classroom-assessment-with-purpose-in-mind
Robertson, A.(2023,4 月 28 日)。ChatGPT 在禁令解除后重返意大利。The Verge。www.theverge.com/2023/4/28/23702883/chatgpt-italy-ban-lifted-gpdp-data-protection-age-verification
Rudolph, J.,Tan, S.,& Tan, S.(2023)。ChatGPT:胡言乱语者还是高等教育传统评估的终结?应用学习与教学杂志,6(1),1–22。doi.org/10.37074/jalt.2023.6.1.9
Russell, S.(2019)。人类兼容:人工智能与控制问题。企鹅出版社。
Sabarwal, H.(2023, April 18). 埃隆·马斯克将推出他的 AI 平台“TruthGPT”。《WION》. www.wionews.com/technology/elon-musk-to-launch-his-ai-platform-truthgpt-583583
Şahin, M., & Fell Kurban, C.(2019). 《新型大学模式:翻转、适应性、数字化和主动学习(FADAL)- 未来展望》. FL Global Publishing.
Sánchez-Adame, L. M., Mendoza, S., Urquiza, J., Rodríguez, J., & Meneses-Viveros, A.(2021). 评估聊天机器人的启发式方法。《IEEE 拉丁美洲学报》, 19(12), 2037–2045. doi.org/10.1109/TLA.2021.9480145
Sankaran, V.(2023, July 19). Meta 展示其 ChatGPT 竞争对手 llama。《独立报》. www.independent.co.uk/tech/meta-llama-chatgpt-ai-rival-b2377802.html
Schamus, J.(2023, May 5). 好莱坞认为它可以分而治之,击败编剧罢工。这不会奏效。《卫报》. www.theguardian.com/commentisfree/2023/may/05/hollywood-writers-strike-james-schamus
Sharma, S.(2023, May 24). 未来 10 年内人工智能可能超越人类 – OpenAI 呼吁设立安全措施。《有趣工程》.
Shum, H., He, X., & Li, D.(2018). 从 Eliza 到 XiaoIce:社交聊天机器人的挑战与机遇。《信息技术与电子工程前沿》, 19(1), 10–26.
Smith, J.(2023, March 29). “这是一场无人能预测或控制的危险竞赛”:埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和其他 1000 多位科技领袖呼吁暂停开发可能对社会和人类构成“深刻风险”的人工智能。《每日邮报》. www.dailymail.co.uk/news/article-11914149/Musk-experts-urge-pause-training-AI-systems-outperform-GPT-4.html
Stacey, K., & Mason, R.(2023, May 26). Rishi Sunak 在对存在风险担忧的情况下加快制定人工智能规则。《卫报》. www.theguardian.com/technology/2023/may/26/rishi-sunak-races-to-tighten-rules-for-ai-amid-fears-of-existential-risk
Stake, R. E.(1995). 《案例研究法艺术》. SAGE.
Stern, J.(2023, April 4). 人工智能在机器人领域跑得风生水起。《大西洋》. www.theatlantic.com/technology/archive/2023/04/ai-robotics-research-engineering/673608/
Sullivan, M., Kelly, A., & McLaughlan, P.(2023). ChatGPT 在高等教育中的考量:学术诚信与学生学习的考虑。应用学习与教学杂志,6(1),1–10. doi.org/10.37074/jalt.2023.6.1.17
Tamim, B.(2023, March 30). 预计今年将推出 GPT-5,ChatGPT 可能将无法与人类区分。有趣工程。
Tarantola, A.(2023, January 26). Buzzfeed 成为最新一家拥抱 AI 生成内容的出版商。Engadget。
Taylor, J., & Hern, A.(2023, May 2). ‘人工智能之父’杰弗里·辛顿离开谷歌并警告虚假信息危险。卫报。 www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning
Tegmark, M.(2017). 生命 3.0:人工智能时代的人类。企鹅出版社。
Thurmond, V. A.(2001). 三角测量的要点。护理学术杂志,33(3),253–258. doi.org/10.1111/j.1547-5069.2001.00253.x
Tilley, C.(2023, May 16). 现在连世界卫生组织也警告人工智能——表示我们必须踩刹车。每日邮报。 www.dailymail.co.uk/health/article-12090715/Now-World-Health-Organization-warns-against-artificial-intelligence.html
Tlili, A., Shehata, B., Agyemang Adarkwah, M., Bozkurt, A., Hickey, D. T., Huang, R., & Agyeman, B.(2023). 如果恶魔是我的守护天使:ChatGPT 作为教育中使用聊天机器人的案例研究。智能学习环境,1–24. doi.org/10.1186/s40561-023-00237-x
Tonkin, S.(2023, March 31). 你能用 ChatGPT 赚到$335,000 吗?随着 AI 机器人的兴起,新创造的职位薪酬丰厚(而且你甚至不需要学位!)MailOnline。 www.dailymail.co.uk/sciencetech/article-11924083/Could-make-335-000-using-ChatGPT.html
Tyson, L.(2023). 当代批判理论:用户友好指南(第 4 版)。劳特利奇出版社。
Vincent, J.(2022, December 8). ChatGPT 证明人工智能终于成为主流——事情只会变得越来越奇怪。The Verge。 www.theverge.com/2022/12/8/23499728/ai-capability-accessibility-chatgpt-stable-diffusion-commercialization
沃,R.(2023 年 3 月 14 日)。ChatGPT 2.0:创造了一个震惊世界的 AI 机器人,并推出了更强大的版本“GPT4”——并承认它如此先进,可能会“危害社会”。《每日邮报》。www.dailymail.co.uk/sciencetech/article-11860115/ChatGPT-2-0-Creator-AI-bot-took-world-storm-launches-powerful-version.html
韦伯,J.,施拉托,T.,& 达纳赫,G.(2002 年)。理解布迪厄。SAGE。
怀特,J.(2023 年)。ChatGPT 的提示工程(MOOC)。Coursera。www.coursera.org/learn/prompt-engineering
韦金斯,G.,& 麦克蒂格,J.(1998 年)。设计理解(第 2 版)。ASCD。
威廉姆斯,T.(2023 年 8 月 9 日)。AI 文本检测器不起作用。监管是答案吗?《泰晤士高等教育》。
威廉姆斯,T.,& 格罗夫,J.(2023 年 5 月 15 日). 五种方式 AI 已经改变高等教育。《泰晤士高等教育》。
邢,R. K.(1984 年)。案例研究:设计和方法(第 1 版)。SAGE。
邢,R. K.(1994 年)。案例研究:研究设计和方法(第 2 版)。SAGE。
邢,R. K.(2011 年)。案例研究应用。SAGE。
赵晓,X.(2022 年)。ChatGPT 用户体验:对教育的启示。[教育] ssrn.com/abstract=4312418

浙公网安备 33010602011771号