探讨课堂中生成型人工智能的道德使用
生成式人工智能最近一直是关于几乎所有领域未来的讨论的前沿。它有潜力彻底改变我们工作和思考的方式。在许多方面,变革已经开始了。像ChatGPT、Bing和Bard这样的工具迅速走红,并且发展得如此迅速,以至于行业专家和政策制定者无法跟上。
历史上首个此类政策
CMAC联合创始人和执行董事韦斯利·J·维尔德曼博士一直是这些对话中的主要发言人。今年二月,维尔德曼博士要求他在波士顿大学的《数据、社会和伦理》课程中创建一项关于在学术环境中使用生成AI工具的政策。这个班级讨论了如何将生成AI纳入课程中。
华曼博士承认,学生可能会使用人工智能来生成答案时,他很难知道如何评分。但另外,他也希望有机会向学生清晰地表达他们如何利用技术来辅助学习,而不损害他们未来在人工智能驱动下所需的技能。
作为教授对我最有帮助的事情就是倾听学生的声音,他们很清楚地表达了“我们需要帮助来了解如何使用生成式人工智能。我们不想损害自己的技能,也不想其他人作弊。”
—韦斯利·维尔德曼,WHDH
很快就清楚,全面禁止是不合理的,它会让学生在大学毕业后无法做好职业准备。基本上,他们班制定的生成式 AI 辅助(GAIA)政策概述了学生应该使用像 ChatGPT 这样的 AI 来自动化琐碎的任务。然后,他们需要负责批判性地思考 AI 的输出,并在此基础上创造出新颖的东西作为他们的作业。该政策还为教师提供评分准则,鼓励他们检查作业中生成式 AI 的使用程度,并为使用 ChatGPT 等工具的作业建立“基准”。
在几周内,计算机和数据科学系采纳了该政策。《BU Today》和《波士顿环球报》报道了这种独特的方法,这可能是国内第一个关注生成AI的学术政策。该政策有潜力在波士顿大学范围内得到采用,并根据大学不同学院的反馈进行调整。
在Crux播客上的一次采访中,Wildman博士解释了ChatGPT是另一种培训学生的工具。大学可能会想把生成式AI归入抄袭的范畴,实行全面禁止,但这是不切实际的。检测生成式AI的使用很困难,并且在标准的抄袭检查中可能会产生误报。Wildman博士鼓励大学考虑到他们所谈论的教育和培训学生的含义。大多数教授都允许学生彼此讨论复杂的思想、在线寻找资源,并在课程期间了解课题的情况。ChatGPT等类似工具可以被视为这种发现的一种途径,只要学生能够展示他们在超越AI的输出之外进行了批判性思考。就像写作或印刷术革新了人类思考和学习方式一样,我们都需要接受如何通过生成式AI视角进行思考的培训。
我认为我们所谈论的更像是印刷机,它正在改变人们使用工具来扩展他们的认知能力,超越他们自己的思想方式。我们已经非常擅长使用各种工具——计算器等等。但印刷机改变了我们的思考方式,改变了我们彼此教导的方式,改变了教育的方方面面,这在规模上有些相似。
——Wesley Wildman,BU Today
在Reddit AMA讨论串中,Wildman博士不仅着眼于高等教育,而且谈到了K-12教育政策的概念。他说,(保持HTML结构)。
K-12教育关键在于使用写作来帮助学生学习思考。由于AI文本生成无法阻挡,即使在学校网络上阻止它,我们可能需要重新考虑教学学生思考的方法。在STEM教育中,我们适应了算盘、滑动尺、算术计算器、科学计算器、图形计算器和数学软件等工具——我们通过重新考虑教育优先事项来做到这一点。我认为,AI文本生成是一个更深层次的问题,但同样的原则适用。如果我们的目标是教学生如何思考,就要回顾一下印刷术出现之前我们是如何做到的。主要是通过口头表达和环境观察。我们有其他方法履行我们对学生的神圣职责,包括教授他们如何思考。这不是一项政策,而是一项程序。教师需要通过思考他们的教育目标来超前思考。
伦理关切
生成式人工智能本质上是一种算法,具有根据统计概率完成句子的能力。一种新的发展称为变压器已经让人工智能在复制人类语言方面显著提高。这些算法受过大量数据的训练,以更好地预测哪些单词会相继出现。
在接受HealthMatters播客采访时,Wildman博士概述了一些关于这些数据出现的道德关切。
- 数据必须来自某处。虽然一些公司相对透明地公开它们的数据来源,但大部分情况下我们并不知道。关于数据来源,也存在着关于偏见的道德问题。
- 内容必须进行审核,算法必须接收有关正确和有帮助的反馈意见。在大多数情况下,这种审核外包给了劳动力成本更低的第三世界国家。
- 当然,存在经济干扰和工作动荡的潜力。