ChatGPT 与大学:人工智能作弊的挑战与应对


全国各地的大学一直在召开荣誉守则委员会或其他管理学生作弊行为的委员会的紧急会议。



原因:由于一种名为ChatGPT的新型人工智能工具,一种全新的作弊方式突然成为可能。这项技术在几个月前才出现,它可以回答你输入的几乎任何问题,并且可以根据命令将这些答案改编成不同的风格或语气。结果是,它生成的文本听起来像是人写的。
正如我们在几周前在EdSurge播客的一集中探讨的那样,全国各地学校和大学的学生已经发现他们可以很容易地要求ChatGPT为他们做作业。毕竟,它是为编写讲师要求的各种论文量身定制的。
因此,教授们很快做出了回应。
例如,在德克萨斯州立大学,整个校园的教授们开始向荣誉守则委员会发送电子邮件,寻求帮助。
“现在,很多教授已经在与倦怠和脱离接触以及许多其他问题作斗争,即使是那些拥抱范式转变的人,至少也会叹息——哎,这又是另一件需要我注意的事情,”该大学生物学高级讲师、荣誉守则委员会副主席雷切尔·达文波特说。
她指出,这属于那些愿意改变的教授之列:“另一种普遍的情绪是恐惧,认为‘这把我所做的一切都抛入了混乱。我该怎么抓住它?’”
在本周的EdSurge播客中,我们将为您带来第二部分,探讨ChatGPT对教学的意义。我们的重点是大学荣誉守则委员会正在采取什么措施来应对。
在Apple Podcasts、Overcast、Spotify、Stitcher或任何您获取播客的地方收听该剧集,或使用此页面上的播放器。或者阅读下面的部分文字记录,为了清晰起见进行了精简和编辑。
为了获得全国性的视角,EdSurge最近联系了德里克·牛顿,他是一位记者,运营着一份名为《Cheat Sheet》的每周Substack新闻通讯,内容涉及学术诚信和作弊行为。
他说:“这对于所有级别的教学和学习人员来说,一直是一个非常响亮的警钟。”
过去,任何新的作弊方法都传播缓慢,通常秘密地在互联网的黑暗角落里进行。有了ChatGPT,短短几个月内就得到了广泛的应用。
牛顿说:“我数了一下,《纽约时报》上有大约六篇关于ChatGPT的专栏文章。”“这种可见度几乎是前所未有的,除了战争之外。”
回到德克萨斯州立大学,雷切尔·达文波特指出,她最近为了赶上形势而做的一件事是同时尝试了ChatGPT和一种旨在检测机器人编写的写作的工具,名为GPTZero。达文波特是一位训练有素的科学家,所以她的冲动是进行自己的实验。
她说:“我通过GPTZero运行了九份提交的材料。”“其中六份是人类写的,三份是我让ChatGPT生成的。在这九份中,有七份被[GPTZero]正确识别。在没有被正确识别的两个中,它们也没有被错误地识别。它只是说他们需要更多信息。其中一份是学生写的,另一份是ChatGPT写的。”
周一,德克萨斯州立大学的荣誉委员会向每位教职员工发送了一封关于ChatGPT的信。主题是:“人工智能(ChatGPT)与大学荣誉守则政策。”
这是它的开头:
“在我们开始2023年春季学期的第二周时,我们想简要提及人工智能(AI)的最新发展以及学生在准备用于学术学分的课程交付物时可能出现的潜在荣誉守则影响。我们的机构、教学和评估方法以及后续行业都依赖于计算机来协助日常工作任务。然而,当使用计算机代替个人思考、创作和知识综合,通过虚假提交一篇(全部或部分)作为自己原创作品的论文时,就会导致学术诚信违规。”
它继续提醒教职员工有关规则和荣誉守则的一些基本知识,并指出了一些教授可以查看的资源,以了解更多关于ChatGPT的信息。
事实证明,当涉及到ChatGPT以及这种人工智能生成听起来像人类语言的能力时,还有更深层次的问题需要考虑。因为我们很可能正处于我们更广泛使用技术的一个重大转折点,在现实世界中,许多情况下人们使用人工智能来完成事情。
前几天,当我和西蒙·麦考勒姆交谈时,谈到了这个问题,西蒙·麦考勒姆是一位教授,在新西兰惠灵顿维多利亚大学教授电子游戏设计。
他告诉我,他开始和他的学生一起使用人工智能工具,这些工具可以将用一种编程语言编写的代码转换成另一种语言的代码。它被称为GitHub Copilot,有点像ChatGPT,但适用于计算。
麦考勒姆说:“我一直在与使用人工智能编码器的行业程序员和长期使用人工智能进行文案写作的广告商交谈。”“如果行业正在使用这些工具,如果我们试图回到笔和纸……并且我们试图强迫人们不使用这些工具,那么我们的评估就会变得越来越无效。”