人工智能时代的教育:青少年、道德与公平

作者:玛吉·希克斯2025年09月02日
人工智能时代的教育:青少年、道德与公平

当像ChatGPT这样的人工智能Artificial Intelligence工具在2022年首次向公众推出时,加州大学欧文分校的学术人事副教务长Gillian Hayes回忆说,人们在对人工智能Artificial Intelligence的真正含义和使用方式一无所知的情况下,就为人工智能Artificial Intelligence制定规则。

Hayes说,那一刻感觉就像是工业或农业革命。

“人们只是试图利用他们所能掌握的一切来做出决定。”

为了看到更多更清晰的数据的需求,Hayes和她的同事、加州大学欧文分校的心理科学与信息学教授Candice L. Odgers发起了一项全国性调查,调查人工智能Artificial Intelligence在青少年、家长和教育工作者中的使用情况。他们的目标是收集广泛的数据,这些数据可用于持续调查人工智能Artificial Intelligence的使用和态度如何随时间推移而变化。

研究人员与教育研究组织foundry10合作,调查了1510名年龄在9至17岁之间的青少年,以及美国2826名K-12学生的家长。然后,他们进行了一系列焦点小组,包括家长、学生和教育工作者,以更好地了解参与者对人工智能Artificial Intelligence的了解,什么让他们担忧,以及它如何影响他们的日常生活。研究人员于2024年秋季完成了数据收集,并于今年早些时候发布了一些调查结果。

结果让Hayes和她的团队感到惊讶。他们发现,研究中的许多青少年都意识到围绕人工智能Artificial Intelligence的担忧和危险,但他们没有适当使用它的指导方针。研究人员说,如果没有这种指导,人工智能Artificial Intelligence可能会令人困惑和复杂,并且可能阻止青少年和成年人以合乎道德和富有成效的方式使用这项技术。

道德指南针

Hayes对调查中青少年很少使用人工智能Artificial Intelligence以及他们使用人工智能Artificial Intelligence的方式感到特别惊讶。只有大约7%的人每天使用人工智能Artificial Intelligence,而且大多数人通过搜索引擎而不是聊天机器人来使用它。

Hayes说,调查中的许多青少年也拥有“强大的道德指南针”,并且正在面对使用人工智能Artificial Intelligence带来的伦理困境,尤其是在课堂上。

Hayes回忆说,一位青少年参与者自行出版了一本书,该书的封面使用了人工智能Artificial Intelligence生成的图像。这本书还包含一些人工智能Artificial Intelligence生成的内容,但主要是原创作品。后来,这位参与者的母亲,帮助他们出版了这本书,与学生讨论了人工智能Artificial Intelligence的使用。这位母亲说,在这种情况下使用人工智能Artificial Intelligence是可以的,但他们不应该用它来写作业。

Hayes说,年轻人通常不是想作弊,他们只是不一定知道用人工智能Artificial Intelligence作弊是什么样子。例如,有些人想知道为什么他们被允许让同学审查他们的论文,但不能使用Grammarly,这是一种用于审查文章语法错误的人工智能Artificial Intelligence工具。

Hayes说:“对于绝大多数[青少年]来说,他们知道作弊是不好的。”“他们不想做坏事,他们没有试图蒙混过关,但什么是作弊却非常不清楚,来源是什么,什么不是。我认为很多老师和家长也不知道。”

参与调查的青少年也担心使用人工智能Artificial Intelligence可能会影响他们培养批判性思维能力,foundry10的高级研究员Jennifer Rubin说,她帮助领导了这项研究。她说,他们认识到人工智能Artificial Intelligence是一项他们一生都可能需要的技术,但同时,不负责任地使用它可能会阻碍他们的教育和职业发展。

Rubin补充说:“一个主要的担忧是生成式人工智能Artificial Intelligence将对年轻人的学校发展产生影响,而这对于年轻人来说是一个非常关键的发展时期。”“他们自己也认识到了这一点。”

公平性是一个不错的惊喜

调查结果并未显示人工智能Artificial Intelligence用户之间存在任何公平差距,这让Hayes和她的团队感到意外。

Hayes说,专家们通常希望新技术能够缩小成就差距,并改善农村社区的学生以及来自低收入家庭或其他弱势群体的学生的获得机会。但通常情况下,事实恰恰相反。

但在这项研究中,似乎几乎没有社会差异。虽然很难判断这是否是调查参与者的特有现象,但Hayes推测这可能与人工智能Artificial Intelligence的新鲜感有关。

Hayes说,通常情况下,上过大学或更富裕的家长会教他们的孩子关于新技术及其使用方法。然而,对于人工智能Artificial Intelligence,还没有人完全了解它的工作原理,因此家长无法将这些知识传授给孩子。

Hayes说:“在生成式人工智能Artificial Intelligence的世界里,可能没有人可以搭建支架,所以我们认为没有任何理由相信,你普通的较高收入或较高教育程度的人拥有在这种情况下真正为他们的孩子搭建支架的技能。”“也许每个人都在以降低的能力工作。”

Rubin补充说,在整个研究过程中,一些家长似乎并没有完全理解人工智能Artificial Intelligence的功能。有些人认为它仅仅是一个搜索引擎,而另一些人则没有意识到它会产生虚假输出。

关于如何与孩子讨论人工智能Artificial Intelligence,人们的看法也各不相同。有些人想完全拥抱这项技术,而另一些人则主张谨慎行事。有些人认为年轻人应该完全避开人工智能Artificial Intelligence

Rubin说:“家长们并没有[全部]带着类似的心态进来。”“这真的取决于他们自己使用人工智能Artificial Intelligence的个人经历,以及他们如何看待与滥用[这项技术]相关的伦理和责任。”

制定规则

Rubin说,研究中的大多数家长都同意,学区应该制定关于适当使用人工智能Artificial Intelligence的明确政策。她说,虽然这可能很困难,但这对于学生了解如何安全地使用这项技术来说是最好的方法之一。

Rubin提到了已经开始实施人工智能Artificial Intelligence使用颜色系统的学区。绿色使用可能表明与人工智能Artificial Intelligence合作来集思广益或为文章开发想法。黄色使用可能更像是一个灰色地带,例如要求逐步指导解决数学问题。红色使用将是不适当或不道德的,例如要求ChatGPT根据指定的提示撰写文章。

许多学区还促成了与家长和家庭的听证会,以帮助他们引导与孩子讨论人工智能Artificial Intelligence

Rubin说:“这是一项相对较新的技术;对于不经常使用该工具的家庭来说,关于它有很多谜团和问题。”“他们只是希望有一种方式,让他们可以遵循教育工作者提供的一些指导。”

EDSAFE 人工智能Artificial Intelligence行业委员会(该委员会旨在促进人工智能Artificial Intelligence的安全使用)主席Karl Rectanus鼓励教育工作者和教育机构在使用人工智能Artificial Intelligence时使用SAFE框架来处理问题。Rectanus说,该框架询问使用是否安全、负责、公平和有效,并且可以被大型组织和各个课堂上的教师采用。

Rectanus说,教师有很多责任,因此“要求他们也成为一项技术的专家,坦率地说,即使是开发人员也无法完全理解,这可能是一个过分的期望”。提供需要考虑的简单问题可以“帮助人们在不知道该做什么时继续进行。”

Hayes说,教育工作者需要找到方法来教导学生安全有效地使用它,而不是禁止人工智能Artificial Intelligence。否则,当学生最终进入劳动力市场时,他们将无法为此做好准备。

例如,在加州大学欧文分校,一位教师会给计算机科学专业的学生布置口试。学生们会提交他们编写的代码,并用五分钟的时间来解释它是如何工作的。Hayes说,学生仍然可以使用人工智能Artificial Intelligence来编写代码——正如专业软件开发人员经常做的那样——但他们必须了解这项技术是如何编写代码的以及它是如何工作的。

Hayes说:“我希望我们所有老人们都能适应,并真正思考‘我在这里的真正学习成果是什么,我如何在生成式人工智能Artificial Intelligence无处不在的世界里教授和评估它?’,因为我不认为它会消失。”