人工智能赋能:改善残疾学生教育的潜力与挑战

生成式人工智能在改善残疾学生的生活和提高公平性方面可能蕴藏着怎样的潜力?
这个问题激发了去年由斯坦福学习加速器主办的研讨会,该研讨会汇集了教育研究人员、技术专家和学生。研讨会包括一个黑客马拉松,残疾教师和学生与人工智能创新者一起开发产品原型。
研讨会产生的想法和产品被总结在一份最近由斯坦福发布的白皮书中。这些概念包括人工智能如何帮助早期识别学习障碍,以及与将使用产品的年轻人一起为残疾学生共同设计产品。
EdSurge 采访了斯坦福学习加速器的执行董事伊莎贝尔·豪,以了解更多信息。本次采访已为简洁和清晰度进行了编辑。
EdSurge:我非常喜欢这种为边缘群体设计的想法,为那些处于边缘、其需求可能常常被忽视的学生设计。
伊莎贝尔·徐:这也是我最喜欢的部分。
长期以来,残疾人一直在边缘为他们所面临的特定主题和问题进行创新,但这些创新最终使所有人受益。
文本转语音是一个明显的例子,但我们在更大的世界中可以看到很多这样的例子。我们希望通过这次活动,如果我们开始考虑有特殊需求的人,那么即将到来的创新也将最终使比我们想象的更多的人受益。因此,在这里利用这项令人难以置信的技术,它能够提供更高的精度,并以一种可以在某个时刻使每个人受益的方式展示学习者的可变性,这是一个非常有趣的想法。
对,我想我也在城市设计中听到了这个概念。如果你为行动不便的人设计,也许你正在为使用电动轮椅的人或没有汽车的人设计,所有这些设计最终都会使所有使用道路的人受益。
完全正确。安吉拉·格洛弗·布莱克威尔发明了“路缘切割效应”这个术语,如果你有为使用轮椅的人设置路缘的道路,那么它也有利于可能推着手推车或婴儿车的人。我喜欢这个术语。
这种为每个学生设计,不让他们被他们的局限性定义,并且最终在现实世界中实施这些解决方案的想法,似乎有点令人望而却步。在研讨会期间或在讨论这个问题的小组中,这是否让你感到畏惧?仅仅从阅读报告来看,我感觉,“天哪,这真是座需要攀登的高山。” 在合作过程中,你是否有过这种感觉?
我不记得有畏惧的感觉。我的感觉实际上非常不同。它更像是一种灵感,对有这样一场活动而心存感激,人们感到被看到和被听到,而且人们觉得自己正在为一个重要的话题而努力。你有一种成为解决方案一部分的感觉,以及随之而来的感激和赋权。
每个人都被要求参与和贡献,每个人都做出了伟大的贡献,从不同的角度或专业水平来贡献。例如,我们有教师可能不是技术专家,然后我们有技术专家没有任何课堂经验,但每个人都用自己的观点做出了有意义的贡献。
根据我所报道的关于为残疾学生提供服务的情况,其中很多都围绕着资源的缺乏以及“我们如何获得这些资源,以便教师能够更好地完成他们的工作?”这个问题展开。解决方案是更多的资源,但如何获得这些资源从未真正得到解决。所以很高兴听到人们感到充满活力和希望,而且他们显然正在提出解决方案,而不是像我这样的经验,我写的是关于缺陷的。
完全正确。我不想听起来太天真。他们当然知道关于现有系统及其局限性的讨论——我们有一个具有某些规定的系统,但资金并不总是在适当的支持到位。
我们有一个非常棒的男人,名叫大卫·查克,他讲述了他经历教育系统的经历,他患有阅读障碍,一生中在教育系统中经历了可怕的经历。他在62岁时学会了阅读。
他生动地讲述了他在学校是如何被欺负的,以及学校系统是如何真正不适合他自己的需求的。大卫正在开发一种人工智能工具来解决其中的一些挑战。所以你明白我的意思了吗?当然,人们更加关注思考未来和未来的解决方案,这些方案可以带来一些希望,并在许多人的生活中产生积极的影响,但这些都是从教育系统中的非常悲惨的经历中产生的。
你能否举一个例子,如果我是在一所学校,这所学校采用了这些使用人工智能来增加残疾学生入学机会的概念,那么我可能在日常生活中会看到的变化是什么?
让我以大卫为例。所以如果年轻的大卫正在经历教育系统,理想情况下,按照我们提出的愿景:大卫会比62岁更早地通过这些评估工具被识别出来。理想情况下,更接近一年级甚至学前班。
有一整类创新者,包括来自斯坦福的一位,正在开发非常有意思的评估工具,以支持评估、早期识别阅读障碍。对于像大卫这样的人来说,如果你的阅读障碍被识别得比62岁更早——显然,这在大卫的案例中有点极端——但你就可以获得专门的支持,并避免很多孩子和家庭目前正在经历的事情,即孩子们很晚才被告知,然后这些孩子会失去自尊和自信。
大卫所描述的欺凌,我从其他许多城市都听说过,当一个孩子因为阅读障碍而无法阅读时,这并不是因为他们不聪明。他们非常聪明。只是他们需要不同的特殊支持。如果你更早地被告知这些需求,孩子就可以开始阅读,并以更快的方式发展惊人的技能。而且,伴随着建立自信和自尊,所有这些社交情感技能也可以与阅读技能一起建立起来。
在斯坦福,我们不仅在构建评估——我们称之为ROAR,即快速在线阅读评估——我们还在构建另一款我们也在报告中重点介绍的工具,名为Kai。这是一个阅读支持工具。因此,既有评估,也有针对那些在学习如何阅读方面遇到更多困难的儿童的课堂阅读干预。
报告中有一整节关于人工智能和残疾学生个性化教育计划的部分。人工智能的作用是更多地关于自动化吗?人们是否以此方式设想它,通过帮助教育工作者更有效地制定IEP?
有很多讨论,因为人工智能在IEP方面有一些明确的应用。让我给你举一个具体的例子,实际上是黑客马拉松的获胜者。显然,这是一个非常早期的原型,在一天之内完成,但它本质上是为家庭和家长提供一个翻译层,解释IEP的实际含义。
我们认为,当家长收到IEP时,我们理解它,但对于家庭来说,有时候理解老师或学校的含义实际上很复杂。因此,这个工具本质上是增加了一些方法,让家庭了解IEP实际上[包含]了什么,并且还添加了一些多语言翻译和其他人工智能非常擅长的东西。
房间里还有另一个人正在开发另一个工具,我认为它超越了效率。它也几乎进入了有效性而不是效率的领域,在那里,拥有一个或多个有IEP的孩子们的老师可以通过人工智能获得关于我们可能想要考虑的不同干预措施的支持。它并非旨在对教师具有规定性,而更多地是在提供不同的一系列建议方面提供支持。比方说一个患有多动症的孩子和一个有视力障碍的孩子。你如何在课堂上解决这些不同的需求?因此,为教师提供不同类型的建议。
现有的系统之所以这样,是因为学习差异的多样性几乎从定义上来说,就使得我们人类,特别是教师在课堂上解决这些学习差异变得非常复杂,可能有人工智能也能提供方法,在教学实践方面也更有效。
阅读关于像Kai这样的项目,它是由斯坦福大学的一位教授开发的,用于向残疾学生提供个性化的阅读反馈,报告中有很多地方提到了人工智能分析学生数据。这些团队或这些创新者思考人工智能用途的方式,即学生的数据分析,人工智能能够生成的报告——这与非人工智能教育科技工具生成报告和生成数据的方式有何不同?
有多个层面。其中之一是,你可能可以访问更广泛的信息。我对此持谨慎态度,但这是其中一些工具的希望,你可以访问更广泛的信息集,然后帮助你解决更具体的学习差异,类似于健康或特定疾病。一个希望是可以访问比教育科技公司能够利用的数据集更大的数据集。
教育科技和生成式人工智能能力之间的另一个区别是,你拥有了这种生成,即你可以从大数据中得出的这些推论,它可以帮助我们人类或让我们在不同类型的活动中变得更好。我们在斯坦福的观点是,我们永远不会取代人类,但我们可以提供信息。让我们[说]一个普通教育老师第一次有一个或多个有不同学习差异的孩子,但这位老师实际上可以使用根据他们的平台量身定制的建议[使用人工智能]。
这与甚至在生成式人工智能能力出现之前就存在的顶级教育科技自适应工具非常不同,这些工具更加静态,而不是能够真正针对特定环境,不仅仅给你信息,而且生成关于你如何根据你非常特定的课堂使用它的建议,你可以说,“伊莎贝尔有视力障碍,凯瑟琳在某些数学概念上有困难。” 这非常具体。即使使用自适应技术,你也无法做到这一点,而这些技术是更个性化的工具。
我对关于使用人工智能进行需求识别的部分非常感兴趣。你刚刚提到使用这种环境数据来帮助尽早识别残疾。我想提出隐私这个概念。
即使在我每天使用互联网的过程中,感觉我们总是在被跟踪,总是有某种监控在进行。
这些人工智能创新者如何平衡人工智能可能带来的所有可能性,分析我们无法访问的大量数据,以及隐私,以及可能总是被注视和总是被分析的感觉,尤其是在学生数据方面?你是否觉得你必须阻止那些过于兴奋的人,并说,“嘿,考虑一下学生在这方面的隐私?”
这些都是巨大的、巨大的问题——关于隐私的这个问题,还有安全问题。然后是关于不正确推论的问题,这也可能进一步加剧某些特定人群的少数化。
隐私、安全是一个大问题。我注意到,对于我们的许多学区合作伙伴来说,这显然是最重要的,而且显然受到了监管,但目前存在的最大问题是,这些系统让每个人都觉得它与机器的交互是私人的。所以你坐在电脑、手机或设备前,你现在正在与聊天机器人对话。它有一种非常有趣的感觉,这是一种私密的、安全的关系,但实际上并非如此。除非数据以某种方式安全,否则这是一个公开的、高度公开的关系。
我认为学校在过去两年里做得非常好,在培训每个人,而且我在斯坦福也看到了这一点。你为人工智能的使用提供了越来越多安全的环境,但我会说,考虑到可能共享的信息的敏感性,这当然对有学习差异的儿童来说是加剧的。我认为这里最关心的问题是这些数据的隐私和安全。
人们对人工智能在教育中的早期担忧之一是人工智能工具可能因为数据训练方式而产生的种族偏见。当然,我们知道残疾学生或学习差异学生也面临着污名化。你认为如何防止人工智能中可能存在的偏见,从而识别或可能过度识别已经在学习障碍方面代表性过度的某些人群?
[偏见]是一个与学习差异相关的问题,已经被研究充分记录,包括我非常亲爱的同事伊丽莎白·科兹莱斯基,她在这方面做了出色的工作,这被称为不成比例。这意味着某些亚群体,尤其是种族和族裔群体,在学习差异的评估中被过度代表。这在人工智能中是一个关键[问题],因为人工智能采用了历史数据,我们随着时间推移建立的整个数据体,理论上是基于历史数据的未来。
因此,鉴于这些历史数据已被证明具有基于某些人口统计特征的重大偏见,我认为这是一个非常、非常重要的问题,你正在提出。我还没有看到关于人工智能与学习差异的观点的数据,关于它们是否存在偏见,但当然,我们在斯坦福做了很多工作,包括至少三、四年在教育领域,表明现有系统存在一些重大的偏见。
我认为这是一个技术开发者实际上渴望做得更好的领域。他们并不想让偏见继续存在。因此,这是一个研究实际上可以帮助改进技术开发者实践的领域。
正如你提到的,参加峰会的人中有患有学习差异的人。你认为这对于抑制可能存在的任何偏见是否重要?
实际上,我们所领导的这项工作的全部好处是与学习差异学习者共同设计、为了学习差异学习者,拥有实际体验。巨大。我在黑客马拉松期间看到了这一点,当时我们向来自微软、谷歌和其他大型科技公司的朋友们征集志愿者,其中一些人分享了他们在成长过程中也有一些学习差异。所以这让我感到希望,实际上在那些大型科技公司中也有一些人,他们也有兴趣研究这些特定的话题,并使它们不仅对他们自己,而且对更广泛的社区更好。
你认为报告中出现的一些最关键的想法是什么?你真的受到了什么影响?
显然,共同设计的重要性,我们已经讨论过了。还有另一个主题,我认为这真的很有希望,它与通用设计学习有关。
人工智能正在向多模态发展。我的意思是,除了文本之外,你还有越来越多的人工智能用于视频和音频。这是通用设计学习框架的强烈建议之一。例如,如果你有听力或视力障碍或其他类型的学习差异,你需要不同的模式。所以我实际上认为这是这些技术的一个充满希望的领域。事实上,它本质上是在朝着多模态的这一方面发展,这实际上可以使更多的学习者受益。
这与学生需要成功而不是千篇一律的这种差异化的想法完全一致。
完全正确,而实际上,通用设计学习框架的核心建议之一是采用多模态方法,而这项技术做到了这一点。我也不想听起来像个乐天派,但我们讨论了一些风险,但这是人工智能与通用设计学习框架紧密结合的领域之一,如果没有这项技术,我们就无法做到这一点。这项技术实际上可以为更广泛的学习者带来一些新的可能性,这非常令人鼓舞。