“这是你的大脑接触LLM时的样子”,以及其他不该说的话
照片由 Kelly Sikkema 拍摄,来自 Unsplash
最近我有机会参与一个名为Skype a Scientist的项目,该项目将各种类型的科学家(生物学家、园艺学家、工程师、计算机科学家等)与孩子们的课堂配对,与孩子们讨论我们的工作,并回答他们的问题。我与成年观众讨论人工智能和机器学习已经很熟悉了,但这是我第一次认真思考如何向孩子们讲解这个主题,这确实是一个有趣的挑战。今天,我将分享在这一过程中想到的一些想法,这些想法可能对你们生活中有孩子的朋友们或有小孩的家庭有所帮助。
准备解释一下在准备任何演讲时,无论面对什么样的听众,我会遵循一些实用的准则。我需要明确知道我想传达哪些信息,以及他们离开后应该掌握的新信息,因为这将影响我分享的所有内容。我希望根据听众的知识水平适当调整内容,既不会过于简单,也不会过于复杂难懂。
在我的日常生活中,并不一定了解孩子们已经知道的或认为他们知道的人工智能方面的内容。我希望我的解释能够适合听众的水平,但在这种情况下,我对孩子们对人工智能的了解了解得不多。有些时候,我发现孩子们对诸如公司间和国际间的AI竞赛这类问题其实挺有了解。一个有用的练习是在决定如何构建内容时,想出一些基于听众熟知的概念和技术的比喻。考虑这一点也可以帮助你找到与听众的共鸣点。除此之外,准备好根据实际情况调整你的演讲方式,如果你发现没有达到预期效果的话。我喜欢在演讲开始时问孩子们他们对人工智能的看法和了解,这样我可以尽早澄清一些情况。
了解技术特别是和孩子们有关的时候,我在演讲中想要涵盖一些主题。我的读者应该知道,我一直提倡向普通人解释LLM和其他AI模型被训练来做什么,以及它们用什么数据训练,因为这对于正确理解这些模型的结果非常重要。我认为,无论是大人还是小孩,都会被LLM的人性化语气、声音甚至“个性”所迷惑,从而忽视了这些工具在现实中能做什么和不能做什么。实际上,这些工具在现实中的局限性是需要被注意到的。
让它适合各个年龄段是一个挑战,但一旦你向他们解释训练是如何工作的,以及一个大型语言模型是如何从看到的书面材料中学习,或者一个扩散模型是如何从文本-图像对中学习的,他们就能用自己的直觉来猜测这些过程的结果。随着AI变得更复杂,其内部机制也越来越难以区分。用户了解这些能力的基础变得非常重要。
对我来说,我从解释训练作为一般概念开始,尽量避免使用过多的技术术语。当与孩子交谈时,一些人格化语言有助于使事情显得不那么神秘。例如,“我们给计算机提供大量的信息,并让它们学习其中的模式。”接下来,我会举一些具体的例子,比如语言中的模式或图像中的像素,因为单说“模式”这个词太笼统。然后,“它学到的模式会用数学形式记录下来,这些数学公式就成了模型的一部分。现在,当我们给它新的信息时,它会根据学习到的模式给我们一个反馈。”从那里,我会举一个从头到尾的例子,并一步步解释一个简化的训练过程(比如时间序列模型,因为它很容易理解)。之后,我会详细讲讲不同类型的模型,并解释一下神经网络和语言模型的不同之处,根据听众的理解程度来讲解。
AI伦理及其外部影响我也想讨论与AI相关的道德和伦理问题。我认为高年级的小学生和初中生及以上的孩子完全有能力理解AI带来的环境和社会影响。现在的很多孩子对全球气候变化和环境危机的理解已经相当先进,因此,谈论大型语言模型(LLMs)运行时所需电力、水资源和稀有矿物的消耗是合理的。重要的是,要让你的解释既与听众相关,又适合他们的年龄。正如我之前说的,使用与听众生活经历相关并能引起共鸣的例子。
这里是一个从孩子的经历到AI对环境的影响的例子。
“所以你们都有可以用来做作业的笔记本电脑,对吧?你们有没有发现当你们把笔记本电脑放在腿上工作很长时间后,笔记本电脑的背面会变热?如果你同时打开了很多文件,或者看了很多视频?你们笔记本电脑变热的情况和大型计算机——也就是当大型语言模型被训练或使用时所运行的服务器——变热的情况是一样的,比如当你在chatGPT网站上聊天时。就像你们使用笔记本电脑一样。
支持chatGPT的数据中心里有很多服务器同时在运行,并且都变得非常热,这会导致机器过热,这对机器来说不太好。所以,有时候这些数据中心会使用冷却水加上一些化学物质,通过管道直接输送到服务器,这些方法可以帮助冷却机器并让它们继续运行。然而,这意味着大量的水被混合了化学物质并被加热,这可能意味着水不再可供人们用于其他用途,比如农业或饮用水。
有时,这些数据中心会使用大型空调,这需要大量电力来运行,这意味着可能会影响到我们家里的电力供应,甚至影响到企业的运营。电力有时则是通过燃烧煤炭的发电厂产生的,这会产生废气并排放到空气中,从而增加污染。”
这将孩子的经历带入讨论中,并给他们一个具体的方式让他们与这个话题联系起来。你可以围绕版权伦理和盗取内容进行类似的讨论,使用孩子们熟悉的艺术家和创作者,而不需要涉及复杂的知识产权法律知识。无论是涉及色情的还是其他类型的深度伪造,也是许多孩子熟悉的主题,重要的是在使用AI时,让孩子们知道这些内容可能带来的风险。
这可能会让年幼的孩子们感到害怕,当他们开始理解一些人工智能的不道德应用及其带来的全球挑战时,并意识到这些技术的强大之处。我曾有孩子问过“如果有人教人工智能去做坏事,我们该怎么办?”例如。我希望我能有更好的回答,因为我基本上只能说“人工智能已经有时具备做坏事的信息,但也有许多人正在努力使人工智能更安全,防止它分享任何坏的信息或有关如何做坏事的指令。”
聊聊“真理”的含义无论是成人还是儿童,都将人工智能拟人化的问题适用于他们——我们往往更相信一个友好且自信的声音所说的话。问题的一部分在于这些大型语言模型的声音经常是友好、自信但又常出错。媒体素养的概念在教育领域已经讨论多年了,将这个概念扩展到大型语言模型是顺理成章的。就像学生(和成人)需要学会批判性地消费由他人或公司生成的信息一样,我们也需要学会批判性地、谨慎地消费由计算机生成的内容。
我认为这与理解技术的实质也有关系。当我解释说一个大型语言模型的工作是通过学习和复制人类语言,在最简单的层面上,是根据前面的内容来选择一个可能的下一个单词时,当我继续说这个大型语言模型无法理解“真理”的概念时,这听起来是有道理的。真理并不是训练过程的一部分。大型语言模型可能会经常正确地提供事实,根据概率的特性,盲点和潜在的错误会时不时地出现。因此,使用它的孩子们需要非常清楚地认识到这个工具的局限性。
这节课的价值不仅仅体现在AI的应用上,还因为它教会了我们如何应对不确定性、模糊不清和错误。正如[Bearman和Ajjawi (2023)]所指出的,例如,“在AI中介的世界中进行教学涉及学会处理不透明、不完整和模糊的情况,这反映了人与技术之间错综复杂的关系。”我个人非常赞同这种说法,因为它让我想起了我经常思考的一个问题——即大型语言模型是由人类创建的,并反映了人类生成内容的解读。当孩子们了解模型是如何生成的、有时会犯错、并且其输出源于人类生成的内容时,他们也就熟悉了当今社会中技术运作的模糊性。(强烈推荐,大家可以读读这篇文章。)
关于图片和视频的一点说明 欺诈然而,无论我们如何解释伦理问题和大语言模型可能出错的风险,这些AI工具非常实用且极具诱惑力,因此可以理解一些孩子会用它们来作弊。可以说,我们要和他们讲道理,解释做作业是为了培养这些技能,如果他们不学习这些技能,他们将错失今后学习和生活中所需的能力……但我们都清楚,孩子们很少会这么有逻辑。他们还在成长发育中,就连成年人有时也难以对此做出合理的决定。
有两大方向你可以考虑:一是让学校作业难以作弊或无法作弊,二是假设孩子们将来会接触到AI技术,将AI融入课堂教学。在课堂环境中进行监控行为可以让孩子们有机会学习一些不需要数字媒介的技能。然而,正如我之前提到的,媒介素养如今必须包括大型语言模型,我认为在有知识的教师指导下的使用可以带来很多教学价值。此外,实际上几乎是不可能在没有直接教师监督的情况下防止学生利用AI作弊,我们应该认识到这一点。不过,我并不想让人觉得这很简单——请参阅下面的进一步阅读内容,那里有一些关于在课堂上教授AI素养的广泛挑战的学术文章。教师面临着非常艰巨的任务,不仅要跟上技术的发展,还要调整他们的教学方法以适应时代的变化,还要努力给学生提供使用AI的必要信息,帮助他们负责任地使用AI。
从性教育中学习归根结底,问题在于我们应该建议孩子们在包含AI的世界里,在教室内外做些什么和不做些什么。我很少支持禁止某种思想,我认为基于科学的、适合年龄的全面性教育的例子提供了一个很好的教训。如果孩子们没有获得关于他们身体和性方面的准确信息,他们缺乏做出知情和负责任决定所需的知识。我们从只强调禁欲的性教育导致青少年怀孕率激增中吸取了这一教训。当孩子们在困难的情况下做出艰难的决定时,大人不可能在场来强制规定,因此我们需要确保孩子们具备做出这些决定所需的信息,负责任地做出选择,这包括伦理指导,但更需要的是事实信息的支持。
责任模型最后我想强调的一点是,成年人也应该在使用AI时表现出对AI负责任的态度。如果教师、家长以及其他孩子生活中的人不具备批判性思维,他们就无法教导孩子如何批判性地和审慎地使用这种技术。
最近《纽约时报》的一篇文章关于教师如何使用人工智能让我有点失望。这篇文章对人工智能的理解有些肤浅,将人工智能与一些基本的统计分析混为一谈(教师通过分析学生数据来个性化教学,这既不是真正的人工智能,也不是新奇或有问题的方法),但它确实引发了关于成年人在孩子生活中如何使用人工智能工具的讨论,并提到成人需要透明和批判性地使用这些工具。(文章还简要地提到了盈利行业将人工智能引入课堂的问题,这似乎是一个值得深入探讨的问题——也许我将来会就此写一篇文章。)
为了回应文章中的一项主张,我不反对教师使用LLM进行作文的初步评分,只要他们进行监控验证。如果评分标准围绕语法、拼写和写作技巧,那么LLM可能是合适的。不过,我建议至少让人类快速检查一下,而不完全依赖LLM,因为LLM的设计初衷就是为了理解和处理人类语言。认为“既然学生写了,老师就得批改”这种想法是不对的,因为练习的目的在于让学生学习。教师已经熟悉写作技巧,这并不是一个需要他们通过手动批改来学习的项目。我相信《纽约时报》也是明白这一点的,而这种说法主要是为了吸引更多点击,但还是有必要明确地说出来。
这一点又回到了我之前提到的理解技术的部分。如果你对训练过程有充分的了解,那么你就能判断这个过程是否能产出一个能完成任务的工具。但是自动评分在教育中已经存在了几十年了——任何一个填过答题卡的人应该都懂这一点。
这项技术的发展正在迫使我们的教育体系进行一定程度的适应,但我们现在无法再将其置于原先的状态了。人工智能确实可以在教育上产生一些积极影响(经常提到的例子是个性化教学和节省教师时间,从而可以将更多时间用于直接为学生服务),但就像大多数情况一样,我认为我们应该保持一个现实的态度。正如大多数教育工作者深知的那样,教育不能像大型语言模型进入我们的生活之前那样继续进行。
所以,总结孩子们有时候比我们想象的要聪明得多,我认为他们能够理解人工智能在我们世界中意味着什么。我的建议是,要对这项技术的现实开诚布公,包括它对我们个人和整个社会的利与弊。我们如何使用这项技术会影响到孩子们会做出积极的选择还是消极的选择,所以我们在行动和言辞上都需要多加思考。
更多我的作品可以在这里看到,可以访问我的个人网站www.stephaniekirmer.com。
如果您想了解更多关于Skype a Scientist的信息,可以请访问https://www.skypeascientist.com/
推荐阅读https://www.nytimes.com/2025/04/14/us/schools-ai-teachers-writing.html
访问此链接: https://pmc.ncbi.nlm.nih.gov/articles/PMC3194801/
https://www.nyu.edu/about/news-publications/news/2022/february/federally-funded-sex-education-programs-linked-to-decline-in-tee.html 注:源链接中的“tee”可能是“teen”的打字错误,原文意在讨论联邦资助的性教育项目与青少年怀孕率下降之间的关联。
https://www.stephaniekirmer.com/writing/environmentalimplicationsoftheaiboom/ (点击链接阅读更多内容)
https://www.stephaniekirmer.com/writing/seeingourreflectioninllms/
点击这里查看关于机器学习公众认知问题的文章: https://www.stephaniekirmer.com/writing/machinelearningspublicperceptionproblem/
https://www.stephaniekirmer.com/writing/whatdoesitmeanwhenmachinelearningmakesamistake/点击此处阅读更多关于机器学习犯错的文章
这个链接指向了一篇发表在https://bera-journals.onlinelibrary.wiley.com/doi/full/10.1111/bjet.13337上的学术论文。 该链接指向相关研究文章。
你可以在这里找到这篇文章: https://www.sciencedirect.com/science/article/pii/S2666920X21000357
https://www.stephaniekirmer.com/writing/theculturalimpactofaigeneratedcontentpart1/
关于AI教学法的更多文章对于教这些话题的人或是想更深入地了解的人来说,这里有一些我在研究时觉得挺有意思的文章。
https://bera-journals.onlinelibrary.wiley.com/doi/full/10.1111/bjet.13337
https://dl.acm.org/doi/abs/10.1145/3408877.3432530 — 一项面向早期大学生的课程研究
https://www.sciencedirect.com/science/article/pii/S2666920X22000169 — 一篇关于学前教育和小学早期课程的研究文章
https://dl.acm.org/doi/abs/10.1145/3311890.3311904 — 儿童中SES和国家差异对人工智能学习的影响分析
[MCP]: Model Context Protocol
[LLM]: Large Language Model
[RAG]: 检索增强生成
[SSE]: Server-Sent Events
共同學習,寫下你的評論
評論加載中...
作者其他優質文章