【编辑推荐】当超过半数的学生不顾禁令,使用AI撰写哲学论文,我们面临的远不止学术诚信危机。加州大学尔湾分校哲学助理教授、《观点》杂志高级编辑阿纳斯塔西娅·伯格揭示了一个更深的忧虑:泛滥的AI工具正在让学生滑向“亚认知”状态——他们外包的不仅是作业,更是发展语言和基础思维能力的关键机会。这背后是我们必须直面的问题:当思考的机会被交给AI,我们失去的将是什么?这不仅关乎教育,更关乎我们如何理解世界与自我治理的根基。以下是阿纳斯塔西娅的评论原文,以第一人称展开。
去年春天,我发现我那门大型通识课程里超过一半的学生,在我明确禁止的情况下,使用了人工智能工具来撰写期末论文。(讽刺的是,这门课的名字叫《当代道德问题:人的生命价值》。)我要求他们讨论一些哲学中最新的研究成果,而其中有些论文标题恰好与中世纪神学中完全不同的观点重合。你大概已经猜到,学生们最终“写”的都是哪一类话题。
这种情况并非特例——全国各地都在报道AI作弊的泛滥。但我心中涌起一种难以言喻的不安,直到一位同事用一句话点明了问题的本质:"我们的学生即将陷入“亚认知”状态。"
没错,我们所面临的威胁不仅仅是某种学术技能或思维习惯的退化,而是最基本的认知流畅性的丧失。如果任由AI工具支配学生的学习,实质上是让他们将思考的机会交给AI公司,那会剥夺他们培养语言能力的关键机会,随之丧失的将是最基础的思维能力。这意味着他们将缺乏理解所处世界并有效应对世事的本领。
人工智能并非首个威胁人类认知能力的技术。早在ChatGPT、智能手机和计算器问世之前,柏拉图就曾对文字本身提出过警示。他预见识字之人"将不再运用记忆"。此言并非完全没有道理。但我们中很少有人视此为弊大于利。毕竟,正是文字的存在,才让这些柏拉图对话录得以跨越两千年流传至今。
巨大的馈赠往往伴随着巨大的代价。而问题始终在于:这份代价是否值得?
随着学生使用人工智能的现象日益普遍,许多批评者将焦点放在了智力层面的损失上。诗人梅根·奥罗克在《纽约时报》观点专栏撰文指出:"人工智能削弱了人类专注的能力,以及由此产生的独特个性。"其他面临威胁的能力还包括:"人类独特的表达力""批判性的审慎思考"以及"创作原创佳句的能力"。作为一名人文学科教授,这些担忧都令我感同身受。
但我逐渐意识到,受到威胁的不仅仅是这些智性的“天赋”,而是更为根本的东西。发展我们的语言能力——去掌握不同的概念、理解复杂的论证、形成判断并将其清晰地表达给他人——这本身就是我们培养思维能力的过程。
对人类而言,运用语言并非一项普通的技能,而几乎是我们所有行为的基础方式。哲学家们一直在争论:缺乏语言的生物是否能够思考?但确定的是,人类无法做到。我们正是通过语言来把握世界的轮廓。但语言能力并非与生俱来,而是在与他人不断互动中习得和发展。数百年来,在发达社会中,这种发展过程几乎都意味着深度的听说读写。
许多人试图划分人工智能的非法使用(如生成完整文稿)与良性辅助功能(如生成提纲)的界限。但正是这些看似无害的功能对思维成长最具腐蚀性。
以摘要生成为例:让人工智能接手这项机械性工作,似乎无关痛痒。学生们或许因此节省了时间和精力,即便他们阅读的AI摘要充斥着刻板的分析与千篇一律的文风。但事实是,理解“他人究竟在论证什么、以及如何论证”这一能力,是不可替代的。认知理解的任何部分,都不可能被简化为机械的步骤。
如果年轻人失去了培养这些能力的机会,他们将无法读懂新闻报道、医疗文件和知情同意书,也无法判断一个论点的合理性(包括本文的论点)。匮乏的概念储备会让他们的生活变得粗浅,对世界的体验也会模糊,失去细微的差别。更糟糕的是,认知能力的退化将动摇我们自我治理的根基:很难想象一个“亚认知”社会的公民是否还有资格参与民主决策、去讨论我们社会与生活的结构?答案并不乐观。
尽管承认人工智能存在潜在风险,但许多教育工作者坚持认为,人工智能在教育领域的广泛应用是不可避免的。普林斯顿大学的D·格雷厄姆·伯内特等AI拥护者宣称,读写能力已是历史的产物,不再适应当今世界。他断言除少数精英学府外,要求学生阅读书籍将很快失去意义。教师应当让学生用短文本做些其他事情:"唱出来、背下来、剪成小段贴在墙上"。换言之,他主张我们应该接受一个只有少数特权阶层才能掌握实用识字能力的社会回归。
伯内特博士轻率地将大多数美国大学生推向更适合幼儿园的教育模式,这令我感到愤怒。许多学生仍能且愿意阅读长篇著作——看看我班上那些未使用AI工具的学生便知。而无论他们是否阅读我指定的复杂文献,将文章碎片装饰墙壁的做法对任何人都无裨益。
高等教育的宗旨是培养认知成熟的成年人,这要求我们必须确保学生学会独立阅读、思考与写作。这其实比我们想象的要简单:创设无科技干扰的空间并激励学生投入其中,无需新增资源。唯一需要的是决心——许多学生仍然拥有这种意志,为人师表者又如何呢?
