一位编程语言研究者最近写了一篇文章1,标题是”Humanity in CS & PL, now more than ever”。文章没有数据,没有论证框架,只是一个在计算机科学领域待了十年的人,回忆那些让她留下来的理由——然后发现这些理由正在被这个领域亲手拆毁。

其中最刺痛我的一个画面:她坐在空荡荡的办公室里,等学生来答疑,没有人来。不是因为学生没有问题,而是因为他们被教会了一件事——有问题是一种缺陷,而缺陷现在有了更便捷的修复方式:问机器

这个画面并不孤立。它是一个正在加速的趋势的缩影,而且已经开始有系统性的研究证据支撑。

人是目的,还是瓶颈

她在文章里坦言,自己对计算机科学本身并没有多大热情。驱使她留下来的始终是人:导师Sam在每一步给她鼓励,Dan Friedman在讲课时永远会穿插”这个理论背后的那个人”的故事,Ron Garcia会在看到学生读论文时兴奋地说起作者”是个很好的人”。学术会议对她而言不是论文报告会,而是和朋友吃饭、拍照、溜进空教室一起学范畴论的场合。

这些经历听起来私人、零碎,但它们指向一个被技术叙事长期忽略的事实:计算机科学对很多从业者来说,从来不只是关于计算机的。代码、论文、系统只是载体,真正让人投入十年生命的东西,是载体背后的人际关系——师生之间的、同事之间的、同代人和上一代人之间的那些看不见的线。

但整个行业对”人”的态度正在发生转变。人从”目的”变成了”瓶颈”。产品经理说用户行为是”messy”的,需要被预测和引导。管理层说人力成本太高,需要被自动化削减。技术布道师说人类推理是”slow and error-prone”的,应该让模型来做。

这些说法单独看都不算错。但汇聚在一起,它们构成了一种系统性的态度:人是需要被解决的问题

Emily Bender在她的论文”Resisting Dehumanization in the Age of ‘AI’“中,把这种态度追溯到一个更深层的根源:计算隐喻(computational metaphor)。这个隐喻是双向的——科学家把大脑比作计算机来推进神经科学研究,但技术布道师们反过来把计算机比作大脑来做PR。Baria和Cross指出,这个隐喻”给予了人类心智过少的复杂性,却给予了计算机过多的智慧”2。更严重的是,它建立了一种以”理性”为顶端的人类价值等级——越接近机器的冷静计算,就越”聪明”;越带有情感、直觉、关系性的认知,就越”低级”。

按照这个逻辑,AI作为”理性思维的极致体现”,反而在其”伪人类智能”的面目下,”悖论式地成为了一种更值得信赖的智能形式”2。人不是被取代了,而是被重新定义为一种低配版本的机器。

效率叙事的盲区

生成式AI最强大的叙事武器是效率。”十倍生产力”、”一个人顶一个团队”、”几秒钟完成几小时的工作”——这些话术已经成为行业的通行证。效率是无可辩驳的:你很难站出来说”我反对更高效”。

但效率叙事有一个巨大的盲区:它把所有人类活动都视为产出函数,用输入-输出的框架来衡量。写代码的产出是代码。写论文的产出是论文。教学的产出是学生的分数。既然产出可以用更低的成本获得,那过程中那些”多余”的部分——思考的挣扎、求助的尴尬、讨论的摩擦、合作的笨拙——自然应该被优化掉。

Weizenbaum早在1976年就在《Computer Power and Human Reason》中点明了这种逻辑的荒谬:”如果我们试图用计算机技术和分析来解决真正的人类问题,我们就把自己限制在了现实的一个高度筛选的领域内——即那些可以用量化术语表达、能够以严格逻辑方式操纵的部分。”3他更进一步指出,”计算机的引入……仅仅加固和放大了那些先前就存在的压力,那些驱使人类走向越来越理性主义的社会观、越来越机械化的自我形象的压力。”对他来说,真正的危险不是计算机做不到某些事,而是它让我们放弃了”用真正属于人类的方式来面对人类困境”的尝试。

问题在于,那些”多余”的部分恰恰是人之所以为人的部分。

一个学生花三个小时调试一个bug,最终发现是自己对指针的理解有误。这三个小时的”产出”是零——bug可以让AI三秒修好。但这三个小时里发生的事情——困惑、假设、推翻、重新理解——构成了一次真正的学习。更重要的是,如果她在调试过程中去了办公时间,和助教讨论了自己的困惑,那么这次交互的价值远不止于修好一个bug。她学到了如何向另一个人描述自己不理解的东西,她体验了被认真倾听和帮助的感觉,她和一个具体的人建立了一条细微的连接。

这些东西不在任何效率指标里。但它们是教育的真正内容。

教室里正在发生什么

这不只是一种直觉上的担忧——研究数据正在验证它。

2025年发表的一项系统性文献综述,覆盖了计算机教育中生成式AI的危害研究4。它识别出六类伤害,其中最普遍的是认知伤害(32.4%的论文涉及):学生在没有深入理解的情况下复制AI生成的代码,使学习变得”太容易”,独立解题能力下降,代码风格同质化。在ChatGPT推出后,研究者甚至在统计意义上观察到了学生代码中”非典型风格”(即AI风格)的显著上升。

紧随其后的是元认知伤害:学生难以区分自己”真正理解了”还是仅仅在”鹦鹉学舌”地复述AI的输出。低水平学生在使用AI时展现出更多困难,花更长时间,却接受了更多错误建议——他们被误导了,但自己不知道。

更值得关注的是该综述提出的六个”重大挑战”之一:学习社区的保护(Preserving Learning Communities)。研究者观察到,AI使用增加后,同伴互动、协作和归属感都在减弱。一些学生明确表示,他们使用AI是为了回避求助时的社交情感障碍——正是Koronkevich描述的那种场景:与其去办公时间面对一个活人承认自己不懂,不如安静地问一个不会评判你的机器。

另一项面向290名大学生的调查5揭示了同样的担忧分布:72%的受访者对”因依赖技术而增加的压力”表示同意或强烈同意;55%认为AI正在”削弱传统教育方法”;45%担忧”人际沟通技能的弱化”。在一项面对面访谈中,教师们注意到学生交上来的作业”语法更好了,文字更干净了”,但同时也出现了”没有个性的作品”、幻觉事实和缺乏原创思考6

Sherry Turkle在《Alone Together》中预见性地描述了这种趋势的心理学根源:技术之所以有诱惑力,恰恰是因为它回应了我们的脆弱性。”我们孤独,但害怕亲密。于是我们设计出给我们以陪伴幻觉的技术,却不附带友谊的要求。”7这句话写于2011年,那时候还没有ChatGPT。但它几乎完美地预言了今天课堂里正在发生的事:学生不是不需要帮助,而是在用AI绕开”向另一个人承认自己不懂”这个令人不安的时刻。

“非关系性”的知识

Bender在她的分析中引入了一个来自Abeba Birhane的关键概念:非关系性(irrelationality)2。人类的知识是关系性的——我们在与他人的互动中认识世界,自我在关系中涌现,理解在对话中生长。但AI所编码的”知识”是非关系性的:它被抽象出关系网络,以一种”上帝视角”呈现,仿佛存在脱离了所有人类语境的客观真理。

这正是Koronkevich那篇文章真正触及的问题。她最爱读论文的致谢部分——那是论文里唯一允许”不效率”的空间。致谢没有信息量,不推进论证,不报告数据。它唯一做的事情是承认:这篇论文不是我一个人写的,它是一个关系网络的产物。她在Amal Ahmed的博士论文致谢里,意外发现了她几年前在佛罗里达随机联系过的一位教授的名字——”我们之间有这些看不见的线,跨越海洋和大陆把我们连在一起。”

这种关系性的知识,这些跨越时空的”隐形丝线”,恰恰是AI无法编码的东西。不是因为技术不够强,而是因为它从根本上不处于任何关系之中。它可以生成一篇完美的论文,但那篇论文背后不存在一个关系网络。它可以给你一个正确答案,但那个答案不是从”和你一起想了很久”的过程中生长出来的。

而我们正在推崇的叙事是:独立开发者用AI一个周末搞出了一个产品;10x engineer一个人顶十个人。这些故事的潜台词是:依赖他人是弱点,协作是摩擦,最理想的状态是一个人加一个AI,不需要任何人。

价值观的摸底测试

文章最后有一句话很沉:”I guess what makes me sad is realizing that we were different after all.”——让她难过的是意识到,原来我们真的不一样。她以为同行和她一样在乎人,但现在看来,整个领域真正在乎的是自动化、产出、效率。人际连接只是副产品,不是目的。

这种”原来我们不一样”的觉悟,我猜很多人在过去两年都经历过。你以为你的同事和你一样享受一起解决问题的过程,结果他们更在意的是能不能用AI跳过这个过程。你以为你的学生和你一样珍视课堂讨论,结果他们更在意的是能不能用AI直接拿到答案。你以为整个社区和你一样看重手艺,结果大家更在意的是谁先用AI实现了同样的效果。

这不完全是一个技术问题。它更像是一次价值观的摸底——原来在”做事”和”做人”之间,很多人选的是前者,只是以前没有工具让这个选择变得如此清晰。

但也不必过于绝望。前述教育研究中有一个反复出现的发现:高绩效学生对AI更持怀疑态度6。他们不太频繁使用AI,也更不认同”AI让我变成了更好的学生”这个说法。这或许暗示,那些已经体验过深度学习之乐的人,更能辨认出什么是真正有价值的过程,什么是捷径。

Weizenbaum在半个世纪前写道:”权力若不是选择的权力,便什么也不是。工具理性可以做出决定,但’决定’和’选择’之间有着天壤之别。”3

我们还能选择。选择去办公时间坐下来,面对一个活生生的人说”我有一个问题”。选择花三个小时搞懂一件事,而不是三秒钟拿到答案。选择在致谢里写下那些看不见的线。这些选择在效率指标面前看起来愚蠢。但它们是唯一不可外包的东西。

参考文献

  1. Koronkevich, E. (2026). Humanity in CS & PL, now more than ever. 链接 

  2. Bender, E. M. (2024). Resisting Dehumanization in the Age of “AI”. Current Directions in Psychological Science, 33(2), 114-120. 链接  2 3

  3. Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. W.H. Freeman.  2

  4. Denny, P. et al. (2025). Beyond the Benefits: A Systematic Review of the Harms and Consequences of Generative AI in Computing Education. ACM Computing Surveys. 

  5. Al-Kumaim, N. H. et al. (2025). Exploring Generative AI Usage Patterns in Universities. International Journal of Technology in Education (IJTE), 8(2), 330-354. 

  6. Iacis Research (2025). Generative AI in Higher Education: Student and Faculty Perspectives on Academic Impact. Issues in Information Systems, 26(2), 373-386.  2

  7. Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.