
“凡是想学会飞的人正规杠杆配资平台,必须先学会站立、行走、奔跑、攀爬和跳舞;人无法一蹴而就地学会飞翔。” —— 尼采

没有满意答案的问题
故事要从几个月前的一次面试说起。
当时我正在面试Anthropic的一个岗位。屏幕对面坐着Claude的人格制定者,也是一位拥有哲学背景的科学家。我们聊得很愉快,关于伦理、关于对齐,毕竟Anthropic很关注AI Safety。
在面试的尾声,她问我:“你有什么想问我的吗?”
我犹豫了一下,抛出了那个困扰我许久的问题:“现在的模型已经非常强大,它们虽然暂时还无法替代资深专家,但替代初级工程师已经绰绰有余。从资本效率的角度看,企业会倾向于只招资深人士配合AI工作,而不再招聘新人。
“但问题是,每一个专家都是从菜鸟一步步‘熬’出来的。如果我们砍掉了初级岗位,锯断了成长的阶梯,十年后,新的资深专家从哪里来?人类的专业智慧如何传承?”
屏幕那头陷入了短暂的沉默。面试官给出的回答很诚恳,涉及教育改革、涉及AI辅助教学,但并没有给出一个让我感到踏实的、结构性的解决方案。
那一刻我意识到,即便是这家星球上最聪明的AI公司,面对这个关于“人类智力传承”的宏大命题时,也依然处于一种谨慎的迷茫之中。
公众和媒体总是热衷于讨论“10年后AI会不会让所有人失业”这种宏大的科幻命题,但也许我们更应该担心的是那些已经发生的事情。
即使AI技术从今天起停止进化,哪怕它永远无法产生自我意识,它也已经完成了一项不可逆的破坏:它把通往资深的阶梯给拆了。
这不仅是未来的就业危机,这是正在发生的“断代”预兆。
效率的诅咒:消失的“垃圾时间”
回想一下,一个刚入行的实习生,在没有AI的年代通常在做什么?
他们通常被丢进“数据的煤矿”里:比如手动清洗上万行数据,逐字逐句地整理冗长的文档,或者在代码库的角落里修复那些不起眼的Bug。
在现代管理学的视角下,这些都是极度低效的“垃圾时间”。如果你问一个硅谷的VC,他会告诉你:这些低价值重复劳动,是AI最应该首先消灭的。
2024年的代码世界,正在上演这一幕。
在许多科技公司的招聘看板上,初级工程师的职位正在悄悄消失。取而代之的是一个新的默契:以前需要三个初级开发写两天的CRUD接口和单元测试,现在一个资深工程师用Cursor配合LLM,喝杯咖啡的功夫就生成了,而且代码质量比刚毕业的实习生写得还要干净、规范。至少对于我自己的经历,大部分代码都已经由AI生成,自己基本只需要把握方向就行了。
“Senior + AI > Team” 正在成为一种新的行业共识。在管理者眼里,这不仅是降本增效的胜利,更是对生产力的解放。
这是一个属于“资深者”的黄金时代。如果你已经拥有了深厚的架构知识、敏锐的代码嗅觉,AI就是你的外骨骼,让你变成不知疲倦的“十倍工程师”。我们正在享受着前所未有的效率红利,就像在享用一场丰盛的免费午餐。
然而,天下没有免费的午餐。我们正在透支的,是未来的“专家储备”。
波兰尼悖论:被AI剥夺的痛苦
为什么我们不能直接跳过“菜鸟”阶段,直接成为专家?
这涉及到一个核心的哲学概念——波兰尼悖论(Polanyi's Paradox)。哲学家迈克尔·波兰尼在1966年提出:“我们知道的,比我们能说出来的多。”(We know more than we can tell)。
人类的知识分为两类:
显性知识(Explicit Knowledge):可以写在书本上、文档里,可以通过逻辑传授的。这是AI最擅长学习的部分。隐性知识(Tacit Knowledge):那些只可意会不可言传的“手感”、“直觉”和“经验”。
这就好比当年的实习生,正是在那一行行枯燥的数据清洗中,建立了对数据“质感”的直觉——哪些异常值暗示着业务的变动,哪些空缺值是系统的Bug。这种直觉不是书本能教的,它是在低效的、重复的、痛苦的“试错”过程中,在神经元之间刻画出来的沟壑。
现在的危机在于:AI完美地替代了“试错”的过程。
AI生成的代码太完美了,它直接给出了正确答案。年轻的工程师们不再需要去查文档、不再需要去Stack Overflow上翻找答案、不再需要经历那种“百思不得其解后突然顿悟”的快感。

他们失去了痛苦,同时也失去了与知识建立深度连接的机会。当AI填平了所有的坑,我们也就失去了在坑里仰望星空的能力。
空心的中间层与“终产者”危机
如果我们将视角拉高,观察整个技术社会的结构,会发现一种可怕的形变。
过去的人才结构是金字塔型的:大量的初级人才在底部支撑,通过层层筛选和历练,少数人爬上塔尖成为专家。
而在AI席卷之后,结构正在变成“图钉型”:
顶部是极少数掌握核心算法、拥有深厚行业背景的“超级个体”和“终产者”。他们利用AI无限放大自己的能力。中间原本承载着承上启下功能的“中产阶级”工程师、分析师、插画师,正在被掏空。底部则是茫茫多的、只能做简单指令交互的“数据标注员”或“提示词操作工”。
现在的专家,是旧时代“低效”体系培养出来的。十年后,当这批专家退休,谁来接班?
那些看着AI生成代码长大的新一代,当他们面对AI也无法解决的复杂系统性崩溃时,是否具备足够的“内功”去力挽狂澜?
我们正在通过AI“剥削”人类几千年积累的存量智慧,却切断了增量智慧的生产机制。这就像是一场盛大的篝火晚会,我们拆掉了支撑未来的阶梯,把它扔进火里,换取了此刻最耀眼的光芒。

在算法的废墟上重建学徒制
悲观的分析之后,我们依然要寻找出路。既然传统的“梯子”断了,我们需要一种新的攀登方式。
未来的学徒制,或许不再是关于“如何做(Doing)”,而是关于“如何评判(Critiquing)”。在过去,学徒通过写代码来学习;在未来,学徒可能需要通过“审查AI的代码”来学习。
但这带来了一个悖论:鉴赏通常需要比创造更高的品味。一个刚入行的学生,如何有能力去审查一个看过Github上所有代码的AI?
或许,我们需要人为地制造“困难”。
就像飞行员在模拟器中应对各种极端故障一样,未来的工程师教育,可能需要刻意脱离AI的辅助,在一个“纯净”甚至“恶劣”的环境中进行高强度的思维训练。不是为了生产代码,而是为了训练大脑的肌肉。
我们必须明白,AI可以替代我们的产出,但不能替代我们的成长。
维特根斯坦的梯子
维特根斯坦在《逻辑哲学论》中有一个著名的比喻:当你爬上梯子,到达高处后,就必须把梯子扔掉。
但对于现在的人类来说,危险在于我们还没有爬上去,梯子就被撤走了。
在那次面试的最后,虽然没有得到完美的答案,但我依然对和我讨论的面试官所代表的努力保持敬意。因为我们在讨论这个问题本身,就证明了人类依然在反思,依然在试图掌控自己的命运。
在这个被算法加速的时代,保持一点“笨拙”的努力,保留一点“低效”的思考,或许是我们身为人类最后的倔强,也是通往真正智慧的唯一窄门。
富鑫中证提示:文章来自网络,不代表本站观点。