今天我们来聊一个看似技术、实则深刻触及哲学根基的话题——人工智能究竟是不是真正的"智能"。
就在几天前,《自然》杂志刊发了一篇引人注目的文章,介绍了人工智能领域先驱吕克·朱利亚的新书《人工智能的幻觉》。
朱利亚的核心论点非常尖锐,他说,当今最先进的AI模型,本质上不过是"被美化了的袖珍计算器"。
这句话听起来有些刺耳,甚至让人觉得他是不是在哗众取宠。
但如果你仔细想想,这个判断背后藏着一个我们长期回避的根本性问题。
让我们把时间拨回到一九五六年。
那一年,在达特茅斯会议上,"人工智能"这个词第一次被正式提出。
从那一刻起,这四个字就注定了要被误解。
为什么?
因为"智能"这个词本身就带有强烈的人类中心主义色彩。
我们一听到"智能",脑海里浮现的就是思考、判断、创造、感悟——这些都是人类意识活动中最核心的能力。
于是,当我们把"智能"这个词冠在机器头上的时候,就已经不自觉地在进行一种隐喻式的投射了。
这种投射,用一个更学术的说法,叫做"拟人化"。
我们人类天生就有这种倾向,看见云彩觉得像龙,对着宠物说话觉得它能听懂,给自己的车起名字。
这种心理机制在面对AI的时候被放大到了极致。
你跟ChatGPT聊天,它回答得头头是道、条理清晰,你就觉得它"理解"了你的问题;你让AI画一幅画,画得精美绝伦,你就觉得它有了"创造力"。
但这里面有一个致命的混淆——我们把"输出结果的质量"等同于"产生这个结果的过程具有智能性"。
打一个比方。
一台精密的织布机可以织出美轮美奂的锦缎,图案复杂、色彩斑斓。
但你不会说这台织布机"懂得"美学,也不会说它"创造"了艺术。
它只是在严格执行预设的程序。
今天的大语言模型,从本质上讲,做的事情和织布机并无二致——它们在海量数据中寻找统计规律,然后根据概率分布生成下一个最可能出现的词。
这个过程精密、高效、令人叹为观止,但它不是"思考"。
朱利亚的洞见在于,他指出了一个我们集体性的认知偏差。
人类有一种根深蒂固的倾向,就是高估自己所创造之物的能力。
这不是什么新鲜事。
历史上每一次重大技术突破,都伴随着类似的幻觉。
十九世纪人们看到蒸汽机车飞驰而过,就觉得机器即将取代一切人力劳动;二十世纪初电力普及的时候,有人预言人类将在五十年内消灭所有疾病。
技术的力量是真实的,但我们对技术的想象总是跑得比技术本身更快。
现在的AI热潮,某种程度上就是这种历史循环的最新一幕。
各大科技公司争相宣布自己的AI"具有推理能力""能够创造性地解决问题""即将实现通用人工智能"。
资本市场推波助澜,媒体添油加醋,公众在惊叹与恐惧之间摇摆不定。
但如果你剥开这些华丽的修辞,去看技术本身,你会发现一个不那么性感的事实:这些系统擅长的是模式匹配和统计推断,它们在特定任务上的表现可以远超人类,
但它们对自己在做什么一无所知。
这就引出了一个更深层的哲学问题:什么是"智能"?
或者说,什么是"理解"?
约翰·塞尔在一九八零年提出的"中文房间"思想实验,至今仍然振聋发聩。
一个完全不懂中文的人,被关在一个房间里,手里有一本详尽的规则手册。
外面的人递进来中文纸条,他按照手册查找对应的回答,把中文答案递出去。
从外面看,这个房间"会说中文";但房间里的人对中文的含义一窍不通。
今天的AI,就是这个房间的数字版本。
它处理符号,但不理解意义。
有人可能会反驳说:管它理不理解呢?
只要结果好就行了嘛。
这种实用主义的态度当然有它的道理。
一把好用的锤子不需要"理解"钉子是什么。
但问题在于,当我们把"智能"的标签贴在锤子上,我们就开始对锤子抱有不切实际的期望——我们期望它能自己判断该往哪里敲,
期望它能理解整栋建筑的蓝图,期望它在关键时刻做出道德判断。
而这些,恰恰是锤子做不到的事情。
更令人担忧的是,这种"智能幻觉"正在影响我们的社会决策。
当法官开始依赖AI系统来辅助量刑,当医院使用AI来做初步诊断,当金融机构让AI决定谁能获得贷款——如果我们误以为这些系统真的"理解"了案情、
病情或信用状况,我们就会放松对它们的监督和质疑。
而事实上,这些系统只是在历史数据中找到了某些相关性,它们不知道什么是公正,什么是健康,什么是风险。
它们的偏见隐藏在训练数据里,它们的错误被统计学的外衣所掩盖。
朱利亚并不是在否定AI的价值。
恰恰相反,他是在呼吁我们以一种更清醒、更诚实的态度来认识这项技术。
AI是一种强大的工具——可能是人类有史以来发明的最强大的工具之一。
但工具就是工具。
一把手术刀在外科医生手中可以救人性命,在不懂医学的人手中就是一片危险的金属。
关键不在于工具本身有多"智能",而在于使用工具的人有多智慧。
我觉得朱利亚最有价值的贡献,是他重新定义了我们与AI之间关系的框架。
我们不应该把AI视为某种正在逼近人类的"新智慧体",而应该把它理解为一种精密但狭隘的信息处理系统。
它可以在围棋上打败世界冠军,但它不知道自己在下棋。
它可以写出通顺流畅的文章,但它不知道文字承载的是什么意思。
它可以通过几乎所有标准化考试,但它没有任何求知欲。
这种区分不是在贬低AI,而是在保护我们自己。
因为当我们高估AI的时候,我们同时在做两件危险的事情:第一,我们放弃了人类本应承担的判断责任;第二,我们低估了人类智能本身的独特性和不可替代性。
人类的智能不仅仅是处理信息的能力——它包含了情感、直觉、道德判断、对意义的追寻、对美的感知、对痛苦的共情。
这些东西,没有任何统计模型能够捕捉,也没有任何算法能够模拟。
近七十年过去了,我们或许应该认真考虑,是不是该给这项技术换一个更准确的名字。
"人工智能"这个词造成的误解太深了,它让无数人以为我们真的在创造某种"智能"。
也许"高级自动化信息处理"听起来没那么激动人心,但它至少是诚实的。
说到底,真正的智慧不是处理信息的速度和精度,而是对世界保持清醒的认知——包括对我们自己创造之物的清醒认知。
在这个AI无处不在的时代,保持这份清醒,本身就是一种了不起的智慧。