对AI大模型祛魅了AI大模型不过如此这篇文章,帮你给AI大模型“祛祛魅”:看清本

量子位看科技 2025-07-08 15:31:10

对AI大模型祛魅了AI大模型不过如此

这篇文章,帮你给AI大模型“祛祛魅”:看清本质后,AI也不过如此。

文章出自老牌逆向工程专家halvar.flake,以下进行适当改写——

很多人聊起大模型(LLM),总爱不自觉地“神化”它:觉得它可能有意识、有动机、有潜在的危险人格……

一、语言模型不过是词语接龙

他谈到,语言模型做的事,不过是把前面的一段词语,映射成一个在高维空间里,并不断推进路径。

这个过程像极了贪吃蛇游戏:模型每走一步,旧记忆就被新记忆推着走。

所有的“对话”、“输出”,都是沿着这个路径往下一个词、一个词地推出来的。

二、所谓“对齐”不过是概率问题

你有没有遇到AI拒绝回答问题的情况?比如你咨询疾病,AI会告诉你应该找专业医生,拒绝给出医疗建议。

这就是“AI对齐”,技术上就是用大量样本、反馈机制、惩罚策略,“教”大模型应该说什么,不应该说什么。

乍一看仿佛是在给模型“立规矩”,但从技术角度看,“对齐”其实是个数学概率分布。

换句话说,对齐并非大模型理解了人类世界的规则,它只是靠“惩罚策略”,被“训练”得看上去会察言观色。

三、它没有意识、更没有“潜意识”

很多人喜欢把AI说得像人——有“觉醒”的可能,有“目的”、“动机”,甚至担心它“叛变”或“反抗人类”。但halvar.flake指出:这些都是臆症。

本质上,大模型只是一个高维空间里的函数,它做的事,就是基于上下文预测下一个词,整个流程是纯数学的,没有感知、没有思维,也没有“自我”。

甚至连“停下来”这件事,它都不会自己做,除非你不给它输入。从工程视角看,它就是一台需要“手摇”的文本生成器——你不喂它东西,它就不会动。

四、AI的惊人能力,也源自人类写下的大量语言

有人把AI输出的内容视为“智能”的体现,比如让它写童话、生成代码、总结文章,它确实做得越来越好。但它的“能力”来自哪里?答案很简单:海量人类文本。

我们用几乎整个互联网的内容,把大模型训练成一个能“猜出下一个词”的系统。它之所以能写诗、画图、回答问题,不是因为“理解”,而是因为它“见过”。

它能写病历,是因为见过无数病例;它能写论文,是因为读过足够多论文;它能画图,是因为看过成千上万幅图。AI不是创造力的源头,而是我们创造的镜子。

五、为什么那么多人坚持认为“它像人”?

flake认为,这可能是因为,一部分AI研究者本身就是带着“我想做出类人智能”的目标走进这个行业的。

当他们看到LLM能写诗、能聊天、能生成图像,就倾向于相信“它正在变成我们”。久而久之,他们不再把LLM当工具,而是当作一种“生命”。

而这种思路一旦成为主流,就容易让公众产生误解——以为AI正在“觉醒”,以为“它也许真的有意识”。

但现实是,它只是个生成函数。没有痛感,没有价值判断,也没有觉不觉醒的可能。

六、真正该关注的,不是“它像不像人”,而是“我们如何控制它”

flake最后提醒大家,与其花时间讨论AI有没有感情、能不能成精,不如回到工程视角:它是一个可以生成一切文本的系统。

问题在于——

我们没法穷举“不希望它生成的东西”,我们只能靠训练、采样、策略优化,让它“倾向于”走某些路径。

这才是“对齐”的核心难题:它不是伦理问题,而是概率控制问题。

大模型不会像人一样“越界”或“犯错”,它只是按统计规律往下预测词。真正的问题不是“它做了什么”,而是我们没法完全预判它“说出什么”。

七、祛魅之后,才能看清挑战

大模型已经展现出了一定的便利性,以前很难实现的自然语言处理、图文生成、摘要提取等任务,都变得简单高效,堪比“第四次工业革命”。

但只有先祛魅,才能真正掌握它。否则,我们只是在拿一个文本生成器,当作一个“可能成神”的生命体来看待。AI创造营(配图由AI生成)

参考链接:addxorrol.blogspot.com/

0 阅读:1
量子位看科技

量子位看科技

感谢大家的关注