机器之心报道
机器之心编辑部
几乎毫无预兆,马斯克人工智能公司xAI发布了最新模型Grok4.1。
就在刚刚,xAI宣布,Grok4.1已经向所有用户开放,可以在Grok官网、X以及iOS和Android应用中使用。

Grok4.1将立即在Auto模式中推送,并可在模型选择器中手动选择。

此次,Grok4.1将在真实世界可用性方面带来显著提升,尤其是在创造力、情感互动和协作交互方面表现出色。Grok4.1对细微意图的感知能力更强,与用户对话更加吸引人,整体人格也更连贯,同时完全保留了前代模型强大的智能与可靠性。

马斯克在x上宣传一波自家模型。
为实现这些提升,xAI在支撑Grok4的同一套大规模强化学习基础设施上进一步优化了模型的风格、个性、助人性和对齐性。并且,为了优化这些不可直接验证的奖励信号,xAI开发了全新的方法,能够利用前沿的智能体式推理模型作为奖励模型,从而可以大规模自主评估并迭代输出结果。
与此前的线上生产模型相比,Grok4.1在对比评估中有64.78%的概率被用户偏好选择。

接下来看Grok4.1的能力特征。
SOTA通用能力
Grok4.1在盲测的人类偏好评估中树立了全新的标杆。
在LMArena的TextArena排行榜上,Grok4.1的推理模式(代号:quasarflux)以1483的Elo分数位居总榜首位,领先最高的非xAI模型整整31分。
Grok4.1的非推理模式(代号:tensor)无需使用思维token便能即时响应,在排行榜上以1465Elo分数位居第二。即便不启用推理,Grok4.1也超越了其他所有模型在启用完整推理配置下的表现。
与Grok4相比,Grok4.1的整体表现实现了大幅超越,前者此前的总排名仅为第33名。

情感智能
为了评估模型在个性与人际互动能力方面的进展,xAI在EQ-Bench3上对Grok4.1进行了测试。
EQ-Bench是一个由大语言模型评判的测试,用于评估主动情绪智能,包括情绪理解、洞察力、同理心以及人际交往技能。测试集包含45个具有挑战性的角色扮演场景,其中大多数由预先编写的三轮对话提示组成。该基准通过多项标准验证模型的回答质量,以评估模型表现。此外,它还通过成对对比的方式,为排行榜中的每个模型计算归一化的Elo分数。
xAI使用官方基准仓库运行测试,并报告评分细则(rubricscore)与归一化Elo分数。所有分数均在遵循基准要求的条件下计算:使用默认采样参数、指定的评判模型(ClaudeSonnet3.7),并且不添加systemprompt。
结果显示,Grok4.1的推理模式和非推理模式位居榜单前两名。

以下示例展示了Grok4.1对情绪类提示的回应方式:

创意写作
xAI还在CreativeWritingv3基准测试上评估了4.1系列模型的表现。
在该基准中,模型需要针对32个不同的写作提示生成回答,并进行3轮迭代。与EQ-Bench类似,评分同时基于评分细则(rubrics)和模型对战的归一化Elo分数进行计算。
结果显示,Grok4.1的推理模式和非推理模式位居基准测试第二和第三名,仅次于早期GPT5.1。

以下示例展示了Grok4.1在创意写作提示下的回答方式:

减少幻觉
配备搜索工具的Fast(非推理)模型能够提供即时答案,但由于推理深度受限、工具调用次数有限,它们更容易出现事实性错误。
在Grok4.1的后训练过程中,xAI着重降低了信息查询类提示的事实幻觉。随后,xAI在抽样的生产环境信息查询提示中观察到了幻觉率的显著下降。
xAI使用来自生产流量的真实信息查询请求,按类别分层抽样评估模型幻觉率。同时,也评测了FActScore——一个包含500个关于不同人物的传记类问题的公共基准测试。

更多Grok4.1的技术细节请参阅模型卡:
