模型自己决定要不要思考一招让大模型推理长度减少90%
AI模型一直以来都按部就班地“先推理再回答”,但人类其实并不是这样工作的:遇到简单问题会直接回答,只有面对复杂问题才会认真思考。
香港中文大学和新加坡国立大学提出了一个新方法,叫TON(Think Or Not),让视觉语言模型也学会“要不要思考”。实验发现,这招竟然能在不影响准确率的前提下,大大减少冗余推理步骤,让模型变得又快又准。
在多个任务上(比如图形推理CLEVR、几何问答GeoQA等),TON把推理长度最多砍掉90%,准确率还提高了。比如GeoQA的准确率比老方法高出17个点。
这种“按需思考”的机制不仅让AI推理更高效,也更像人了:能偷懒的时候就偷懒,真正需要动脑的时候再发力。
TON框架的核心是什么?请看文章: