• Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

    2025-04-23 09:55:00

    Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用 Transformer作者Ashish Vaswani团队重磅LLM研究!简单指令:「Wait,」就能有效激发LLM显式反思,表现堪比直接告知模型存在错误。只要预训练,LLM就能涌现自我反思、自我纠正!Transformer首席作者Ashish Vaswani带队的新研究引来万人围观!强化学习已证