全球首次!2B复现DeepSeek-R1「啊哈时刻」,UCLA等用纯RL实现多模态推理
【新智元导读】由UCLA等机构共同组建的研究团队,全球首次在20亿参数非SFT模型上,成功实现了多模态推理的DeepSeek-R1「啊哈时刻」!就在刚刚,我们在未经监督微调的2B模型上,见证了基于DeepSeek-R1-Zero方法的视觉推理「啊哈时刻」!这一成就,再次让AI社区轰动。博客地址:https://turningpointai.notion.site/the-multimodal-aha-moment-on-2b-model开源项目:https://github.com/turningpoint-ai/VisualThinker-R1-ZeroDeepSeek-R1的独特推理能力,能成功扩展到多模态推理领域吗?UCLA等机构的研究者发现,虽然目前已经涌现出许多试图复现DeepSeek-R1的研究,然这些研究大多遭遇了这个难点:很难复现出R1所表现出的回答长度增加和思考模式。在台湾大学获得硕士学位,导师是Chih-JenLin教授。