媲美OpenAI-o3,刚刚开源模型DeepCoder,训练方法、数据集大公开
今天凌晨4点,著名大模型训练平台TogetherAI和智能体平台Agentica,联合开源了新模型DeepCoder-14B-Preview。该模型只有140亿参数,但在知名代码测试平台LiveCodeBench的测试分为60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI刚获得3.05亿美元的B轮融资,其估值也从去年的12.5亿美元翻倍至33亿美元。
分享10个我最常用的DeepResearch提示词模板和用法。
昨天写了一篇关于Gemini的文章,里面很大篇幅聊了关于DeepResearch,没想到把我非常喜欢的号小声比比都炸出来了。然后有朋友就在下面留言了:关于OpenAI的DeepResearch,我也有自己的一些使用方法和想说的,所以,不如我就来一篇,来跟大家聊聊。既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文�
让SFT重新伟大!CMU等华人学者提出全新「批判式微调」,媲美复刻版DeepSeek
【新智元导读】在面对复杂的推理任务时,SFT往往让大模型显得力不从心。CMU等机构的华人团队提出了「批判性微调」方法,仅在50K样本上训练,就在大多数基准测试中优于使用超过200万个样本的强化学习方法。进一步的研究也可能包括将CFT与其他训练范式,如SFT和RL相结合,扩展到多模态环境,并研究其理论基础。