大模型训练遭投毒损失千万美元?Anthropic惊人发现:LLM植入炸弹,代码库暗藏bug!
【新智元导读】最近,大模型训练遭恶意攻击事件已经刷屏了。Anthropic也发布了一篇论文,探讨了前沿模型的巨大破坏力,他们发现:模型遇到危险任务时会隐藏真实能力会在代码库中巧妙地插入bug,躲过LLM和人类「检查官」的追踪!就在昨天,某大厂模型训练遭入侵的事件,惊动了整个AI圈。随着AI模型能力继续提升,这些评估和缓解措施还够用吗?Anthropic研究者也表示,希望其他AI研究者和开发者都能加入改进这些评估的行列。