NUS尤洋团队开发扩散模型p-diff 像Sora一样直接打入AI底层
新加坡国立大学尤洋教授团队联合其他机构开发的p-diff扩散模型在AI领域引起热议。这项模型能以44倍的速度生成神经网络参数,得到了深度学习领域的重要人物LeCun的点赞。其高效、准确且具有泛化能力的特点将为未来的AI应用提供更多可能性,同时也促进了AI领域知识的共享与交流。
微软成立专门的 AI 团队,开发类似 OpenAI 模型的小型 AI 模型,成本更低
微软正在与OpenAI竞争,在开发小型语言模型方面形成了专门的AI团队。据《TheInformation》报道,这些小型语言模型将具有类似于OpenAI的ChatGPT的功能。由人工智能聊天机器人冷却所需的每个查询消耗1个水瓶另一份报告表明,到2027年,人工智能将消耗足够的能源,可以为一个小国提供一整年的电力。
研究团队开发开源大模型训练框架 Oobleck 提供快速且有保障的故障修复
随着对生成式人工智能技术需求的激增,大型语言模型的训练和容错性要求也在不断增加。为应对这一挑战,密歇根大学的研究人员开发了一款名为Oobleck的开源大型模型训练框架。Oobleck的开发标志着利用固有冗余提高容错性的新里程碑,为大型模型的高效训练和故障恢复提供了一种创新性的解决方案。