秦岭大熊猫研究中心致歉:饲养员用铁锨驱打大熊猫已被辞退
近日,一段关于秦岭大熊猫研究中心饲养员李某用铁锨驱打大熊猫的视频在网络上引发了广泛关注。作为我们的国宝动物,大熊猫遭受如此待遇令网友非常惋惜,纷纷举报。加大巡查检查力度,加强饲养员的监督管理;对涉事饲养员予以辞退,对相关管理人员批评教育并责令作出深刻检查。
饲养员用铁锨驱打大熊猫被辞退 秦岭大熊猫研究中心发布致歉信
秦岭大熊猫研究中心于3月18日通过微信公众号郑重发表致歉声明,对于一起近期发生的不当饲养行为表示深感歉意。3月17日下午4点左右,研究中心的饲养员李某因严重违反《大熊猫饲养安全管理规程》,使用铁锨驱打大熊猫,此行为引发了恶劣的社会影响。研究中心表示,将以此次事件为鉴,深刻汲取教训,认真整改,努力为大熊猫提供更加安全、舒适的饲养环境,确保每一只大熊猫都能得到妥善的照顾和保护。
英国将开设9个人工智能研究中心,提升员工技能
英国政府今日宣布,将在九个新的研究中心上投资近9000万英镑,并与美国合作开展负责任的人工智能。这些研究中心将支持英国在医疗保健、化学、数学等领域的人工智能专长。上议院通讯与数字委员会表示,英国“必须重新平衡,加强机遇,同时应对近期的安全和社会风险。
华为宣布启动交通大模型研发 创立交通大模型联合研究中心
华为技术有限公司联合云南省交通投资建设集团有限公司以及长安大学在昆明举行了“交通大模型研发启动仪式”,开启人工智能大模型技术在交通领域的研究探索。通过盘古基础大模型叠加交通行业场景的方式,开展交通大模型研究,通过深度挖掘现有数据潜能,加速推动交通行业的数智化发展。将持续助力云南交投集团全面推进公路数字化转型,为全国交通行业打造数智发展样板。
微软AI研究推数学LLM Orca-Math:通过对Mistral-7B模型进行微调的7B参数小模型
微软研究团队引领着教育技术领域的不断创新,近日推出了一款名为Orca-Math的前沿工具,它是一款小语言模型,拥有7亿参数,并基于Mistral-7B架构微调来。这一创新方法重新定义了传统数学单词问题教学的策略,彻底改变了学生参与和掌握这一学科的方式。通过利用SLM通过合成数据集和迭代反馈来解锁学习工具的全新时代,Orca-Math为技术和学习手牵手走向解锁全球学生的全部潜力的未来提供了一瞥。
研究人员推新AI框架CyberDemo:通过视觉观察让机器人模仿学习
加利福尼亚大学圣地亚哥分校和南加利福尼亚大学的研究人员最近推出了一种名为CyberDemo的新型人工智能框架,旨在通过视觉观察进行机器人模仿学习。传统的模仿学习方法通常需要大量高质量的示范数据来教导机器人完成复杂任务,特别是对于需要高度灵巧的任务来说。虽然为每个任务设计模拟环境需要额外的工作,但减少了数据收集的人为干预,并避免了复杂的奖励设计�
苹果研究人员提出MAD-Bench基准,克服多模态大语言模型中幻觉和误导性提示
在人工智能领域,多模式大语言模型在推动进步方面发挥了巨大作用,但它们面临处理误导性信息的挑战,可能导致不正确或产生幻觉的响应。这种脆弱性引发了对MLLM在需要准确解释文本和视觉数据的应用中可靠性的担忧。作为一个不断发展的领域,解决这些挑战对于在现实应用中部署MLLMs至关重要。
研究人员开发AI攻击方法BEAST:可在一分钟内绕过LLM防护栏
研究人员在美国马里兰大学成功开发了一种高效的方法,可以在一分钟内诱导大型语言模型产生有害反应,他们将这一技术命名为BEAST。BEAST技术利用NvidiaRTXA6000GPU、48GB内存和即将发布的开源代码,仅需一分钟的GPU处理时间,就能让LLM飞越其防护栏。”此研究强调了确保未来更强大AI模型的安全部署需要制定可证明的安全保证。
智源研究院推出新一代多模态小模型Bunny-3B
智源研究院近期提出了一项新技术,通过数据浓缩技术获得高质量训练数据,从提升多模态小模型的性能。他们将LAION-2B压缩成2M核心集,得到更丰富的预训练数据,同时精选数据集进行指令微调,训练出性能强劲的小模型。通过数据浓缩技术获得高质量训练数据,Bunny系列小模型在多模态任务上表现优异,将促进大模型技术的发展和普及。
IBM研究发现: AI语音克隆可劫持合法通话进行诈骗
IBM研究人员发现了一种相对简单的方法,可以利用生成式AI工具劫持语音通话。这一发现引发了对金融机构等依赖电话验证身份的组织的担忧。这将使聊天机器人困扰,因为它们仍然难以理解基本的会话提示。
智源研究院推出1bit自然语言理解预训练模型BiPFT
智源研究院提出了首个用于自然语言理解任务的1bit轻量化预训练模型BiPFT。与传统的FP32模型相比,BiPFT模型在推理阶段显著减少了操作数量和内存使用。该模型在不同超参数设定下都能取得更好的效果,具有较好的独立学习能力和超参数鲁棒性。
研究发现大型 AI 数据集包含虐待儿童图像:该数据集已用于构建流行的人工智能图像生成器,包括 Stable Diffusion
根据斯坦福互联网观察站周三发布的一项新研究,流行的人工智能图像生成器的基础数据库中隐藏着数千张儿童性虐待图片。作为对这一研究的回应,一些最大和最常用的图像数据库的运营商关闭了对它们的访问权限。LAION的创始人是德国研究员和教师ChristophSchuhmann,他今年早些时候表示,公开提供如此庞大的视觉数据库的部分原因是为了确保AI发展的未来不受少数强大公司的�
研究人员发现,谷歌Gemini表现不如GPT-3.5 Turbo
在近期的一项研究中,来自卡内基梅隆大学和BerriAI的研究团队对GoogleGeminiPro进行了深入的评估,并发现其在多项任务中表现不如OpenAI的GPT-3.5Turbo。这一发现无疑是对Google在生成式人工智能领域与OpenAI竞争的雄心的一次沉重打击。随着GeminiUltra的推出,Google可能会迎头赶上,但目前GPT-4仍然是首选,至少直到GeminiUltra在新的一年发布。
研究团队开发开源大模型训练框架 Oobleck 提供快速且有保障的故障修复
随着对生成式人工智能技术需求的激增,大型语言模型的训练和容错性要求也在不断增加。为应对这一挑战,密歇根大学的研究人员开发了一款名为Oobleck的开源大型模型训练框架。Oobleck的开发标志着利用固有冗余提高容错性的新里程碑,为大型模型的高效训练和故障恢复提供了一种创新性的解决方案。
南方科技大学联合IDEA研究院发布 SUS-Chat-34B 双语模型
南方科技大学联合IDEA研究院CCNL中心发布了SUS-Chat-34B,这是一个参数规模为340亿的双语模型。该模型在众多中英文任务上表现出色,超越了其他同参数规模的模型。即使与更大参数规模的模型相比,SUS-Chat-34B模型也具有不错的竞争力更长的上下文窗口与出色的多轮对话能力:SUS-Chat-34B原生支持8K的上下文窗口,在大量多轮指令以及单多轮混合数据中进行训练,具有出色的长文本对话信息关注与指令跟随能力。
纽约大学和Meta研究人员推出Dobb-E:家庭机器人操作学习的开源通用框架
纽约大学和Meta的研究团队最近推出了一款名为Dobb-E的开源机器人学习框架,旨在解决家庭环境中机器人操作学习的挑战。这一高度适应性的系统通过从用户演示中学习和适应,取得了显著的成功,其在陌生家庭环境中的成功率达到了81%。实验还为照明条件和阴影影响任务执行的挑战提供了见解。
研究人员发布Starling-7B:基于AI反馈的大语言模型 媲美GPT-3.5
UC伯克利的研究人员最近发布了Starling-7B,这是一款基于AI反馈强化学习的开放式大语言模型。该模型基于精调的Openchat3.5,并继承了Mistral-7B的特性。对于对模型进行测试,读者可以参与聊天机器人竞技场。
MIT和Google研究StableRep新技术:使用合成图像训练AI图像模型
MIT和Google的研究人员近期开发了一项名为StableRep的新技术,旨在利用由AI生成的图像来训练更加详细和高效的AI图像模型。这项技术被应用于开源文本到图像模型StableDiffusion,取得了一系列显著的成就。MIT和Google的这一研究成果代表着AI图像生成领域的一次创新,尽管存在一些缺陷,但其对于高质量图像的生成提供了新的方法和思路。
UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法
LLM,如ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性的担忧,许多教育机构也限制了ChatGPT的使用,因为内容很容易生成。这对于那些依赖于AI生成内容做出决策的用户来说,具有重要的意义。
微软宣布 Sam Altman 和 Greg Brockman 加盟,领导新的高级 AI 研究团队
微软公司的首席执行官SatyaNadella在周一表示,SamAltman、GregBrockman以及他们的许多前OpenAI同事将加入这家软件巨头。这一宣布标志着在AI初创公司的高管突然离职后,经过三天激烈讨论的高潮。Nadella似乎还证实了EmmettShear被任命为OpenAI新任首席执行官的报道,称他们「期待着了解EmmettShear和OpenAI的新领导团队,并与他们合作」。