胡润研究院:中国高净值家庭购车平均花费78万
近日,胡润研究院发布了《2024胡润至尚优品中国高净值人群品牌倾向报告》。报告中提到,截至2023年年初,中国拥有千万元人民币总财富的高净值家庭数量达到208万户。豪华汽车市场表现分化,50万-100万的市场规模收缩8%100万元以上的超豪华汽车市场规模微幅下降1%。
吉娃娃or松饼难题被解决!IDEA研究院新模型T-Rex2打通文本视觉Prompt,连黑客帝国的子弹都能数清楚
还记得黑客帝国经典的子弹时间吗?IDEA研究院最新检测模型T-Rex2,可以齐刷刷给全部识别出来~面对难倒一众大模型「吉娃娃or松饼」的难题,它只需被投喂一张吉娃娃的照片,就能瞬间迎刃解。也是同样的团队,推出了基于视觉提示的检测模型T-Rex。T-Rex2让通用物体检测又迈出了新的一步。
智源研究院推出新一代多模态小模型Bunny-3B
智源研究院近期提出了一项新技术,通过数据浓缩技术获得高质量训练数据,从提升多模态小模型的性能。他们将LAION-2B压缩成2M核心集,得到更丰富的预训练数据,同时精选数据集进行指令微调,训练出性能强劲的小模型。通过数据浓缩技术获得高质量训练数据,Bunny系列小模型在多模态任务上表现优异,将促进大模型技术的发展和普及。
智源研究院推出text-to-3D生成模型 GeoDream
智源研究院联合清华和北邮团队推出text-to-3D生成模型GeoDream,能够将输入的文字描述转化为高质量和多视角一致性的3D资产。与传统的方法不同,GeoDream通过解耦的方式利用2D和3D先验,解决了3D结构不一致性的问题,并支持导出高保真的texturemeshes和高分辨率的渲染图片。GeoDream展示了对复杂输入的生成结果,支持导出meshes和高分辨率UVmaps,方便后续的3D创作和应用。
智源研究院推出1bit自然语言理解预训练模型BiPFT
智源研究院提出了首个用于自然语言理解任务的1bit轻量化预训练模型BiPFT。与传统的FP32模型相比,BiPFT模型在推理阶段显著减少了操作数量和内存使用。该模型在不同超参数设定下都能取得更好的效果,具有较好的独立学习能力和超参数鲁棒性。
智源研究院开源代码生成训练数据集与评测基准TACO
TACO是一个专注于算法的代码生成数据集,旨在为代码生成模型提供更具挑战性的训练数据集和评测基准。与当前主流代码评测基准相比,TACO在数据规模、数据质量和细粒度评测方案上具有明显优势。提供细粒度标签:TACO数据集中每个题目均包含任务主题、算法、技能及难度等细粒度标签,为代码生成模型的训练与评测更精确的参考。
智源研究院开源发布新一代生成式多模态基础模型 Emu2
2023年12月21日,智源研究院发布了新一代多模态基础模型Emu2。Emu2通过大规模自回归生成式多模态预训练,显著推动了多模态上下文学习能力的突破。相比于Emu1,Emu2采用了更简单的建模框架,训练了更好的解码器,并将模型规模化到37B参数。
科大讯飞旗下讯飞医疗成立AI研究院 注册资本3000万
天眼查App显示,近日,泰州讯飞医疗人工智能研究院有限公司成立,注册资本3000万人民币,经营范围含第三类医疗器械经营、生产,第二类医疗器械生产,依托实体医院的互联网医院服务,第二类医疗器械销售,人工智能应用软件开发,人工智能理论与算法软件开发,远程健康管理服务等。股东信息显示,该公司由科大讯飞旗下讯飞医疗科技股份有限公司、泰州通泰投资有限�
开心汽车成立AI汽车研究院 制定人工智能发展规划
开心汽车宣布正式成立AI汽车研究院,任命开心汽车高级副总裁顾镭担任AI汽车研究院院长,并制定公司在人工智能应用层面的发展规划。开心汽车积极谋求和人工智能头部企业开展合作,共同打造智能、安全、高效的汽车出行产品和服务。开心汽车董事长兼CEO林明军表示:“AI汽车是未来的发展趋势,开心汽车转型新能源汽车制造不仅仅是硬件,更需要在软件上的提升。
科大讯飞与申昊科技合作 将共建工业AI机器人研究院
12月9日,科大讯飞股份有限公司与杭州申昊科技股份有限公司在杭州签署框架合作协议。实现大模型与工业机器人的深度融合并率先在电力场景实现工程化应用,合力推动能源电力、矿山等领域工业大健康的深入合作。科大讯飞和申昊科技将借助各自优势,致力于通用人工智能技术助力现有工业机器人智能化革新,实现工业机器人从多维感知到多模态认知再到智能决策和自主执行的智能体技术升级,并在电力场景完成工程化应用落地。
智源研究院发布LM-Cocktail模型治理策略 低成本提升模型性能
智源研究院最近发布了LM-Cocktail模型治理策略,旨在为大模型开发者提供一个低成本持续提升模型性能的方式。该策略通过融合多个模型的优势,实现在目标任务上性能的提升,同时保持在通用任务上的强大能力。LM-Cocktail已在实验中展现了良好的性能。
南方科技大学联合IDEA研究院发布 SUS-Chat-34B 双语模型
南方科技大学联合IDEA研究院CCNL中心发布了SUS-Chat-34B,这是一个参数规模为340亿的双语模型。该模型在众多中英文任务上表现出色,超越了其他同参数规模的模型。即使与更大参数规模的模型相比,SUS-Chat-34B模型也具有不错的竞争力更长的上下文窗口与出色的多轮对话能力:SUS-Chat-34B原生支持8K的上下文窗口,在大量多轮指令以及单多轮混合数据中进行训练,具有出色的长文本对话信息关注与指令跟随能力。
微软亚洲研究院韦福如:人工智能基础创新的第二增长曲线
本文为微软亚洲研究院全球研究合伙人韦福如的分享,讲述了他对人工智能、计算机及其交叉学科领域的观点洞察及前沿展望。从人工智能的发展历程来看,GPT系列模型的问世无疑是一个重要的里程碑。2017年,他因对自然语言处理的贡献入选《麻省理工技术评论》中国35岁以下创新者年度榜单。
用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用
用视觉来做Prompt,是种什么体验?只需在图里随便框一下,结果秒秒钟圈出同一类别!即便是那种GPT-4V都难搞定的数米粒的环节。只需要你手动拉一下框,就能找出所有米粒来。发布会最后,沈向洋发布《低空经济发展白皮书——深圳方案》,在其智能融合低空系统中,提出时空进程新概念。
智源研究院开源JudgeLM 可评测各类大模型并输出评分
智源研究院开源了一种名为JudgeLM的裁判模型,可以高效准确地评判各类大模型。与GPT-4相比,JudgeLM仅需1/120的成本,就能达到90%以上的评判结果一致性。JudgeLM团队将进一步完善这一裁判模型,提供更准确、高效、覆盖更多场景的大语言模型评判。
文本生成高精准3D模型,北京智源AI研究院等出品—3D-GPT
北京智源AI研究院、牛津大学、澳大利亚国立大学联合发布了一项研究—3D-GPT,通过文本问答方式就能创建高精准3D模型。3D-GPT使用了大语言模型的多任务推理能力,通过任务调度代理、概念化代理和建模代理三大模块,简化了3D建模的开发流程实现技术民主化。在多步语言指令的场景中,3D-GPT能够充分理解每一步指令,并对场景进行准确修改。
微软AI研究推数学LLM Orca-Math:通过对Mistral-7B模型进行微调的7B参数小模型
微软研究团队引领着教育技术领域的不断创新,近日推出了一款名为Orca-Math的前沿工具,它是一款小语言模型,拥有7亿参数,并基于Mistral-7B架构微调来。这一创新方法重新定义了传统数学单词问题教学的策略,彻底改变了学生参与和掌握这一学科的方式。通过利用SLM通过合成数据集和迭代反馈来解锁学习工具的全新时代,Orca-Math为技术和学习手牵手走向解锁全球学生的全部潜力的未来提供了一瞥。
研究人员推新AI框架CyberDemo:通过视觉观察让机器人模仿学习
加利福尼亚大学圣地亚哥分校和南加利福尼亚大学的研究人员最近推出了一种名为CyberDemo的新型人工智能框架,旨在通过视觉观察进行机器人模仿学习。传统的模仿学习方法通常需要大量高质量的示范数据来教导机器人完成复杂任务,特别是对于需要高度灵巧的任务来说。虽然为每个任务设计模拟环境需要额外的工作,但减少了数据收集的人为干预,并避免了复杂的奖励设计�
苹果研究人员提出MAD-Bench基准,克服多模态大语言模型中幻觉和误导性提示
在人工智能领域,多模式大语言模型在推动进步方面发挥了巨大作用,但它们面临处理误导性信息的挑战,可能导致不正确或产生幻觉的响应。这种脆弱性引发了对MLLM在需要准确解释文本和视觉数据的应用中可靠性的担忧。作为一个不断发展的领域,解决这些挑战对于在现实应用中部署MLLMs至关重要。
研究团队开发开源大模型训练框架 Oobleck 提供快速且有保障的故障修复
随着对生成式人工智能技术需求的激增,大型语言模型的训练和容错性要求也在不断增加。为应对这一挑战,密歇根大学的研究人员开发了一款名为Oobleck的开源大型模型训练框架。Oobleck的开发标志着利用固有冗余提高容错性的新里程碑,为大型模型的高效训练和故障恢复提供了一种创新性的解决方案。