哀悼!55岁商汤科技创始人汤晓鸥突然离世,他撑起中国计算机视觉研究半壁江山
【新智元导读】商汤科技创始人、著名人工智能科学家汤晓鸥于12月15日因病救治无效不幸离世,终年55岁。沉痛悼念!2023年12月15日23时45分,商汤科技创始人汤晓鸥教授因病救治无效不幸离世,终年55岁。中国AI界痛失英才,损失无法估量!汤晓鸥教授,R.I.P.。
吉娃娃or松饼难题被解决!IDEA研究院新模型T-Rex2打通文本视觉Prompt,连黑客帝国的子弹都能数清楚
还记得黑客帝国经典的子弹时间吗?IDEA研究院最新检测模型T-Rex2,可以齐刷刷给全部识别出来~面对难倒一众大模型「吉娃娃or松饼」的难题,它只需被投喂一张吉娃娃的照片,就能瞬间迎刃解。也是同样的团队,推出了基于视觉提示的检测模型T-Rex。T-Rex2让通用物体检测又迈出了新的一步。
研究人员推新AI框架CyberDemo:通过视觉观察让机器人模仿学习
加利福尼亚大学圣地亚哥分校和南加利福尼亚大学的研究人员最近推出了一种名为CyberDemo的新型人工智能框架,旨在通过视觉观察进行机器人模仿学习。传统的模仿学习方法通常需要大量高质量的示范数据来教导机器人完成复杂任务,特别是对于需要高度灵巧的任务来说。虽然为每个任务设计模拟环境需要额外的工作,但减少了数据收集的人为干预,并避免了复杂的奖励设计�
研究显示:生成式人工智能对视觉效果和后期制作员工构成重大威胁
一项新的研究发现,生成式人工智能对视觉特效和其他后期制作工作的从业者构成了巨大的威胁。生成式人工智能正在摧毁好莱坞的就业机会前景不容乐观。最不可能受到影响的任务包括编写电影、电视或游戏剧本,以及表演音乐或声乐。
MIT最新研究:纯文本模型也能训练出视觉表征 用代码就能作画
MIT计算机科学与人工智能实验室的研究人员进行了一项有趣的研究,通过评估语言模型的视觉能力,揭示了纯文本模型训练视觉概念表征的新可能性。他们使用代码非图像进行渲染和表示,成功地教会语言模型生成和理解复杂的视觉概念。这为未来发展更强大的纯文本模型提供了启示,有望推动语言模型在视觉领域的更广泛应用。
谷歌AI研究提出 SpatialVLM:一种数据合成和预训练机制,以增强视觉语言模型 VLM 空间推理能力
谷歌AI研究团队最近提出了SpatialVLM,这是一种旨在增强视觉语言模型空间推理能力的创新系统。尽管先进的模型如GPT-4V在人工智能驱动任务中取得了显著进展,但它们在空间推理方面仍存在显著局限。-SpatialVLM的开发标志着人工智能技术的重大进步。
MIT新研究:打工人不用担心被AI淘汰!成本巨贵,视觉工作只有23%可替代
【新智元导读】MIT计算机科学与人工智能实验室的一项研究发现:不用担心视觉AI会很快淘汰人类打工人,因为对于企业来说,它们实在是太贵了。人工智能会抢走我们的工作吗?如果你每天都看硅谷高管谈论着当今尖端的AI技术,可能会觉得答案是肯定的,并且会很快发生。AI对于就业和劳动力市场的影响,短时间内还很难达成共识。
研究: AI代替打工人成本太高,只有23% 视觉工作可替代
根据MIT计算机科学与人工智能实验室的研究,人工智能对打工人的淘汰速度可能比人们想象中的要慢得多。这是因为对于企业来说,视觉AI实在是太贵了。只有降低AI部署成本并扩大应用范围,才能让自动化对企业更具吸引力。
谷歌研究团队推新AI方法SynCLR:从合成图像和字幕中学习视觉表征
GoogleResearch和MITCSAIL共同推出了一项名为SynCLR的新型人工智能方法,该方法旨在通过使用合成图像和字幕,实现对视觉表征的学习,摆脱对真实数据的依赖。SynCLR的工作原理研究团队首先提出了一个三阶段的方法。这些改进有望进一步提升合成数据在训练人工智能模型中的效果。
用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用
用视觉来做Prompt,是种什么体验?只需在图里随便框一下,结果秒秒钟圈出同一类别!即便是那种GPT-4V都难搞定的数米粒的环节。只需要你手动拉一下框,就能找出所有米粒来。发布会最后,沈向洋发布《低空经济发展白皮书——深圳方案》,在其智能融合低空系统中,提出时空进程新概念。
微软研究推新型视觉基础模型Florence-2:基于统一提示,适用各种计算机视觉和视觉语言任务
人工智能领域的趋势是采用预训练、可调整表示的方法,为各种应用提供任务不可知的优势。与此趋势相呼应,微软研究推出了Florence-2,这是一款灵活的视觉基础模型,通过统一提示式表示成功应对了计算机视觉中的挑战。如果您喜欢他们的工作,请查看论文,并加入他们的社交媒体群体,获取最新的人工智能研究新闻和有趣的项目。
中国研究人员推出强大开源视觉语言基础模型CogVLM
中国研究人员介绍了一款名为CogVLM的强大开源视觉语言基础模型。该模型在视觉和语言信息的深度整合方面取得了显著的进展,通过引入可训练的视觉专家,在VLM预训练过程中提高了语言模型的视觉理解能力。CogVLM作为一款强大的开源视觉语言基础模型,通过创新的训练方法和深度整合策略,成功提高了视觉理解能力,为跨模态任务的性能提升开辟了新的途径。