小鹏汽车与大众汽车集团签订EEA电子电气架构技术战略合作框架协议
小鹏汽车与大众汽车集团签订了EEA电子电气架构技术战略合作框架协议,双方将联合开发行业领先的电子电气架构。这一框架协议将使小鹏汽车最新一代基于中央计算和域控制器的电子电气架构集成到大众汽车在中国生产的电动车型上,预计从2026年开始应用。这一合作框架协议标志着小鹏汽车与大众汽车集团在中国市场电动车平台领域的战略合作,开启了双方合作的新里程碑。
日本岸田首相将宣布国际框架,规范生成式人工智能
日本首相岸田文雄将在即将于5月初举行的经济合作与发展组织会议上宣布一个用于规范和使用生成式人工智能的国际框架。预计将有40多个国家参与,日本旨在在创建国际人工智能规则方面取得领先地位。视频中将介绍OP作为一种有用的技术,用于识别虚假信息。
蚂蚁集团等发布开源大模型知识抽取框架OneKE
蚂蚁集团和浙江大学合作开发了一个名为OneKE的开源大模型知识抽取框架。该框架旨在帮助处理信息抽取、文本数据结构化和知识图谱构建等任务,为研究人员和开发者提供有力工具。他们将持续优化知识抽取的性能,并将相关技术应用到金融、医疗、政务等领域,推动可控生成技术的产业落地。
北大发布新图像生成框架VAR 推理速度提高20倍
北京大学最近发布了一种新的图像生成框架,名为VAR。这一突破性的技术首次使GPT风格的自回归模型在图像生成上超越了扩散transformer,同时展现出了与大语言模型观察到的类似Scalinglaws的规律。VAR算法为计算机视觉中的自回归算法设计提供了新的见解,有望推动这一领域的进一步发展。
DreaMoving可控制AI视频生成框架使用地址 阿里dreamoving官方入口
DreaMoving是什么?DreaMoving是阿里一个基于扩散模型的可控制视频生成框架,用于生成高质量的定制人类舞蹈视频。DreaMoving能够适应大多数风格化扩散模型以生成多样化的结果。
「有效上下文」提升20倍!DeepMind发布ReadAgent框架
【新智元导读】模仿人类阅读过程,先分段摘要再回忆,谷歌新框架ReadAgent在三个长文档阅读理解数据集上取得了更强的性能,有效上下文提升了3-20倍。基于Transformer的大语言模型具有很强的语言理解能力,但LLM一次能够读取的文本量仍然受到极大限制。还可以看到ReadAgentS大大优于ReadAgent-P,性能改进的代价是检索阶段的请求数量增加了六倍。
新机器学习框架DRAGIN:用于大语言模型中的动态检索增强,胜过传统方法
研究人员从清华大学和北京理工大学开发了DRAGIN,这是一种针对大型语言模型设计的动态检索增强生成框架。该框架旨在通过在文本生成过程中实时确定何时以及如何检索外部信息,从提高语言模型的性能。未来的工作旨在克服与自注意力可访问性相关的限制,并对查询构建技术的影响进行评估。
Mini-Gemini:简单有效的AI框架,增强多模态视觉语言模型
中国香港中文大学和SmartMore的研究人员推出了一种名为Mini-Gemini的新颖框架,通过增强多模态输入处理来推动VLMs的发展。Mini-Gemini采用了双编码器系统和一种新颖的补丁信息挖掘技术,结合一个特别策划的高质量数据集,使其能够有效处理高分辨率图像并生成内容丰富的视觉和文本内容,从使其脱颖出。正如研究人员所承认的那样,Mini-Gemini在视觉理解和推理能力方面仍有改进�
Meta推新框架OPT2I 提高SD图像生成一致性
Meta公司最近推出了一款名为OPT2I的新框架,该框架利用大型语言模型来提高SD图像从提示词到图像的生成过程中的一致性。OPT2I是一个优化框架,旨在提升T2I模型中的提示-图像一致性。OPT2I框架为提高T2I模型的提示-图像一致性提供了一种新的有效方法。
TOXCL:用于检测和解释隐性有毒言论的统一AI框架
社交媒体上的毒性言论可能会像野火般蔓延,特别是针对个人和边缘化群体。明显的仇恨言论相对容易被发现,但隐含毒性——依赖于刻板印象和编码语言不是明显的侮辱——提出了更为棘手的挑战。但通过谨慎使用,它为赋予边缘化声音权力和遏制网络上的压制性言论提供了一条道路。
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
随着ChatGPT的出现,大语言模型在生成连贯文本和遵循指令方面获得了巨大技术突破。然后在推理和解决复杂内容方面,面临内容不准确、安全等难题。每次只需要一个查询获得相似性能的集成方法需要40倍的查询量,也就是说可以节省很多算力资源。
视频转视频框架AnyV2V 可修改源视频主题、风格等
一项名为AnyV2V的全新视频转视频框架引起了广泛关注。这一框架的独特之处在于,它不仅支持对源视频进行深度修改能加入附加的控制元素,如文本提示、主题或风格,以生成一个既与原视频相符,又与所提供的控制内容相匹配的新视频。这一框架的推出,无疑为视频编辑领域带来了新的创新和可能性。
MIT研究员推新AI图片生成框架DMD:AI 单步生成高质量图像 速度快30倍
在当今人工智能时代,计算机可以通过扩散模型生成自己的“艺术”,逐步向嘈杂的初始状态添加结构,直到清晰的图像或视频出现。扩散模型突然变得异常受欢迎:输入几个词,即可体验现实与幻想交汇的梦幻景象。当前版本使用StableDiffusionv1.5作为教师模型,学生继承了一些限制,如渲染文本和小脸部的细节描绘,这表明更先进的教师模型可能进一步提升DMD生成的图像。
HPT官网体验入口 HyperGAI多模态语言开源模型框架免费使用地址
HPT是HyperGAI研究团队推出的新型多模态大型语言模型框架。它具有高效且可扩展地训练大型多模态基础模型的能力,能够理解包括文本、图像、视频等多种输入模态。点击前往HPT官网体验入口需求人群:"适用于需要处理和理解多模态数据的研究人员和开发者,如进行视觉-语言任务、图像分析、图表解读等。
谷歌发布 “Vlogger” 视频模型框架:单张图片生成 10 秒视频
谷歌最近发布了一项名为“Vlogger”的新视频框架,可以通过仅一张图片和录音即可生成一个本人演讲视频。这一框架基于扩散模型,包含音频到人体动作和文本到图像模型两部分。随着技术的不断进步和完善,相信Vlogger将在未来有更广泛的应用和发展。
文生图框架LaVi-Bridge:无需训练,将不同模型结合使用
LaVi-Bridge项目是一个无需训练将不同的语言模型和生成视觉模型结合起来,以实现文本到图像的生成的项目。LaVi-Bridge是一个灵活的框架,它允许将不同的预训练语言模型和生成视觉模型集成到文本到图像生成的过程中。在短提示、长提示和组合提示下的文本对齐和图像质量指标上进行了广泛的评估,并通过大量可视化实验验证了LaVi-Bridge的有效性。
开源AI框架LaVague:理解自然语言指令 实现浏览器交互自动化
LaVague是一个旨在自动化浏览器交互的大型动作模型框架,通过将自然语言指令转化为无缝的浏览器交互,重新定义了互联网浏览体验。该框架的设计初衷是为用户自动化繁琐的任务,节省时间,让用户能够专注于更有意义的事务。未来的发展方向可能包括优化本地模型、改进信息检索以确保生成的代码片段相关性、支持其他浏览器引擎等。
新AI框架H2O:将人类动作实时转换为机器人动作 可行走、后空翻、踢球等
在最新的研究中,由卡内基梅隆大学的研究团队开发,提出了一种名为H2O的框架,通过强化学习实现了人对人形机器人的实时全身遥控操作。该框架在仅使用RGB摄像头的条件下,成功地让人形机器人模仿并实时执行各种动态的全身运动,包括行走、后空翻、踢球、转身、挥手、推动、拳击等。这是首次在人形机器人领域实现了这一技术上的突破,为全新的人机交互和协作场景�
SLD自纠正LLM控制的扩散模型框架怎么使用?SLD官网地址入口
SLD 是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。点击前往SLD官网体验入口需求人群:适用于需要精确文本到图像对齐的研究者和开发者,以及希望进行图像生成和编辑的用户。使用场景示例:使用SLD框架根据文本提示生�
MovieLLM官网体验入口 AI视频创作综合框架详细介绍
MovieLLM是一个创新框架,旨在为长视频创建合成的、高质量的数据。该框架利用GPT-4和文本到图像模型的力量,生成详细的脚本和相应的视觉内容。MovieLLM将为您提供强大的支持和创意工具,让视频创作更加简单和高效。