给大模型补脑?腾讯发布ELLA,让SD模型提示词理解能力更强
腾讯昨天发布了一个名为ELLA的项目,这是一个高效的大语言模型适配器,能够无需训练就增强现有SD模型提示词理解的能力。ELLA将强大的大语言模型整合到文本到图像的扩散模型中,从显著提升模型处理文本对齐的能力不需要额外对U-Net或大语言模型进行训练。这个项目的发布为文本到图像模型的发展带来了新的可能性,也为未来的研究和应用提供了新的思路。
全球最强大模型易主!GPT-4被超越:Claude 3理解能力已接近人类 有明确伦理底线
这是GPT-4发布之后,第一次在纸面上被完全碾压。OpenAI最强竞争选手Anthropic发布了旗下最新大模型家族Claude3。还有人在线点名Altman,可以发布GPT-5了。
LeCun曝多模态LLM重大缺陷 提出Interleaved-MoF显著增强视觉理解能力
近期来自纽约大学和UC伯克利的研究团队在多模态大语言模型领域取得了重要突破,成功捕捉到了其在视觉理解方面存在的重大缺陷。研究人员发现,当前的MLLM在特定场景下,甚至在一些人类容易识别的图像问题上,表现不如随机猜测。这不仅对AI领域的研究有着积极的推动作用,也为未来开发更强大、全面的多模态大模型奠定了基础。
Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4
【新智元导读】大模型能否理解自己所说,Hinton和LeCun再次吵起来了。LeCun新论文证明,GPT-4回答问题准确率仅为15%,自回归模型不及人类。GPT-4无法处理文件和多模态问题,但能够解决注释者使用网络浏览解决的问题,主要是因为它正确地记住了需要结合起来才能得到答案的信息片段。
LongQLoRA:提升LLMs上下文理解能力
GitHub上一个名为LongQLoRA的新工具引发关注。它的作用是让LLMs能够理解更长的序列。这对于开发者和研究人员来说是一个好消息,他们可以利用这个工具来提升他们的LLMs模型的性能,进在自然语言处理领域取得更好的成绩。
三星Galaxy AI发布了款AI手机Galaxy S24:支持语言理解、图像识别等AI多模态能力
2024年1月18日凌晨,三星在举办了GalaxyAI全球新品发布会,宣告GalaxyS24系列的登场,应用了谷歌Gemininano大模型共同迎接“GalaxyAI时代”的到来。除了这个模型,GalaxyS24的一些功能还受益于谷歌Imagen2模型,将文本到图像的能力植入手机。S24、S24的起售价为115.5万韩元、135.3万韩元Ultra版则以169.84万韩元起售。
字节推多模态理解和图像定位模型LEGO 具备精准定位的能力
LEGO是一个由字节跳动和复旦大学联合研发的多模态理解和图像定位模型。这一模型具有处理和理解多种类型的输入的能力,包括图像、音频和视频。LEGO模型的研发和应用将为多模态理解和图像定位领域带来重大的突破,为相关领域的发展提供新的思路和解决方案。