千亿开胃菜 中国电信开源12B星辰大模型:性能提升30%
中国电信近期宣布开源其12B参数规模的巨型AI模型TeleChat-12B,此举标志着国内大模型技术发展的又一重要进展。与1月份发布的7B参数版本相比,TeleChat-12B在内容理解、性能表现和应用场景等方面实现了约30%的整体提升,特别是在多轮对话推理和安全相关领域的能力上,提高超过了40%。除了在传统行业中的应用,星辰大模型也在积极探索更多前沿领域的应用,例如在无人机智能编
更小更强大!Hugging Face发布8B开源视觉语言模型Idefics2
HuggingFace首次发布了其Idefics视觉语言模型,该模型于2023年首次亮相,采用了最初由DeepMind开发的技术。Idefics迎来了升级,新版本Idefics2拥有更小的参数规模、开放许可证以及改进的光学字符识别能力。Idefics2的发布是AI繁荣持续推出的许多多模态模型之一,包括Reka的新Core模型、xAI的Grok-1.5V和Google的Imagen2。
阿里刚开源32B大模型,我们立马测试了“弱智吧”
阿里的通义千问,终于拼齐了1.5系列的最后一块拼图——正式开源Qwen1.5-32B。直接来看“成绩单”。GQA的引入就降低了注意力计算的数量,从加速了推理时间。
通义千问开源新Qwen1.5-32B模型 推理速度更快,成本更低
通义千问近期开源了新的Qwen1.5-32B模型,该模型在语言理解、支持多语言、编程和数学能力方面表现出色。Qwen1.5-32B模型不仅支持多语言融合了GQA技术,使得模型在推理方面的效率更高,同时降低了部署成本。Qwen1.5-32B模型的开源将为语言理解和推理技术的发展带来重大影响,为解决复杂问题提供了更加强大的工具和资源。
通义千问开源Qwen1.5-32B 模型系列
通义千问团队最新发布了Qwen1.5-32B模型系列,其中包括Qwen1.5-32B和Qwen1.5-32B-Chat。这些模型在模型架构上与之前的Qwen1.5系列基本相同,但参数量减少至32B,旨在提供更高效、更经济实惠的解决方案。此次发布旨在解决14B模型在智能体场景下能力弱和72B模型推理成本高的问题。
阿里通义千问开源Qwen1.5-MoE-A2.7B模型
通义千问团队推出了Qwen系列的首个MoE模型,命名为Qwen1.5-MoE-A2.7B。这个模型只有27亿个激活参数,但性能却与当前最先进的70亿参数模型相媲美。Qwen1.5-MoE模型在性能、效率和推理速度方面取得了显著的优势,是推理训练的最佳实践之一。
Jamba官网体验入口 最新高性能开源AI语言模型下载使用地址
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
开源大模型DBRX:1320亿参数,比Llama2-70B快1倍
大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。DBRX在基准测试中击败了Grok-1、Mixtral等开源模型,成为了新的开源之王。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
DBRX官网体验入口 AI大型语言开源模型软件工具app免费下载地址
DBRX是一个由Databricks的Mosaic研究团队构建的通用大型语言模型,在标准基准测试中表现优于所有现有开源模型。它采用Mixture-of-Experts架构,使用362亿个参数,拥有出色的语言理解、编程、数学和逻辑推理能力。为了体验「DBRX」的强大功能,请访问AIbase网站查看更多介绍。
1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX
3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。DBRX是一个专家混合模型有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。Databricks主要提数据智能分析服务,帮助企业、个人用户快速挖掘数据的商业价值。
Mistral 7B v0.2 基模型开源,支持32K上下文
MistralAI最新开源了Mistral7Bv0.2BaseModel,在一个名为CerebralValley的黑客松活动上宣布。这次更新将上下文提升到32K,取消了滑动窗口,同时设置了RopeTheta为1e6。MistralAI将继续努力,与同行竞争,并为客户提供更优质的人工智能解决方案。
智源开源最强检索排序模型 BGE Re-Ranker v2.0
智源研究院推出了新一代检索排序模型BGERe-Rankerv2.0,支持100种语言,文本长度更长,并在多项评测中达到了SOTA的结果。该模型是智源团队在BGE系列基础上的新尝试,扩展了向量模型的“文本图片”混合检索能力。智源研究院推出的BGERe-Rankerv2.0检索排序模型具有强大的多语言支持、更长文本长度、优秀的检索效果和灵活的“文本图片”混合检索功能,为信息检索领域带来了新的利器。
马斯克本周将开源类ChatGPT产品Grok,性能超越GPT-3.5和LLaMA270B
马斯克宣布将在本周开源由xAI旗下公司推出的生成式AI产品——Grok。这款类ChatGPT产品于去年11月首次亮相,针对生成文本、代码、邮件和信息检索等多个领域提供功能。以上内容参考xAI官网,如有侵权请联系删除。
Yi-9B官网体验入口 零一万物01.AI开源大模型免费下载地址
Yi-9B是01.AI研发的下一代开源双语大型语言模型系列之一。训练数据量达3T,展现出强大的语言理解、常识推理、阅读理解等能力。要获取更多详细信息并开始体验Yi-9B,请访问Yi-9B网站。
Gemma-2B-IT官网体验入口 谷歌AI开源模型指令调整工具使用方法
Gemma-2B-IT是谷歌推出的2B参数指令调整模型,基于Gemini架构,专为提高数学、推理和代码处理能力设计。该模型在普通笔记本上即可运行,无需庞大的AI算力,适用于多种应用场景。赶快体验这款强大的AI写作指令调整工具吧!
Gemma-7B官网体验入口 谷歌开源人工智能AI模型免费下载地址
Gemma-7B是由谷歌开发的一个具有70亿参数的大型预训练语言模型,旨在提供强大的自然语言处理能力。它能够理解和生成文本,支持多种语言,适用于多种应用场景。
Gemma-2b官网体验入口 谷歌最新开源模型免费在线使用下载地址
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。要了解更多关于Gemma-2b的信息和开始使用这一全球热门的预训练模型,请访问Gemma-2b官方网站。
Nomic AI发布开源嵌入模型Nomic Embed,击败OpenAI的Ada-002
NomicAI最新发布的开源嵌入模型NomicEmbed正式亮相,以卓越的性能超越了OpenAI的Ada-002和text-embedding-3-small模型。这一消息是由THEDECODER的在线记者MatthiasBastian于2024年2月1日发布的。NomicAI的这一突破性开源项目是对人工智能领域的一项重要贡献。
Code Llama 70B官网体验入口 Meta开源代码生成工具下载地址
CodeLlama70B是一个基于175亿参数通用语言模型Llama2的大型开源代码生成语言模型。经过专门针对代码生成任务的微调,CodeLlama70B能够高效准确地生成多种编程语言的代码,包括Python、C、Java等。探索更多关于CodeLlama70B的信息,访问官方网站。
AI视野:Stability AI发布代码模型Stable Code3B;书生·浦语2.0正式开源;阿里推新项目MotionShop;Win11新增AI生成图像功能
StabilityAI公司发布了其首个新型人工智能模型,商业许可的StableCode3B。字节复旦团队提出metaprompts扩散模型图像理解力刷新SOTA过去一年,扩散模型逐渐在文生图领域扩展,能否处理视觉感知任务呢?字节跳动和复旦大学技术团队提出了简单有效方案,旨在提高模型在视觉识别任务中的性能。