刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁
【新智元导读】初创团队MistralAI再次放出一条磁力链,281GB文件解禁了最新的8x22BMoE模型。一条磁力链,MistralAI又来闷声不响搞事情。最新的8x22BMoE模型也在抱抱脸平台上上线,社区成员可以基于此构建自己应用。
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
马斯克承诺的开源版大模型Grok终于来了!今天凌晨,马斯克旗下大模型公司xAI宣布正式开源3140亿参数的混合专家模型「Grok-1」,以及该模型的权重和网络架构。这也使得Grok-1成为当前参数量最大的开源大语言模型。鉴于马斯克对开源的积极态度,有些技术人员已经在期待后续版本的开源了。
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型
「高端」的开源,往往采用最朴素的发布方式。MistralAI在X平台甩出一条磁力链接,宣布了新的开源动作。这篇报道还提到,ArthurMensch表示「虽然公司尚未赚到任何钱,但预计这种情况将在年底前发生改变,因为该公司准备了一个新平台,供客户访问其人工智能模型。