百度智能云发布ERNIE Speed、Lite、Tiny 3款轻量级大模型
百度智能云近期举办了盛大的千帆产品发布会,会上重点发布了三款轻量级大模型,它们分别是ERNIESpeed、ERNIELite以及ERNIETiny。相较于那些拥有千亿级别参数的大模型,这些轻量级大模型显著减少了参数量,因此更加便于客户针对特定应用场景进行模型精调。ERNIESpeed在阅读理解、close-book问答、创作与续写等复杂任务上,也能达到甚至超越千亿大模型的效果,充分展现了其强大的应用潜力和价值。
Apollo开源轻量级多语言医疗 LLM:助力将医疗 AI 民主化推广至60亿人口
医疗人工智能技术正在迅速发展,旨在利用大型语言模型的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。该倡议弥补了全球医疗沟通中的重要差距,并为未来的多语言医疗AI创新奠定了基础。
Gemma官网体验入口 谷歌轻量级开源AI模型免费在线使用地址
Gemma是谷歌一系列轻量级、最先进的开放模型,采用了用于创建Gemini模型的相同研究和技术。Gemma模型由GoogleDeepMind和Google其他团队开发,灵感来自Gemini,并且在模型权重的同时发布了支持开发者创新、促进协作以及指导负责使用Gemma模型的工具。点击前往Gemma官网体验入口需求人群:"Gemma可用于开发人工智能应用,支持各种应用场景。
MobileDiffusion官网体验入口 轻量级文本到图像生成模型免费使用地址
MobileDiffusion是一个轻量级的潜在扩散模型,专为移动设备设计。该模型可以在0.5秒内根据文本提示生成512x512高质量图像。了解更多想要深入了解MobileDiffusion的使用方法和技术原理,请访问AIbase产品库了解更多相关信息。
全球首台!仿人脑超算「深南」即将面世,突破摩尔定律,能耗降低几个数量级
这总体上加快了大脑的计算速度,因为内存和处理器之间没有分离,这在经典(冯·诺依曼)机器中会导致速度减慢。但它也避免了执行从主存储器组件访问数据的特定任务的需要,就像传统计算系统中发生的那样,并且消耗大量的能量。
PyTorch团队推出轻量级runtime
ExecuTorch:ExecuTorch是PyTorchEdge团队推出的全新解决方案,旨在支持移动设备和边缘设备上的本地推断能力,得到了Arm、Apple和QualcommInnovationCenter等行业领先公司的支持。ExecuTorch的关键组成部分:ExecuTorch提供了紧凑的运行时环境,具有轻量级操作员注册表,可以覆盖PyTorch模型生态系统,并为在边缘设备上执行PyTorch程序提供了简化的路径。PyTorchEdge提供了核心组件的可移植性,这些组件适用于不同硬件配置、性能和效率的设备,通过自定义优化以及定义良好的入口点、表示和工具,提高了开发人员的生产力。
南加州大学提出通道式轻量级重编码CLR 解决大语言模型灾难性遗忘问题
在持续学习领域,南加州大学和GoogleResearch提出了一项创新的方法,通道式轻量级重编码,旨在解决模型在持续学习新任务时出现的灾难性遗忘问题。持续学习的关键挑战是如何在学习新任务后仍然保持对旧任务的性能CLR方法提供了一种有前景的解决方案。这一创新方法有望为未来的持续学习研究和应用提供更多的可能性。
Meta研究人员提出轻量级微调方法RA-DIT 以增强语言模型知识检索能力
Meta的研究人员提出了一种名为检索增强双指令调优的新型人工智能方法,用于提升语言模型的知识检索能力。该方法试图解决大型语言模型在捕获较为冷门知识时的局限性以及大规模预训练的高计算成本问题。该研究证明了轻量级指令调优对检索增强语言模型的有效性,特别是在涉及大规模外部知识源的场景中。
轻量级代码库分析工具ctoc开源
ctoc是一个轻量级工具,用于分析代码库的令牌级别信息。它是基于gocloc的,具有极快的性能。这对于与不同模型的互操作性非常重要。