华为实现全国首个省域轻量化5G全网覆盖:较4G可提升10倍 功耗低20%
近日天津移动联合华为,全网开通5GRedCap特性,将天津打造成全国首个省域RedCap物联之城。作为3GPPR17协议中面向中高速物联的关键技术,RedCap被业内称为轻量化的5G。RedCap可降低80%的5GeMBB模组成本,终端功耗较4G可降低20%,网络容量较4G可提升10倍以上。
盲订两天破10000!星纪魅族首款轻量化AR智能眼镜官宣新功能:真无线
魅族在10月30日正式官宣了首款轻量化AR智能眼镜,上线两天盲订订单量就突破了10000,非常火爆。官方对于新品再度预热,剧透该机将支持真无线连接,主打无牵无挂”更轻量化的双模真无线,在极致的重量控制下,提供更全面的无线通讯功能。作为星纪魅族集团推出的全新智能产品品类,可以期待后续它与魅族手机及Flyme生态的深度协同,以及更多出色功能的亮相。
百度智能云发布ERNIE Speed、Lite、Tiny 3款轻量级大模型
百度智能云近期举办了盛大的千帆产品发布会,会上重点发布了三款轻量级大模型,它们分别是ERNIESpeed、ERNIELite以及ERNIETiny。相较于那些拥有千亿级别参数的大模型,这些轻量级大模型显著减少了参数量,因此更加便于客户针对特定应用场景进行模型精调。ERNIESpeed在阅读理解、close-book问答、创作与续写等复杂任务上,也能达到甚至超越千亿大模型的效果,充分展现了其强大的应用潜力和价值。
Apollo开源轻量级多语言医疗 LLM:助力将医疗 AI 民主化推广至60亿人口
医疗人工智能技术正在迅速发展,旨在利用大型语言模型的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。该倡议弥补了全球医疗沟通中的重要差距,并为未来的多语言医疗AI创新奠定了基础。
Gemma官网体验入口 谷歌轻量级开源AI模型免费在线使用地址
Gemma是谷歌一系列轻量级、最先进的开放模型,采用了用于创建Gemini模型的相同研究和技术。Gemma模型由GoogleDeepMind和Google其他团队开发,灵感来自Gemini,并且在模型权重的同时发布了支持开发者创新、促进协作以及指导负责使用Gemma模型的工具。点击前往Gemma官网体验入口需求人群:"Gemma可用于开发人工智能应用,支持各种应用场景。
MobileDiffusion官网体验入口 轻量级文本到图像生成模型免费使用地址
MobileDiffusion是一个轻量级的潜在扩散模型,专为移动设备设计。该模型可以在0.5秒内根据文本提示生成512x512高质量图像。了解更多想要深入了解MobileDiffusion的使用方法和技术原理,请访问AIbase产品库了解更多相关信息。
清华系发布全新金融AI功夫量化 几秒完成金融数据分析
国内AI创新企业功夫源科技推出了一款名为「功夫量化」的金融数据分析AI应用,标志着金融数据分析领域的一次重大突破。「功夫量化」AI应用能够在PB级金融数据中以秒级速度进行精准的信息搜寻,为普通投资者提供了一款无需编程即可轻松进行数据分析的金融工具。随着AI技术的不断进步,金融交易将变得更加智能化和个性化,我们有理由相信,这将是金融领域应用的新纪元。
元象大模型开源30款量化版本 可更低成本部署
元象大模型开源了30款量化版本,支持vLLM和llama.cpp等主流框架的量化推理,无条件免费商用。对量化前后的模型能力、推理性能进行评估,以XVERSE-13B-GPTQ-Int4量化版本为例,量化后模型权重压缩了72%,总吞吐提高了1.5倍,同时保留了95%的能力。元象大模型的开源量化版本提供了方便快捷的部署方式,可以根据需求选择不同的框架和精度模型进行部署和推理。
让大模型“瘦身”90%!清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
对大模型进行量化、剪枝等压缩操作,是部署时最常见不过的一环了。这个极限究竟有多大?清华大学和哈工大的一项联合研究给出的答案是:90%。作者进一步分析了这种极低比特量化模型的能力和前景,并为未来的研究提供了指导。
LQ-LoRA:通过低秩量化矩阵分解实现高效的语言模型微调
在人工智能领域,大语言模型的迅速发展已经改变了机器与人之间的互动方式。将这些庞大的语言模型适应新数据集时面临内存和费用的挑战。LQ-LoRA标志着语言模型领域的一个重要转折,其内存高效适应和数据感知考虑,以及动态量化参数调整,有望引领人工智能领域的变革。
零一万物Yi-34B-Chat微调模型及量化版开源
11月24日,零一万物基正式发布并开源微调模型Yi-34B-Chat,可申请免费商用。零一万物还为开发者提供了4bit/8bit量化版模型,Yi-34B-Chat4bit量化版模型可以直接在消费级显卡上使用。Yi系列模型已在ModelScope社区开源,开发者可以在社区中下载、推理和训练这些模型。
这项AI研究引入 Atom:一种低位量化技术,可实现高效、准确LLM服务
大型语言模型是人工智能领域最新的引入,已经席卷全球。这些模型以其令人难以置信的能力,被人们广泛使用,无论是研究人员、科学家还是学生。对Atom的性能进行了全面评估,结果显示Atom极大地提高了LLM服务的吞吐量,吞吐量增益最多可达到7.7倍,同时仅有微小的准确性损失。
亚马逊研究人员推 Fortuna:提高模型预测准确性和量化不确定性能力
人工智能和机器学习领域的最新进展使人们的生活变得更加便利。凭借其令人难以置信的能力,人工智能和机器学习正在涉足各个行业并解决问题。Fortuna为模型预测的不确定性量化提供了一个一致的框架,无疑是机器学习领域中的一个有用的补充。