Jasper公司收购Stability AI旗下的AI图像平台Clipdrop
AI企业软件公司Jasper成功完成对StabilityAI旗下ClipdropAI图像平台的收购。该平台以其强大的图像编辑工具闻名,用户可通过JasperAPI获得企业服务消费者仍可在Clipdrop.co购买独立版本。这次收购将进一步推动Jasper公司在AI图像处理领域的市场份额,同时StabilityAI则通过出售Clipdrop来缓解其财务压力,为其未来发展寻找更稳固的方向。
谷歌推出ASPIRE框架 让大模型具备自我判断意识
谷歌最近推出了一项名为ASPIRE的自适应评估框架,旨在帮助大型语言模型在面对置信度较低的样本时做出正确的判断。这个框架的核心技术思路是基于自我评估的选择性预测,通过任务定向微调、答案采样和自我评估学习三大模块来实现。随着这一框架的不断完善和应用,相信大型语言模型在各个领域的表现将会更加出色,为人们带来更好的体验和服务。
谷歌推出ASPIRE框架 用于增强大模型的选择性预测能力
在人工智能领域中,大型语言模型的重要性不言喻。传统的LLMs在预测过程中存在困难,无法对生成的答案的准确性进行自我评估。引入ASPIRE框架填补了这一空白,通过对LLMs进行微调和自我评估训练,提高了LLMs的选择性预测能力,为LLMs的应用提供了更高的可靠性和可信度。
新增全时四驱、专属服务:蔚来推送Aspen 3.5.0版本更新
全新版本的Aspen白杨3.5.0CN系统将于2024年1月19日正式开启分批推送。此次更新主要包含5智能驾驶、智能座舱、车身动力等5大方面。NOMI方面,新增记事功能和逗玩表情,用户可以通过语音创建需要提醒的信息,该功能还可以和日历进行联动。
硅谷AI圈爆火热文:AIGC热潮退后,最大输家或为Jasper和VC
近期硅谷AI创业市场发生了翻天覆地的变化,曾一度低迷的AI创业生态在一波投资热潮中迎来了复兴。这场狂潮带来的并非是所有公司的成功是明显的赢家和输家。AI创业者需要审时度势,避免被热钱冲昏头脑,同时在产品定位、技术壁垒和市场需求等方面精益求精,方能在竞争激烈的市场中脱颖出。
GitHub发布编程字体家族Monaspace 支持混合使用5款等宽字体
代码托管平台GitHub发布了一套名为Monaspace的开源编程字体家族。这套字体家族包含5种字体,分别是Neon、Argon、Krypton、Xenon和Radon。希望通过这款字体家族为编程工作带来更多乐趣。
小米:已捐献“UltraSpace 存储扩容” 相信友商会跟进
小米14正式发布,除了常规硬件升级外,雷军还宣布了一项重磅功能,即澎湃OS配合存储实现的存储扩容。小米将原本256GB的存储容量提升到了264GB原本512GB的存储容量更是提升到了528GB。小米已经将这个技术标准贡献给了UFS协会组织,这意味着不久的将来,各大手机厂商应该都会适配这个功能。
清华微软开源全新提示词压缩工具,长度骤降80%,GitHub怒砍3.1K星
清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!在自然语言处理中,有很多信息其实是重复的。如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。
微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本
微软研究发布了名为LLMLingua-2的模型,用于任务不可知的提示压缩。该模型通过智能地去除长提示中的不必要词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%,从降低成本和延迟。该公司认为这是一个有前途的方法,可以通过压缩提示实现更好的泛化能力和效率。
让大模型“瘦身”90%!清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
对大模型进行量化、剪枝等压缩操作,是部署时最常见不过的一环了。这个极限究竟有多大?清华大学和哈工大的一项联合研究给出的答案是:90%。作者进一步分析了这种极低比特量化模型的能力和前景,并为未来的研究提供了指导。
网站加载效率至少提升90%!谷歌Chrome测试共享字典压缩技术
近日谷歌官方发布公告表示,Chrome开发团队正着手在浏览器上实现共享字典压缩技术,可让网站加载效率提升90%以上。开发者现在可在网站中,开始尝试采用Brotli或ZStandard压缩算法的共享字典,以测试该技术对网站性能的影响。且Chrome团队还指出,在最新的共享字典压缩方案中,已经解决了此前存在的安全性问题,且无论是动态还是静态资源都可获得益处。
清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能
清华大学和哈尔滨工业大学联合发布了一篇论文,成功将大模型压缩到1bit,仍保持83%的性能。这一成果标志着量化模型领域的一次重大突破。随着技术的不断进步,将有望实现将大型语言模型等大模型压缩到极低位宽,并实现在移动设备上高效运行的愿景。
微软开源 SliceGPT:大模型体量压缩25%左右,性能保持不变
微软和苏黎世联邦理工学院的研究人员联合开源了SliceGPT,该技术可以极限压缩大模型的权重矩阵,将模型体量压缩25%左右,同时保持性能不变。实验数据显示,在保持零样本任务性能的情况下,SliceGPT成功应用于多个大型模型,如LLAMA-270B、OPT66B和Phi-2。这一技术的推出,有望为广大开发者和企业提供更加便捷、高效的大模型应用解决方案。
WhisperKit官网体验入口 AI自动语音识别模型压缩与优化工具在线使用地址
WhisperKit是一个专为自动语音识别模型压缩与优化设计的强大工具。它不仅支持对模型进行压缩和优化提供详细的性能评估数据。通过WhisperKit官网,您可以详细了解该工具的功能和应用,并体验其卓越的自动语音识别模型优化能力。
微软开发新型大模型压缩方法SliceGPT
SliceGPT是微软开发的一种新型的大语言模型压缩方法。通过SLICEGPT,可以在保持99%,99%,和90%零样本任务性能的同时,将LLAMA2-70B、OPT66B和Phi-2模型分别去除高达25%的模型参数。这种方法的核心优势在于,它允许模型在去除一定比例的参数后,仍然能够保持接近原始模型的性能,适用于资源受限的设备上部署大型模型,比如普通的个人电脑或者移动设备。
Windows 11新功能来了:文件压缩更全面灵活
微软日前发布了最新的Windows11CanaryBuild26040预览版更新。Windows11进一步增强了压缩文件的能力。点击后会弹出一个全新的向导页面,让用户可以选择以下选项进行压缩:1、压缩目标目录2、压缩格式:包括7zip、TAR和ZIP;3、压缩算法/方式:包括Store、Deflate、BZip2、LZMA1、LZMA2、PPMd等,具体取决于所选择的压缩格式;4、压缩等级:从0到9;5、是否保留符号链接和硬链接下的其他内容。
业界首款!美光推出低功耗压缩附加内存模块:速率最高9600MT/s
美光推出业界首款标准低功耗压缩附加内存模块,容量从16GB到64GB不等。目前LPCAMM2内存模块已经出样,并计划在2024年上半年投产,这是自1997年推出SO-DIMM规格以来,客户端PC首次引入颠覆性新外形尺寸。与DDR5内存模块一样,LPCAMM2内存模块也带有电源管理IC和电压调节电路,为模块制造商降低产品功耗提供了更多途径。
奥克斯诉格力侵权获赔5849万:确认“压缩机”发明专利侵权
近日,天眼查App公布了两起侵害发明专利权纠纷案件的一审判决书,两起案件涉及奥克斯空调股份有限公司与珠海格力电器股份有限公司。浙江省杭州市中级人民法院公布判决书显示,原告奥克斯公司以压缩机”发明专利权被侵害为由提起诉讼,要求被告格力公司分别赔偿经济损失及合理维权开支共计3996.17万元和3332万元。法院分别判决格力电器公司,赔偿奥克斯公司经济损失及合理费用3303万元和2546万元。
20倍的压缩比例!微软发布LLMLingua:压缩长提示并加快模型推理速度
微软的研究团队开发了一种名为LLMLingua的独特粗细压缩技术,旨在解决大型语言模型中长提示带来的问题。LLMs以其强大的泛化和推理能力显著推动了人工智能领域的发展,展示了自然语言处理、自然语言生成、计算机视觉等方面的能力。该方法表现出色,并提供了一种改善LLM应用程序的效果和可负担性的有用方式。
25倍压缩率!HiFi4G渲染技术实现照片级真实人体建模和高效渲染
上海科技大学、NeuDim、字节跳动和DGene的研究团队共同发布了一篇名为《HiFi4G:人体建模和高效渲染的突破性进展》的AI论文。该论文介绍了HiFi4G,这是一种全新的、全显式且紧凑的高斯方法,用于从密集视频中重新创建高保真的4D人体表演。用户在虚拟环境中进行各种活动时,可以获得更具沉浸感的体验。