苹果开发设备内运行的大型语言模型 优先考虑速度和隐私
苹果公司正在开发自己的大型语言模型。这款模型将能够在设备上本地运行,从优先考虑速度和隐私保护。苹果更广泛的人工智能战略预计将在6月份的WWDC上与主要软件更新预览一起公布。
苹果公司发布新型机器学习语言模型MLLLLM Ferret-UI 用于理解应用 UI 界面
苹果公司近日发布了一款名为MLLLLMFerret-UI的新型机器学习语言模型,旨在提升对移动应用用户界面的理解。这款模型经过特别优化,能够处理移动UI屏幕上的各种任务,并具备指向、定位和推理等能力。Ferret-UI还能够通过功能推断来解释屏幕的整体目的,显示出在理解和生成自然语言指令方面的高级能力。
苹果研究人员提出MAD-Bench基准,克服多模态大语言模型中幻觉和误导性提示
在人工智能领域,多模式大语言模型在推动进步方面发挥了巨大作用,但它们面临处理误导性信息的挑战,可能导致不正确或产生幻觉的响应。这种脆弱性引发了对MLLM在需要准确解释文本和视觉数据的应用中可靠性的担忧。作为一个不断发展的领域,解决这些挑战对于在现实应用中部署MLLMs至关重要。
MGIE官网体验入口 苹果多模态大语言模型AI图像编辑工具在线使用地址
MGIE是一项由苹果开源的技术,利用多模态大型语言模型生成图像编辑指令,通过端到端训练,捕捉视觉想象力并执行图像处理操作,使图像编辑更加智能、直观。点击前往MGIE官网体验入口需求人群:"用户可以通过自然语言直观地描述图像编辑需求,如改变颜色、调整大小等,无需复杂的描述或区域掩码,使图像编辑更加自由和轻松。为了深入了解MGIE并开始您的图像编辑之旅,请点击前往MGIE官网。
苹果 AI 新突破:在 iPhone 上部署大型语言模型成为可能
苹果公司的人工智能研究人员表示,在将大型语言模型部署到iPhone和其他内存有限的苹果设备上取得了关键性突破。他们发明了一种创新的闪存利用技术,可有效应对内存限制问题。苹果计划提供云端AI和设备上AI处理的结合。
苹果正利用大语言模型改造Siri:本地运行更快 无需联网
爆料人Tech_Reve在社交平台声称,苹果公司正在使用大语言模型将Siri完全改造成终极虚拟助理”,并打算将其开发成最强大的人工智能应用程序”。Tech_Reve表示,苹果正在积极进行中这项综合开发工作,首款产品预计将在WWDC2024上亮相,并计划成为iPhone16及后续机型的标配。苹果打算加码AI,想必也是不少人所期待的,升级后的Siri据说在本地运行响应时间更快、不需要网络连接,且更具隐私性。
苹果研究人员推出Ferret:一种用于高级图像理解和描述突破性多模态语言模型
研究人员在最新的一项研究中介绍了Ferret,这是一款多模式语言模型,旨在实现高级图像理解和描述。该研究聚焦于视觉-语言学习中的关键问题,即如何融合地理信息和语义知识,以便模型能够同时引用和定位图像中的元素。这一研究为多模式语言模型领域带来了突破性进展,为图像理解和描述提供了新的可能性。
苹果皮重生!华强北iPhone 15 Pro美版改卡方案出炉:手机壳外置SIM卡
从去年iPhone14系列开始,苹果在美国地区正式取消了实体SIM卡,连卡槽都直接堵上了,彻底进军eSIM。这种无实体卡的eSIM技术,相比于普通SIM卡最大的好处就是方便,最多能绑定8个号码,一键即可切换普及之后还能省下手机内部空间。需要注意的是,这种手机壳的方式可能会对信号造成影响,另外因为外置安装并不牢固,大概率会出现日常使用中不断重连、断连的情况,建议普通用户一定不要尝试。