美团拟开发鸿蒙系统APP:多个相关岗位正招聘开发人员
美团招聘官网最近更新了多个和鸿蒙相关的社招开发岗位,主要开发美团鸿蒙App、大众点评鸿蒙App,为布局鸿蒙系统招兵买马。其中一个工作地点在北京的鸿蒙高级工程师”岗位就是面向的美团鸿蒙App研发团队,根据描述其岗位职责主要包括:1.参与鸿蒙端动态化容器的架构设计,确保项目研发质量和代码的可维护性;2.负责鸿蒙端动态化容器的模块设计与实现,实现高性能、�
谷歌AI研究人员提出噪声感知训练方法(NAT)用于布局感知语言模型
在文档处理中,特别是在视觉丰富的文档中,高效信息提取的需求变得越来越关键。VRDs,如发票、水电费单和保险报价,在业务工作流中随处可见,通常以不同的布局和格式呈现类似信息。他们的研究为使普通用户能够访问先进的文档处理功能铺平了道路,标志着该领域迈出了重要的一步。
研究人员开发AI攻击方法BEAST:可在一分钟内绕过LLM防护栏
研究人员在美国马里兰大学成功开发了一种高效的方法,可以在一分钟内诱导大型语言模型产生有害反应,他们将这一技术命名为BEAST。BEAST技术利用NvidiaRTXA6000GPU、48GB内存和即将发布的开源代码,仅需一分钟的GPU处理时间,就能让LLM飞越其防护栏。”此研究强调了确保未来更强大AI模型的安全部署需要制定可证明的安全保证。
斯坦福大学研究人员发布新机器学习方法C3PO:根据上下文定制大型语言模型
斯坦福大学的研究人员最近发布了一种名为C3PO的新方法,旨在解决语言模型定制化面临的挑战。在人工智能领域不断发展的今天,语言模型的定制化对于确保用户满意度至关重要。这项研究的意义超出了技术成就的范畴,预示着人工智能可以无缝适应个人偏好、增强其实用性和可访问性的未来。
微软研究人员推新AI方法,用合成数据改进高质量文本嵌入
微软公司的研究团队最近提出了一种独特且简单的方法,用于生成高质量的文本嵌入。这种新方法仅使用合成数据和极少的训练步骤,就取得了令人瞩目的成果。该研究的训练过程极大地减少了对中间预训练的需求,相较于当前的多阶段系统,更加简洁高效。
OpenAI 演示超级智能 AI 的控制方法:研究人员要求 GPT-2 指挥更强大的 GPT-4
OpenAI,一个承诺为全人类利益构建人工智能的公司,自去年推出ChatGPT以来,其商业雄心在最近的治理危机中变得更加显著。该公司宣布,一个专注于管理未来超级智能AI的新研究小组开始取得成果。Sutskever在深度神经网络先驱GeoffreyHinton的指导下攻读了博士学位,后者今年5月离开谷歌,目的是警告AI现在似乎正在某些任务中迅速接近人类水平。
研究人员推无微调对齐方法URIAL 1个提示搞定LLM对齐
近期研究发现,对大语言模型进行微调对性能有关键影响,但一项新研究表明,免微调的对齐方法也能有效提升LLM性能。针对大语言模型微调的传统方法,研究者发现对齐调优主要学习语言风格基础LLM已经具备回答用户查询所需的知识。这一研究为工程师提供了新的思路,可能减少对LLM进行微调的需求,为构建更高效的AI助手打开了新的可能性。
芝加哥大学研究人员推出3D画笔:使用文本生成局部风格化纹理的AI方法
芝加哥大学的研究人员与SnapResearch合作,推出了一种名为3D画笔的人工智能方法,通过文本描述自动生成网格上的局部语义区域的纹理。这一创新使得用户可以通过直观的、自由形式的文本输入控制纹理编辑,为各种网格描述其编辑。这一研究为3D建模和纹理编辑领域带来了新的可能性,为游戏、动画、电影等各个行业提供了更加高效和直观的纹理编辑工具。
UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法
LLM,如ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性的担忧,许多教育机构也限制了ChatGPT的使用,因为内容很容易生成。这对于那些依赖于AI生成内容做出决策的用户来说,具有重要的意义。
Intel研究人员提出新AI方法,更高效地在CPU上部署LLM
大型语言模型因其在文本生成、语言理解和文本摘要等各种任务中的卓越性能备受瞩目,但它们庞大的模型参数却需要大量内存和专用硬件,这使得部署这些模型变得相当具有挑战性。为了降低推断所需的计算功率,研究人员通常采用权重量化等方法,即减少人工神经网络的权重和激活函数的精度。还有进一步改进的空间,研究人员计划推动在个人计算机上实现生成式人工智能,以满足对人工智能生成内容不断增长的需求。