研究表明:大语言模型从人类反馈中学得更快更智能
近期研究表明,大型语言模型在通过在线上下文学习方面表现出许多强大的能力,其中包括从语言命令中编写机器人代码的技能。这使得非专家用户能够直接指导机器人行为,根据反馈进行修改,甚至组合行为以执行新任务。这项研究通过LMPC框架的应用,成功提高了机器人代码编写LLMs的可教学性,为人机交互中机器学习的快速适应性开辟了新的道路。
研究人员发布Starling-7B:基于AI反馈的大语言模型 媲美GPT-3.5
UC伯克利的研究人员最近发布了Starling-7B,这是一款基于AI反馈强化学习的开放式大语言模型。该模型基于精调的Openchat3.5,并继承了Mistral-7B的特性。对于对模型进行测试,读者可以参与聊天机器人竞技场。
苹果新AI模型研究Ferret-UI:或将提升Siri,读懂屏幕内容
尽管苹果在生成式AI热潮开始后并未推出任何AI模型,但近期公司正在着手一些AI项目。苹果研究人员分享了一篇揭示公司正在研发的新语言模型的论文,内部消息称苹果正在研发两款AI驱动的机器人。由于模型对用户应用屏幕的全面理解以及执行某些任务的知识,Ferret-UI可以用于强化Siri,让其为用户执行任务。
研究人员诱导AI聊天机器人泄露有害内容,成功率高达 98%
印第安纳州普渡大学的研究人员设计了一种新的方法,成功地诱导大型语言模型生成有害内容,揭示了隐藏在合规回答中的潜在危害。在与聊天机器人进行对话时,研究人员发现通过利用模型制作者公开的概率数据和软标签,可以迫使模型生成有害内容,成功率高达98%。这项研究的结果提醒我们,保障人工智能技术的安全性和可信度仍然是一个重要的挑战。
研究发现:AI和人类生成的在线内容同样被认为可信
在当今互联网成为许多人获取信息的主要途径的时代,在线内容及其来源的可信度已经达到了一个关键的转折点。由于ChatGPT和GoogleBard等生成人工智能应用的激增,这一担忧变得更为突出。”这仍然是科学传播的任务,更是一项社会和政治挑战,需要唤起用户对人工智能生成内容负责任使用的意识。