研究发现:GPT-3经常出错,重复有害的错误信息
一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。图源备注:图片由AI生成,图片授权服务商Midjourney最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明的理解。”研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。
研究:大模型在回答中会重复有害的错误信息
对大型语言模型的新研究表明,它们重复了阴谋论、有害的刻板印象和其他形式的错误信息。在最近的一项研究中,滑铁卢大学的研究人员系统地测试了ChatGPT早期版本对六类陈述的理解:事实、阴谋、争议、误解、刻板印象和虚构。”布朗补充道:“毫无疑问,大型语言模型无法区分真实与虚构,这将成为未来很长一段时间内对这些系统信任的基本问题。
华为新专利可保护AI大模型版权 实现自动生成带水印的回复信息
华为近日申请了一项新专利,该专利旨在保护AI大模型的版权,并能自动生成带水印的回复信息。各大互联网公司都在积极开发自家的AI大模型产品,这其中涉及到的版权争议颇多,竞争也异常激烈。华为此次的专利申请为解决大语言模型版权问题提供了一种新的解决方案,对行业的发展具有积极意义。
华为语言模型新专利公开!回复信息可自动生成水印
随着OpenAI的ChatGPT横空出世,越来越多的互联网大厂也开始布局AI大模型产品,其中自然会涉及到诸多版权争议。不过最近华为对一项专利进行了公开,或许能够有效避免该问题。就能实现在通过语言模型处理特定类型的请求时,可以通过语言模型自动生成带水印包含的回复,从在尽量不损伤模型生成质量的前提下提高语言模型的版权保护能力。