研究发现:GPT-3经常出错,重复有害的错误信息
一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。图源备注:图片由AI生成,图片授权服务商Midjourney最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明的理解。”研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。
研究:大模型在回答中会重复有害的错误信息
对大型语言模型的新研究表明,它们重复了阴谋论、有害的刻板印象和其他形式的错误信息。在最近的一项研究中,滑铁卢大学的研究人员系统地测试了ChatGPT早期版本对六类陈述的理解:事实、阴谋、争议、误解、刻板印象和虚构。”布朗补充道:“毫无疑问,大型语言模型无法区分真实与虚构,这将成为未来很长一段时间内对这些系统信任的基本问题。
我国首款不锈钢运载火箭发布:可重复使用20次
中国民营航天企业蓝箭航天发布了我国首款不锈钢运载火箭朱雀三号。朱雀三号是一款可重复使用液氧甲烷运载火箭,火箭一子级可重复使用次数可达20次,可以将发射成本降低一个数量级,预计将于2025年具备首飞能力。发动机全部采用蓝箭航天自研的天鹊系列液氧甲烷发动机;火箭设置4个栅格舵,用于一子级气动减速段的姿态调整与落点控制;火箭尾部安装着陆腿,实现一子级垂直着陆与回收。
现在要求ChatGPT要求重复单词可能违反其使用条款
GoogleDeepMind的研究人员上周发现了一种新技术,揭示了反复要求OpenAI的ChatGPT重复单词可能会无意中泄露其训练数据中的私人个人信息。这款聊天机器人似乎已经开始拒绝之前在其服务条款中允许的某些提示。该公司在备忘录中写道,“一些意外情况让我们忙碌起来”,导致原定于本月推出的计划推迟。
李彦宏称重复造大模型将造成极大资源浪费 应该卷AI原生应用
在2023年世界互联网大会乌镇峰会上,百度CEO李彦宏发表了对AI大模型的看法。繁荣的AI原生应用生态将推动新一轮的经济增长,但开发好用的大模型存在很高的技术壁垒和成本门槛,社会资源不应该浪费在重复造轮上。就像移动互联网时代只有安卓和IOS两个操作系统,但成功的应用却有很多。