牛津大学AI研究员发出警告:大语言模型对科学真相构成风险
在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型对科学真相构成威胁的警告。由BrentMittelstadt、ChrisRussell和SandraWachter等研究员在《自然人类行为》期刊上发表的论文中,他们指出,基于GPT-3.5架构等LLMs并非绝对的真实信息来源,可能产生他们所称的“幻觉”——即不真实的回应。Russell教授强调了对LLMs提供的机会进行谨慎考虑,并促使反思这项技术是否应该因为它能够提供某些机会被授予这些机会。