斯坦福大学研究:通过自动偏好排名和NLP进展,降低大语言模型错误率
研究人员从斯坦福大学和UNCChapelHill共同努力解决了大语言模型产生的事实性错误的问题,这些错误被称为“幻觉”。在没有人工标记的情况下,研究人员通过微调LLMs,采用新颖的方法,以在开放式生成环境中提高事实准确性。对提取原子事实的简化方法进行调查,并将事实性调谐方法扩展到更大的模型,如GPT-4,提出了进一步探讨的建议。