斯坦福大学研究:通过自动偏好排名和NLP进展,降低大语言模型错误率
研究人员从斯坦福大学和UNCChapelHill共同努力解决了大语言模型产生的事实性错误的问题,这些错误被称为“幻觉”。在没有人工标记的情况下,研究人员通过微调LLMs,采用新颖的方法,以在开放式生成环境中提高事实准确性。对提取原子事实的简化方法进行调查,并将事实性调谐方法扩展到更大的模型,如GPT-4,提出了进一步探讨的建议。
深言科技联合清华大学NLP实验室开源LingoWhale-8B模型
深言科技与清华大学NLP实验室联合开源了LingoWhale-8B模型,这是一种拥有约80亿参数的中英双语大语言模型。该模型在多个公开评测基准上达到领先效果,在10B以下开源模型中表现出色。商业用途下需要申请并获得官方授权。
当事学生回应被心理学老师催眠:体验后觉得很神奇
一老师在课堂上演示催眠术”,被催眠的学生身体僵硬,毫无反应。这段视频引发关注,当事学生作出回应,称之前不太相信催眠,但这次体验后觉得很神奇。催眠术是一门很复杂的精神技术,其中有时候需要他人的帮助,集体配合式的魔术有可能需要电子器械的协助才做得到。
研究警告:ChatGPT不适合作心理治疗师
一项最新研究警告大众,不要在心理学和心理治疗领域使用ChatGPT等大型语言模型。研究人员认为,这些模型在生成心理上有用的信息方面存在根本性的限制,同时缺乏同理心和对人类理解的能力。他们看到了这些模型的潜力:“我们认为,尽管大型语言模型有潜力推动心理测量、实验和实践,但它们还没有准备好用于最具变革性的心理应用,但进一步的研究和发展可能会实现这种用途。