GPT-4“荣升”AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成
斯坦福的一篇案例研究表示,提交给AI会议的同行评审文本中,有6.5%到16.9%可能是由LLM大幅修改的这些趋势可能在个体级别上难以察觉。LLM在飞速进步的同时,人类也越来越难以区分LLM生成的文本与人工编写的内容,甚至分辨能力与随机器不相上下。希望这些研究结果能够促进对于LLM在未来信息生态系统中应该如何使用以及可能带来的影响的深入探讨,从推动出台更加明智的政
GPT-4准确率最高飙升64%!斯坦福OpenAI重磅研究:全新Meta-Prompting方法让LLM当老板
【新智元导读】大模型幻觉问题还有另一种解法?斯坦福联手OpenAI研究人员提出「元提示」新方法,能够让大模型成为全能「指挥家」,汇聚不同专家模型精华,让GPT-4的输出更精准。当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABABCDCDEFEFGG」执行。在加入微软研究院之前,他曾在乔治亚理工学院和丰田工业大学芝加哥分校担任计算机科学助理教授。
大翻车!斯坦福超火机器人自曝内幕,研究者救场还受伤了,网友:放心了
爆火的斯坦福全能家务机器人MobileALOHA,大!翻!!车!!!你以为它擦个红酒轻易举,但实际上却是这样的:全给你弄撒喽,顺带碎个杯子……你以为它能化身大厨娴熟烹炒,结果给你上演一个炒锅底:MobileALOHA的翻车大合集还不止这些。例如刚才炒完虾的锅,哎呦喂,一不小心没拿住:即使小哥一个箭步冲上去也没阻止“悲剧”的发生。除了这两家,李飞飞团队也一直在跟进,其名为VoxP
MIT斯坦福Transformer最新研究:过度训练会让中度模型“结构顿悟”
最新研究指出,经过过度训练,中度的Transformer模型能够展现出结构性泛化能力,这一现象被称为"结构顿悟"。在自然语言处理中,先前的研究认为像Transformer这样的神经序列模型在泛化到新的结构输入时难以有效地捕捉句子的层级结构。这一发现有望在未来的深度学习研究中引起更多关注,为模型设计和训练策略提供指导。
斯坦福研究发现全球最大AI模型Llama 2缺乏透明度
斯坦福大学最近发布的研究报告指出,全球最大的AI基础模型开发者,包括Meta和OpenAI在内,未能提供足够的关于其潜在社会影响的信息。这一研究名为“基础模型透明度指数”,旨在追踪顶级AI模型开发者是否公开信息,以便了解他们的工作及人们如何使用其系统。这一研究突显了AI行业在透明度方面面临的挑战,以及监管对于促进更多透明度的重要性。