GPT-4“荣升”AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成
斯坦福的一篇案例研究表示,提交给AI会议的同行评审文本中,有6.5%到16.9%可能是由LLM大幅修改的这些趋势可能在个体级别上难以察觉。LLM在飞速进步的同时,人类也越来越难以区分LLM生成的文本与人工编写的内容,甚至分辨能力与随机器不相上下。希望这些研究结果能够促进对于LLM在未来信息生态系统中应该如何使用以及可能带来的影响的深入探讨,从推动出台更加明智的政
Sora创建病毒式视频全网疯转,OpenAI密谋推出TikTok竞品?专家猜测:这是计划的一部分
【新智元导读】为何OpenAI只在TikTok上发布Sora新视频?AI专家猜测这是计划的一部分:创建病毒式视频、加水印、收集数据、添加RLHF、推出TikTok竞品……整套流程一气呵成。OpenAI,到底想用TikTok做什么?最近,大家都被TikTok上这堆Sora的视频闪到了。拼刺刀的时刻,已经来了。
被OpenAI、Mistral AI带火的MoE是怎么回事?一文贯通专家混合架构部署
选自HuggingFace博客编译:赵阳专家混合是LLM中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。Mixtral8x7B:一种高质量的翻译模型,其性能优于Llama270B,推理速度也更快。
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集
“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由MistralAI发布。最新的梗图:磁力链接就是新的arXiv。
微软通过提示工程将GPT-4变成医学专家,首次准确率超90%
近期微软的研究成果展示了通过「提示工程」成功将GPT-4转化为医学专家的威力。在医学专业领域,GPT-4使用最新提示策略Medprompt在MultiMedQA九个测试集中取得了超过90%的准确率,首次超越其他高度微调的模型,如BioGPT和Med-PaLM。目前我们仍未触及提示的极限,也未达到微调的极限,为未来研究和发展提供了更多的探索空间。
揭秘OpenAI神秘项目Q*,专家称或仅为提升ChatGPT的尝试
OpenAI的Q*项目引起广泛关注,引发了关于其真实性和目的的各种猜测。这可能只是OpenAI试图提升ChatGPT的一种传统尝试非神秘突破。OpenAI对Q*项目拒绝置评,或许在公司决定分享更多努力成果,使ChatGPT不仅在交谈中表现出色在推理方面也出色。
GPT-4成学术造假“神器”,伪造数据又快又合理,Nature请统计学专家“断案”
学术造假有了GPT-4,变得更容易了。一篇刊登在Nature上的新闻表示,GPT-4生成的造假数据集,第一眼还真不一定看得出来。OneMoreThing此外,这两天一段关于ChatGPT的视频在抖音上也是火得不行。
谷歌与Reddit达成6千万美元交易,共同推动AI培训计划
Reddit宣布与谷歌达成合作,允许这家搜索引擎公司使用其用户生成的内容来训练其人工智能模型。这项合作被估价为每年6千万美元,有望为Reddit在上市前提供财务助益。这一合作引发了对人工智能公司如何使用和从用户生成内容中获利的担忧,同时也突显了这一趋势在数据许可交易领域的不断发展。
Reddit与AI公司达成协议 内容支付“开采”AI培训数据
拥有“美版贴吧”之称的社交内容平台Reddit,已与一家未具名的人工智能科技巨头签署内容许可协议。该协议价值6000万美元,允许对方基于Reddit海量用户生成内容开发训练自己的AI模型,每年续签。AI培训数据如同新时代的“石油”,内容平台拥有丰富储备,有望在AI浪潮中乘风破浪。