GPT-4模型架构、训练成本和数据集信息泄露
SemiAnalysis发布了一篇付费订阅的内容,「揭秘」了有关GPT-4的信息,包括模型架构、训练成本、数据集等。GPT-4是由8个混合专家模型组成的集成系统,每个模型有2200亿个参数。文章还介绍了A100上GPT-4的训练和推理成本,以及如何拓展到下一代模型架构H100。
张朝阳:ChatGPT大数据模型大幅提升了工作效率,但不可能取代人类大脑
全球吹起了AI大模型开发热潮,对此,搜狐张朝阳曾公开表示,大模型国内炒得有点过热,搜狐目前没有做大模型。近日对ChatGPT、AIGC等人工智能技术,张朝阳表示,ChatGPT大数据模型大幅提升了工作效率,但不可能取代人类大脑,它是学习人类所有知识然后模仿出所有组合,是鹦鹉学舌思维:“只有人类才能真正思考问题,去推导问题,ChatGPT完成的是重复工作。如果有人做得好,我们可以直接购买他们的应用。
中国发布《信息安全技术数据安全能力成熟度模型》国家标准
中新网9月5日消息,全国标准信息公共服务平台近日发布了《信息安全技术数据安全能力成熟度模型》的国家标准。该标准旨在助力提升全社会、全行业的数据安全水位,标准的发布填补了行业在数据安全能力成熟度评估标准方面的空白,为组织机构评估自身数据安全能力,提供了科学依据和参考。
FB数据泄露涉事公司揭秘:2017年仍保存用户数据模型
北京时间 5 月 7 日上午消息,英国《卫报》获取了Facebook数据泄露涉事公司邮件。邮件显示,Facebook没能督促Cambridge Analytica删除平台上的用户数据,导致该机构在美国大选期间保留了基于数百万用户数据的大选结果预测模型。
百度糯米影业三大独创数据模型 重塑电影行业服务生态
【TechWeb报道】9月1日下午消息,在百度世界大会服务生态论坛上,百度副总裁、百度糯米总经理曾良发表了题为《科技�
用户模型和数据(一)
尽管理论上说用户模型是在不断充实和修补的,但无论是大项目还是小项目,由于互联网行业的本身特性,需求就是多量和多变的。这么复杂的情况下,一个庞大的用户模型是难以控制好因子的粒度和可伸缩性的。
提升大模型自动修Bug能力 豆包正式开源首个多语言类SWE数据集
今日,字节跳动豆包大模型团队宣布,正式开源首个多语言类SWE数据集Multi-SWE-bench,可用于评估和提升大模型自动修Bug”能力。在SWE-bench基础上,Multi-SWE-bench首次覆盖Python之外的7种主流编程语言,是真正面向全栈工程”的评测基准。相比于以往聚焦Python的单语言任务,Multi-SWE-bench更贴近现实中的多语言开发场景,也更能反映当前模型在自动化软件工程”方向上的实际能力边界。
媲美OpenAI-o3,刚刚开源模型DeepCoder,训练方法、数据集大公开
今天凌晨4点,著名大模型训练平台TogetherAI和智能体平台Agentica,联合开源了新模型DeepCoder-14B-Preview。该模型只有140亿参数,但在知名代码测试平台LiveCodeBench的测试分为60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI刚获得3.05亿美元的B轮融资,其估值也从去年的12.5亿美元翻倍至33亿美元。
研究表明:谷歌的 Gemini 是收集用户数据最多的AI模型!
一些广受欢迎的美国AI聊天机器人可能收集了更多你的个人信息。
颠覆LLM格局,AI2新模型OLMo2,训练过程全公开,数据架构双升级
【新智元导读】非营利研究机构AI2近日推出的完全开放模型OLMo2,在同等大小模型中取得了最优性能,且该模型不止开放权重十分大方地公开了训练数据和方法。非营利研究机构AI2上新了OLMo2系列模型,他们称之为「迄今为止最好的完全开源模型」。在这个生态系统中,新的训练方法和技术需要被理解和分享。
AI智能体2小时击败人类,引爆贝叶斯推理革命!仅用10%数据训练秒杀大模型
【新智元导读】就在刚刚,Verses团队研发的Genius智能体,在Pong中超越了人类顶尖玩家!且它仅仅训练2小时,用了1/10数据,就秒杀了其他顶级AI模型。Verses团队在AI领域投下了一枚重磅炸弹,他们自研的Genius智能体,创造了一个几乎不可能的奇迹——只用10%数据,训练2小时,就能打造出最强AI智能体!在经典游戏Pong中,Genius智能体多次达到完美的20分,一举超越了苦练数天�
月之暗面推出全新SOTA模型k1.5:可同时处理不同模态信息
据报道,月之暗面公司正式宣布推出其全新的SOTA模型k1.5多模态思考模型,在多模态推理和通用推理能力上都实现了突破。k1.5多模态思考模型具备多模态推理能力,能够同时处理和分析来自不同模态的信息,如文本、图像、声音等,从提供更全面、更准确的理解和知识。用户在使用过程中如果发现模型切换按钮,即可体验这一全新升级的模型。
微软Phi-4封神,14B小模型数学击败GPT-4o,合成数据占比40%,36页技术报告出炉
微软下一代14B小模型Phi-4出世了!仅用了40%合成数据,在数学性能上击败了GPT-4o,最新36页技术报告出炉。140亿参数,40%合成数据,年度SLM之王诞生!最近,微软下一代小模型Phi-4正式亮相。还真有点期待,下一个Phi系列小模型的发布了。
大模型上了火山方舟:数据唯你可见,唯你所用,唯你所有
大模型的发展呈现出追风逐日般的速度,但与之相伴的安全问题,也是频频被曝光。正如此前ChatGPT所曝出的案例中,黑客可以利用漏洞给AI植入虚假记忆,在后续回答中出现误导信息。在我们问及吴迪,在搞安全的过程中,是否有令他印象深刻的故事时,他这样回答道:总言之,纵观火山方舟的整体安全互信方案,是已经做到了“科技道路千万条,安全第一条”。
百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D
【新智元导读】Robin3D通过鲁棒指令数据生成引擎生成的大规模数据进行训练,以提高模型在3D场景理解中的鲁棒性和泛化能力,在多个3D多模态学习基准测试中取得了优异的性能,超越了以往的方法,且无需针对特定任务的微调。多模态大语言模型以文本模态为基础,将其它各种模态对齐至语言模型的语义空间,从实现多模态的理解和对话能力。这种大幅的提升体现了对抗性数据对模型识别能力的提升。
长文本、语音、视觉、结构化数据全覆盖,中国移动九天善智多模态大模型震撼发布
它早已不是一家单纯的通信运营商是通过构建多模态基座大模型,打造全要素“AI”服务运营体系,成为通用人工智能时代的供给者、汇聚者和运营者。
大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手
【新智元导读】1%合成数据,就能让模型瞬间崩溃!来自Meta、NYU等机构团队证实,「微量」合成数据便让LLM弱不可堪。参数规模越大,模型崩溃越严重。JuliaKempeJuliaKempe是纽约大学数据科学中心和Courant数学科学研究所计算机科学、数学和数据科学的银牌教授,也是MetaFair的客座高级研究员。
微软用AI Agent生成2500万对高质量数据,极大提升大模型性能!
随着ChatGPT、Copliot等生成式AI产品的快速迭代,对训练数据的需求呈指数级增长,同时也是提升大模型性能的关键环节之一。为了解决训练数据短缺和质量差的难题,微软研究院发布了一个专门用于生成高质量合成数据的的AIAgent——AgentInstruct。Orca-3在多项指标上也超越了LLAMA-8B-instruct和GPT-3.5-turbo等其他模型。
摩尔线程开源音频理解大模型MooER:38小时训练5000小时数据
摩尔线程官方宣布,音频理解大模型MooER”已经正式开源,并公布在GitHub上:https://github.com/MooreThreads/MooER目前开源的内容包括推理代码,以及5000小时数据训练的模型,后续还将开源训练代码,以及基于8万小时数据训练的模型。摩尔线程希望,能够在语音大模型的方法演进和技术落地方面为社区做出贡献。音频理解任务上的效果也会随着基础LLM效果提升提升。
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
随着GPT-4o、Gemini等多模态大模型的出现,对训练数据的需求呈指数级上升。无论是自然语言文本理解、计算机视觉还是语音识别,使用精心标注的数据集能带来显著的性能提升,同时大幅减少所需的训练数据量。JEST在多个任务上都取得了显著的数据筛选效率,例如,当过滤90%的数据时,JEST仅需使用6700万样本即可达到传统方法使用30亿样本的性能水平,相当于效率提升13倍和算力降低了10倍,同时还能帮助大模型提升大约6%的性能。