360智脑7B参数大模型正式开源 最长支持约50万字输入
360公司自主研发的7B参数大模型——360智脑,现已正式上线开源社区,并提供了基础模型以及4K、32K、360K三种不同文本长度的版本。这一大模型在支持文本长度方面表现出色,最长可处理360K长文本,相当于约50万字的输入内容。在中英文360K大海捞针效果测试中,也取得了超过98%的高分。
“开源的信徒”周鸿祎宣布将开源360智脑7B模型:支持50万字长文本输入
日前,360创始人周鸿祎发文,称自己是开源的信徒”,信奉开源的力量。他还宣布即将开源360智脑7B,支持360k长文本输入。月之暗面宣布Kimi智能助手启动200万字内测,文心一言计划在下个月将字数上限提高至200万-500万字。
360周鸿祎:将开源360智脑7B模型 支持 50 万字输入
360创始人周鸿祎公开宣布了一个重要决定:即将开源360智脑7B模型,该模型具备70亿参数,并支持长达360k的文本输入。周鸿祎自称为“开源的信徒”,坚信开源的力量,并认为此举可以避免行业内的重复劳动,推动技术进步。阿里通义千问更是宣布免费开放1000万字长文档处理功能,进一步推动了长文本处理技术的发展。
360智脑内测500万字长文本处理功能 将引入360AI 浏览器
360智脑宣布正式内测500万字长文本处理功能。这一功能即将加入360AI浏览器,同时该浏览器的APP也即将上线。随着360AI浏览器APP的上线,用户将能够在移动端享受到360智脑带来的便利。
360智脑通过国家大模型标准符合性测试
12月22日,在全国信息技术标准化技术委员会人工智能分委会全体会议上,国内首个官方“大模型标准符合性评测”结果公布,360集团与百度、腾讯、阿里四家率先通过评测。该测试由中国电子技术标准化研究院发起,旨在建立大模型标准符合性名录,引领人工智能产业健康有序发展。今年7月,360被工信部电子标准院授予“国家人工智能标准化总体组大模型专题组”组长单位,
3DHM框架:一图片可模仿任意视频动作 360度无死角
加州大学伯克利分校的研究人员最近发布了一个名为3DHM的框架,能够让一张图片动起来,模仿任意视频动作,即使是视频中的衣服也能够运动得非常真实。这一框架无需标注数据,通过从单个图像完成纹理图来合成3D人体运动,然后渲染3D人体以模仿视频中actor的动作。这种方法使得他们能够在生成具有生动纹理的真人图像上取得良好的效果。
AI「脑补」画面太强了!李飞飞团队新作ZeroNVS,单个视图360度全场景生成
利用3D感知扩散模型训练模型,然后对单个物体进行SDS蒸馏的研究数不胜数。能够真正做到「场景级」的画面生成,从未实现。他还曾在谷歌研究院担任学生研究员。