1000行C语言搓出GPT-2!AI大神Karpathy新项目刚上线就狂揽2.5k星
【新智元导读】训大模型的方法可能要被革新了!AI大神Karpathy发布的新项目仅用1000行的C语言训完GPT-2不再依赖庞大的GPT-2库。他本人预告,即将上线新课。等着这一切完成之后,另一期「从头开始构建」的视频也会上线。
AI日报:北大开源最强aiXcoder-7B代码大模型;OpenAI创始大神手搓千行C代码训练GPT;Stability AI图像模型竟能精细到这程度;在Vercel上一键部署Morphic
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
GPT-4V惨败!CV大神谢赛宁新作:V*重磅「视觉搜索」算法让LLM理解力逼近人类
SamAltman最近在世界经济论坛上发言,称达到人类级别的AI很快就会降临。正如LeCun一直以来所言,如今的AI连猫狗都不如。他还曾与何恺明大神共同提出了用于图像分类的简单、高度模块化的网络结构ResNeXt,这篇论文发表在了CVPR2017上。
最新Claude 200K严重「虚标」?大神壕掷1016美元实测,90K后性能急剧下降
月初刚测了GPT-4Turbo上下文真实实力的大神GregKamradt又盯上了Anthropic刚更新的Claude2.1。他自己花了1016刀测完之后显示,Claude2.1在上下文长度达到90K后,性能就会出现明显下降。针对15种不同的文档深度和15种不同的上下文长度,重复上述步骤。