Allen AI开源微调模型OLMo-7B-Instruct
AllenAI最近宣布开源了微调模型OLMo-7B-Instruct,这是一个真正意义上的开源项目。该模型是基于AI2的Dolma数据集构建的,该数据集包括了用于语言模型预训练的三万亿标记的开放语料库包括生成训练数据的代码。AllenAI的举措为开源社区提供了更多可能性,促进了模型研究和应用的发展。
Allen人工智能研究所推开源模型LLM OLMo 提供模型数据、训练代码等
Allen人工智能研究机构在HuggingFace和GitHub上发布了首个开放语言模型OLMo,意在通过提供数据、代码、模型和评估工具的开放访问,促进人工智能领域的共同研究。这一举措的首批模型包括7B和1B规模的变体,覆盖不同架构和训练硬件,为未来更大规模、指令调整等模型的发布奠定基础。通过提供权重的开放访问,并鼓励合作,Allen致力于共同构建全球最卓越的开放语言模型,助力人工智能技术的进步。
Tracking Any Object Amodally :让AI像人一样可以追踪任何对象
TrackingAnyObjectAmodally是由卡内基梅隆大学和丰田研究所开发的项目使得人工智能能够像人一样追踪物体的整体,即使在部分遮挡或不完全可见的情况下也能理解其完整结构。在这个项目中,计算机被训练成能够“理解”并追踪到部分遮挡物体的完整形状和位置。这个项目的成功将大幅提升计算机视觉系统的智能,让它们在处理遮挡物体时更加像人类,从在自动驾驶、视频监控等领域发挥更大的作用。