2行代码,「三体」一次读完!港中文贾佳亚团队联手MIT发布超长文本扩展技术,打破LLM遗忘魔咒
【新智元导读】大模型上下文从此不再受限!港中文贾佳亚团队联手MIT发布了全新超长文本扩展技术LongLoRA,只需2行代码,让LLM看小说,读论文,轻松拿捏。中途迷失、模型偷懒、上下文越长大模型越笨……体验过LLM的人,多少都会对文本输入长度带来的限制有所感触:实际上,这些都是典型的大语言模型对话缺陷。相距不过短短两个月,不得不说,这研究速度和能力跟LongLoRA一样惊人。