Nightshade:艺术家全新反击工具,可用损坏训练数据“毒害”AI模型
自ChatGPT几乎一年前登场以来,生成式人工智能进入了高速发展的时代,但反对声音也逐渐增强。许多艺术家、娱乐人士、表演者甚至唱片公司已经对AI公司提起了诉讼,其中一些诉讼涉及ChatGPT制造商OpenAI,原因是这些新工具背后的“秘密武器”:训练数据。研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审。
艺术家现在可以通过 Nightshade 来反击人工智能:保护其作品免受 AI 模型训练的侵犯
新工具Nightshade赋予艺术家一种全新的力量,让他们能够在上传作品之前,对其像素进行不可见的修改,从在作品被AI公司用于训练模型时,令生成的模型陷入混乱和不可预测的状态。Nightshade的设计初衷是为了反击那些未经创作者许可就使用其作品训练模型的AI公司。开发者希望通过Nightshade的推出,能够迫使AI公司更加尊重艺术家的权利,例如愿意支付版税等。