Nightshade:使AI模型在未经许可的情况下无法训练图片
站长之家(ChinaZ.com)4月9日 消息:据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些
AI开源项目screenshot-to-code 借助GPT-4V直接把网页截图制作成HTML网页
这是一个简单的应用程序,可将截图转换为HTML/TailwindCSS。它利用GPT-4Vision生成代码,并使用DALL-E3生成类似的图像。用户还可以通过GitHub上的issue或Twitter提供反馈、功能请求和报告bug。
Nightshade 工具助力创作者保护版权 对抗 AI 训练数据的滥用
随着人工智能技术的快速发展,其训练数据的获取和使用变得日益重要,但也出现了滥用现象。为了抵御这种滥用,一款名为「Nightshade」的新工具应运生,为创作者提供了一种保护他们创意作品不被无授权用于AI模型训练的方法。大多数这些产品都是基于文本的。
Nightshade:艺术家全新反击工具,可用损坏训练数据“毒害”AI模型
自ChatGPT几乎一年前登场以来,生成式人工智能进入了高速发展的时代,但反对声音也逐渐增强。许多艺术家、娱乐人士、表演者甚至唱片公司已经对AI公司提起了诉讼,其中一些诉讼涉及ChatGPT制造商OpenAI,原因是这些新工具背后的“秘密武器”:训练数据。研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审。
艺术家现在可以通过 Nightshade 来反击人工智能:保护其作品免受 AI 模型训练的侵犯
新工具Nightshade赋予艺术家一种全新的力量,让他们能够在上传作品之前,对其像素进行不可见的修改,从在作品被AI公司用于训练模型时,令生成的模型陷入混乱和不可预测的状态。Nightshade的设计初衷是为了反击那些未经创作者许可就使用其作品训练模型的AI公司。开发者希望通过Nightshade的推出,能够迫使AI公司更加尊重艺术家的权利,例如愿意支付版税等。