PC6下载站

分类分类

​Nightshade:使AI模型在未经许可的情况下无法训练图片

关注+2024-04-09作者:路西蓝

据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。

Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些额外的信息会导致生成的输出失真,从而防止图像被有效地用作训练数据。即使用户对这些被“毒害”的图像进行裁剪、编辑和压缩,效果也仍然存在。Nightshade甚至在对被“毒害”的图像截屏或在显示器上显示时也能起作用;任何由此产生的图像如果被AI模型处理,都会产生失真。

相比于其他工具,如Stability提供的选择退出机制,Nightshade的设计初衷是增加使用未经许可内容的图像生成器开发者的成本。Nightshade还不同于Glaze,后者旨在阻止AI模型未经许可地训练图像,而Glaze则旨在增加AI模型复制艺术家独特风格的难度。

Nightshade工具对任何人都是可用的。用户可以从该项目的网站上下载,并且可以在Windows和Mac上运行。运行Nightshade不需要任何额外的GPU驱动程序。

Nightshade加入了越来越多的工具,为艺术家保护其作品,例如麻省理工学院的PhotoGuard,它创建了扭曲AI编辑图像的“掩码”。

此外,还有一些其他工具,如谷歌DeepMind的SynthID和Meta的Stable Signature,可用于识别由AI创建的图像。然而,这些工具仅适用于特定的图像生成模型,仅为Imagen和Emu等模型提供功能。


展开全部

相关文章

更多+相同厂商

热门推荐

  • 最新排行
  • 最热排行
  • 评分最高
排行榜

    点击查看更多

      点击查看更多

        点击查看更多

        说两句网友评论

          我要评论...
          取消