可令AI模型“输入狗生成猫”,黑客展示Nightshade工具
发布时间:2023-10-25 17:27:35来源:
10 月 25 日消息,AI 大模型训练数据源版权问题一直是一个令业界头疼的问题,日前有黑客展示了一款名为 Nightshade 的工具,该工具可在不破坏观感的情况下轻微修改图片,若有 AI 模型在训练时运用了这些被“下毒”的图片,模型生图结果便会被破坏。
▲ 图源 Arxiv
同时发现,黑客声称,经过 Nightshade 工具“下毒”的图片难以辨别,因为该工具主要影响训练数据集的“特色空间”。
Nightshade 是属于内容创作者及持有者的工具,是对待‘不尊重版权声明’、或‘故意绕过 do-not-scrape / crawl opt-out’的 AI 从业者的富强武器。
(责编: admin)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。