資訊人權貴 分享
5 months ago
人眼無法辨識 (會認為圖文相符),但對於生成式AI來說,這是「圖文不符」的訓練毒藥。 目的是要讓獨立創作者可以對抗那些不尊重版權宣告的網頁爬蟲AI 侵權爭議吵不完? 芝加哥大學團隊推工具 Nightshade,讓藝術家對 AI 模型下毒 - IN...How Nightshade Works. Confusing image-generating AI ...Prompt-Specific Poisoning Attacks on Text-to-Image G...
末日幽靈
5 months ago
那東西基本上沒用
1.它非常難用
2.「投毒」的圖片要佔最少40%的比例才能「毒害」模型
3.會產生非常明顯只要不是瞎子都看得出來的痕跡
4.基本上過一遍jpeg就失效了
這團隊瞎話最在行,「信佢一成雙目失明」
資訊人權貴
5 months ago
doomsday_specter: 是哦,你有用過哦? (4) 是一定的。 (2) 論文說因為它是針對特定語彙在投毒,所以只需要一千張就可以破壞 SD 之類的一般模型 [對單一特定語彙/觀念] 的認知。

對這團隊的成果,你有其他經驗嗎?
末日幽靈
5 months ago
>是哦,你有用過哦?
沒,只是看笑話
>(4) 是一定的
他們宣稱放大縮小轉格式都有效
> [對單一特定語彙/觀念] 的認知
吃泡麵沒有調味料還比較可怕
>其他經驗
他們搞Glaze時已經搞到成笑話了
立即下載
資訊人權貴
5 months ago
> 他們宣稱放大縮小轉格式都有效
論文裡面沒提到啊。 是說,突然想到:如果我是 web scraper、怕被投毒,那就用 imagemagick 把每一張圖片都隨便做一些無傷大雅的小轉換(畫素/壓縮率/轉5度再轉回來) 那這招投毒就失效了?
> 他們搞Glaze時已經搞到成笑話了
求討論連結?
末日幽靈
5 months ago

有點時間找不回來了
用Nightshade處理完變成這模樣,而且還會被程式識別為AI生成,你就想想這東西有多大意義
https://images.plurk.com/3qmcON1NsFeHrjA4sgRNcW.jpg