Login
Sign Up For Free
English
中文 (繁體)
中文 (香港)
中文 (简体)
日本語
Filipino
Bahasa Indonesia
Bahasa Melayu
Pусский
Português (Brasil)
Magyar
Français
Español
Deutsch
Čeština
العربية
Català
Dansk
Ελληνικά
فارسی
Suomi
Gaeilge
Hindi
עברית
Hrvatski
Italiano
Norsk bokmål
Nederlands
한국어
Polski
Română
Slovenský
Svenska
Türkçe
українська
беларуская
ไทย
Standard view
資訊人權貴
分享
9 months ago
人眼無法辨識 (會認為圖文相符),但對於生成式AI來說,這是「圖文不符」的訓練毒藥。 目的是要讓獨立創作者可以對抗那些不尊重版權宣告的網頁爬蟲
AI 侵權爭議吵不完? 芝加哥大學團隊推工具 Nightshade,讓藝術家對 AI 模型下毒 - IN...
How Nightshade Works. Confusing image-generating AI ...
Prompt-Specific Poisoning Attacks on Text-to-Image G...
末日幽靈
9 months ago
那東西基本上沒用
1.它非常難用
2.「投毒」的圖片要佔最少40%的比例才能「毒害」模型
3.會產生非常明顯只要不是瞎子都看得出來的痕跡
4.基本上過一遍jpeg就失效了
這團隊瞎話最在行,「信佢一成雙目失明」
資訊人權貴
9 months ago
doomsday_specter
: 是哦,你有用過哦? (4) 是一定的。 (2) 論文說因為它是針對特定語彙在投毒,所以只需要一千張就可以破壞 SD 之類的一般模型 [對單一特定語彙/觀念] 的認知。
對這團隊的成果,你有其他經驗嗎?
末日幽靈
9 months ago
>是哦,你有用過哦?
沒,只是看笑話
>(4) 是一定的
他們宣稱放大縮小轉格式都有效
> [對單一特定語彙/觀念] 的認知
吃泡麵沒有調味料還比較可怕
>其他經驗
他們搞Glaze時已經搞到成笑話了
立即下載
資訊人權貴
9 months ago
> 他們宣稱放大縮小轉格式都有效
論文裡面沒提到啊。 是說,突然想到:如果我是 web scraper、怕被投毒,那就用 imagemagick 把每一張圖片都隨便做一些無傷大雅的小轉換(畫素/壓縮率/轉5度再轉回來) 那這招投毒就失效了?
> 他們搞Glaze時已經搞到成笑話了
求討論連結?
末日幽靈
9 months ago
是
有點時間找不回來了
用Nightshade處理完變成這模樣,而且還會被程式識別為AI生成,你就想想這東西有多大意義
delete
reply
edit
cancel
cancel