A digitális művészet olyan korszakba lépett, ahol a művészeknek nemcsak a munkáikat, hanem a saját stílusukat is védeniük kell az egyre erősebb AI‑rendszerekkel szemben. Mindezt egy olyan ökoszisztémában, ahol többek között az internet hatalmas adatbányája már nem csupán az emberi tudás fejlesztését, hanem a generatív modellek feltanítását is szolgálja. Ezek a rendszerek könyörtelenül darálják be a művészek munkáit, sokszor azok tudta nélkül. Ennek kivédésére születtek meg az olyan önvédelmi eszközök, mint a Glaze és a Nightshade.
A mesterséges intelligencia különösen nagy fenyegetést jelent a szabadúszó művészekre, akik online platformokon és közösségi oldalakon keresztül hirdetik a portfóliójukat, és ezekből a felületekből élnek. Munkáik azonban ugyanilyen könnyen válnak a generatív AI‑modellek képzési adatává is, gyakran engedély nélkül, észrevétlenül. Ennek elkerülésére a Chicagói Egyetem egyik kutatócsoportja fejlesztette ki először a Glaze-t, majd később a Nightshade-t. A Glaze képes megérteni. hogyan működnek az emberi művészeten alapuló AI-modellek, és gépi tanulási algoritmusok használatával minimális változtatásokat végez a képen, amelyek az emberi szem számára láthatatlanok, az AI számára viszont teljesen más stílusnak tűnnek. Így a művész stílusa nem reprodukálható egy generatív modellel. A Glaze lényegében egy „láthatatlan dimenziót” hoz létre a képen, amelyet csak az AI-modellek érzékelnek. Különlegessége, hogy hiába készítünk képernyőképet a műalkotásról, méretezzük át, tömörítjük vagy simítjuk ki a pixeleket, a hatása nem változik.
A Nightshade 2024-ben jelent meg, és már nemcsak defenzív, hanem offenzív technikákat is alkalmaz. A Nightshade‑del módosított képek a védelem mellett aktívan mérgezik a modellek képzési adatait, ezzel potenciálisan megbízhatatlanná téve őket. Ha sok ilyen kép kerül a tanító adatok közé, teljesen eltorzul a modell világképe. A Nightshade célja nem a modellek tönkretétele, hanem hogy visszatartsa azokat a vállalatokat, amelyek engedély nélkül gyűjtenek adatokat. A felhasználók beállíthatják a módosítás erősségét, de már az alacsony intenzitás is jelentős hatást eredményezhet. Mindkét eszköz teljesen offline használható, nem gyűjt semmiféle adatot a felhasználóktól, és bár a képek minőségére hatással vannak, egy értékes megoldást nyújtanak a művek védelmére.
Mindkét eszköz használata teljesen legális, hiszen nem kényszerítenek semmilyen adatot a modellekre, a modellek fejlesztői döntenek úgy, hogy felhasználják őket. A generatív modelleket sok esetben az internetről „lopott” képekkel és adatokkal tanítják fel, így sok művész áldozatául esik, hogy akarata ellenére kerülnek a munkái ilyen célú felhasználásra. A Nightshade használatának jogi megítélése kapcsán a fejlesztők által megkérdezett jogászok egybehangzóan állítják, hogy sem az eszköz létrehozása, sem a művészek általi használata nem ütközik jogszabályba. Fontos kiemelni, hogy ez nem egy vírus, tehát más típusú rendszerekre (például nagy nyelvi modellekre vagy orvosi képfeldolgozásra) nincs hatással.
Annak ellenére, hogy a technológia folyamatosan fejlődik, és nincs kizárva, hogy a generatív modellek hamarosan ki fogják tudni kerülni a módosításokat. Viszont ez egy fontos lépés a művészek számára, hogy visszaszerezzék a kontrollt a saját alkotásaik felett.
Források:
https://nightshade.cs.uchicago.edu/whatis.html
https://glaze.cs.uchicago.edu/

