Artiștii apelează la softuri care le „otrăvesc” operele

Artiștii apelează la softuri care le „otrăvesc” operele

Artiștii își „otrăvesc” creațiile prezente pe internet, pentru a le proteja de copierea stilului lor de către dezvoltatorii de inteligență artificiale. În acest scop, cercetătorii au dezvoltat softuri care să „păcălească” inteligența artificală, relatează AFP.

O graficiană din SUA, Paloma McClain, a descoperit că unele programe de inteligență artificială generativă au „învățat” să creeze imagini inspirate de stilul ei, deşi artista nu şi-a dat niciodată acordul şi nu va obţine nimic din punct de vedere financiar.

„M-a deranjat. Nu sunt o artistă cunoscută, dar mă simţeam inconfortabil la ideea ca munca mea să fie folosită pentru a antrena un model de inteligenţă artificială”, explică designerul, stabilit în Houston (Texas). Pentru a remedia acest lucru, ea şi-a trecut lucrările prin Glaze, un program care adaugă pixeli, invizibili pentru ochiul uman, la ilustraţiile sale pentru a perturba activitatea AI.

După acest tratament, imaginile create sunt neclare, feţele sunt estompate, fără nicio comparaţie cu originalele. „Încercăm să furnizăm instrumentele tehnologice care să protejeze creatorii umani de abuzurile modelelor generative de inteligenţă artificială”, explică Ben Zhao, cercetător la Universitatea din Chicago, a cărui echipă a creat Glaze.

Inteligența artificială preia lucrări și texte fără acordul autorilor

Alertat în noiembrie 2022, acest profesor de informatică a dezvoltat softul în doar patru luni, folosind lucrări anterioare menite să perturbe recunoaşterea facială. „Am lucrat la turaţie maximă, deoarece ştiam că problema este gravă”, spune Ben Zhao. „O mulţime de oameni sufereau”.

Giganţii inteligenţei artificiale generative au încheiat acorduri pentru a-şi asigura drepturile de utilizare a anumitor conţinuturi, dar marea majoritate a datelor, imaginilor, textelor sau sunetelor folosite pentru dezvoltarea modelelor au fost utilizate fără consimţământ explicit. De la lansarea sa, Glaze a fost descărcat de peste 1,6 milioane de ori, potrivit cercetătorului, a cărui unitate se pregăteşte să lanseze un nou program numit Nightshade.

Nightshade se concentrează pe indicaţiile pe care utilizatorul unui model generativ de inteligenţă artificială le transmite pentru a obţine o nouă imagine. Scopul său este de a deraia algoritmul, care va propune, de exemplu, o imagine a unei pisici atunci când a fost solicitat un câine.

Software care „otrăvește” inteligența artificială – de la imagini la vocile folosite în deepfake

O altă iniţiativă este cea a start-up-ului Spawning, care a dezvoltat Kudurru, un software care detectează încercările de colectare masivă de imagini de pe platformele de imagini.

Artistul are apoi opţiunea de a bloca accesul la opera sa sau de a trimite o altă imagine decât cea solicitată, „ceea ce echivalează cu otrăvirea” modelului de inteligenţă artificială în curs de dezvoltare şi afectează fiabilitatea acestuia, descrie Jordan Meyer, cofondator al Spawning. Mai mult de o mie de site-uri web au fost deja integrate în reţeaua Kudurru.

Spawning a creat, de asemenea, Have I Been Trained? (haveibeentrained.com), un site care permite să afli dacă imaginile au fost introduse într-un model de inteligenţă artificială şi le oferă proprietarilor acestora posibilitatea de a le proteja împotriva utilizării neautorizate în viitor.

Pe lângă imagini, cercetătorii de la Universitatea Washington din St. Louis (Missouri) şi-au îndreptat atenţia către sunet şi au dezvoltat AntiFake.

„Acest software îmbogăţeşte un fişier de sunet cu zgomote suplimentare, imperceptibile pentru urechea umană, care fac imposibilă imitarea credibilă a unei voci umane”, explică Zhiyuan Yu, doctorandul care a realizat acest proiect.

Programul vizează în special prevenirea „deepfakes”, adică a montajelor foto sau video hiperrealiste care se folosesc de înfăţişarea unei persoane, adesea o celebritate, pentru a o face să facă sau să spună ceva.

Echipa, supravegheată de profesorul Ning Zhang, a fost contactată recent de producătorii unui podcast de succes, care doreau să îl protejeze împotriva deturnării, potrivit lui Zhiyuan Yu. Deşi până acum a fost folosit doar pentru limbajul vorbit, AntiFake ar putea proteja şi vocile cântăreţilor, potrivit cercetătorului, al cărui software este disponibil gratuit.

IA încalcă drepturile de autor

Unitatea lui Ben Zhao a fost abordată de „mai multe companii care doresc să folosească Nightshade pentru a-şi proteja imaginile şi proprietatea intelectuală”, potrivit universitarului din Chicago. El nu se opune ca societăţile, chiar şi cele mari, să folosească programul său.

„Scopul este ca oamenii să îşi poată proteja conţinutul, indiferent dacă sunt artişti individuali sau companii cu o cantitate uriaşă de proprietate intelectuală”, spune Ben Zhao. În cazul Spawning, ideea nu este doar de a obstrucţiona, ci şi, într-o etapă ulterioară, de a „permite oamenilor să se organizeze pentru a-şi vinde datele în schimbul unei plăţi”, explică Jordan Meyer, care anunţă lansarea unei platforme la începutul anului 2024.

„Cea mai bună soluţie”, spune el, „ar fi o lume în care toate datele utilizate pentru inteligenţa artificială să fie supuse consimţământului şi plăţii. Sperăm să împingem dezvoltatorii în această direcţie”. 

***

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *