Imagini sexuale tulburător de realiste cu copii, generate de inteligența artificială, se răspândesc în întreaga lume pe rețelele de socializare și pe forumurile online – adesea bazate pe fotografii reale extrase de pe internet sau din anuarele școlare.
În Japonia, aceste imagini se încadrează într-o zonă gri juridică, care îi lasă pe cei ale căror fotografii au fost folosite ca date de antrenament pentru o astfel de inteligență artificială fără o cale clară către justiție. Această zonă gri devine din ce în ce mai periculoasă, avertizează experții, deoarece instrumentele de inteligență artificială facilitează crearea și partajarea de imagini hiperrealiste pentru oricine cu doar câteva clicuri.
„Legea actuală a fost concepută pentru a proteja copiii reali, dar inteligența artificială generativă a estompat linia dintre real și fals”, a declarat Takashi Nagase, avocat și profesor la Universitatea Kanazawa, care a contribuit la elaborarea politicii de internet la Ministerul Afacerilor Interne și Comunicațiilor.
Pe 1 aprilie, în Prefectura Tottori a intrat în vigoare o ordonanță revizuită care interzice în mod explicit oamenilor să creeze sau să distribuie materiale pornografice cu inteligență artificială (CSAM) generate de inteligența artificială – chiar dacă acestea au fost create în afara prefecturii – folosind fotografii ale copiilor care locuiesc în prefectură.
„Am stabilit (prin ordonanță) că pornografia deepfake generalizată bazată pe inteligență artificială nu este ceva ce ar trebui permis”, a declarat guvernatorul Tottori, Shinji Hirai, într-o conferință de presă pe 3 aprilie, solicitând guvernului central să elaboreze o lege similară.
Deși ordonanța nu menționează nicio pedeapsă pentru cei care încalcă legea, ceea ce ar fi un subiect de discuții viitoare, ideea din spatele ei este de a crește gradul de conștientizare a problemei, a adăugat Hirai.
Fără o lege națională, aplicarea acesteia rămâne neuniformă și potențial limitată de jurisdicție. Imaginile păstrate pe servere din străinătate sau partajate anonim pot fi dificil de urmărit sau de eliminat, chiar și atunci când se aplică ordonanțele locale.
O posibilă cale deschisă în prezent victimelor este intentarea unui proces pentru defăimare. Cu toate acestea, acest lucru pune pe umerii copilului și a tutorilor acestuia sarcina de a observa și de a depune o plângere dacă imaginea sa este utilizată în mod abuziv – „o așteptare complet nerealistă”, a spus el. Takeda a spus că problema mai profundă este una de conștientizare – atât în rândul legislatorilor, cât și al publicului, pledând pentru o legislație cuprinzătoare care să interzică și imaginile generate de inteligența artificială folosind fotografii reale.
Experții spun că Japonia ar putea beneficia de pe urma studierii acestor modele – dar reforma legislativă singură nu este suficientă. Pe măsură ce instrumentele de inteligență artificială devin mai accesibile, există un consens tot mai mare că educația trebuie să joace un rol central în protejarea copiilor.
Aceasta include învățarea tinerilor despre riscurile partajării fotografiilor personale online și integrarea inteligenței artificiale și a educației media în programele școlare, ceea ce le-ar permite să se protejeze de amenințările în continuă evoluție pe care legea încă nu le-a ținut pasul.