di:  

AI

AI & Tech

Arrivano i “disturbatori” dell’algoritmo per proteggere i diritti d’autore dall’AI 

Contro i modelli di addestramento dell’AI arrivano i “disturbatori” che ingannano gli algoritmi e tutelano i diritti degli artisti. Occorrono tuttavia norme aggiornate e chiare per eliminare ogni incertezza o dubbio.

È possibile tutelare la creatività degli autori di opere? L’intelligenza artificiale (AI) rappresenta sempre più spesso un pericolo, e tutelare gli artisti dal punto di vista giuridico, legislativo e tecnologico è fondamentale.

Esistono degli strumenti in grado di “avvelenare” l’AI, impedendole di addestrare i modelli per copiare gli artisti senza consenso. Uno tra questi è Nightshade che, sviluppato da un gruppo di ricercatori dell’Università di Chicago, riesce a ingannare gli algoritmi rendendo irriconoscibili i pixel delle immagini.

I disturbatori che “avvelenano” l’AI

Nightshade è un “veleno” che permette di aggiungere delle modifiche invisibili ai pixel di un’opera digitale prima di essere visibile online, cambiandone il significato. Nessuno potrà accorgersi della differenza tra l’opera originale e la versione prodotta dall’AI. Se, ad esempio, un’immagine rappresenta un gatto, il modello per l’addestramento sarà portato a interpretarla come un cane, con la conseguente impossibilità di riprodurre quell’immagine alterata. Il suo successo è stato tale da fare registrare oltre 250.000 download nei primi cinque giorni. Solo negli Stati Uniti, infatti, il programma è stato scaricato da 2,67 milioni di artisti, segno della preoccupante diffusione del fenomeno.

Il professore di informatica Ben Zhao, che ha guidato il progetto, ha chiarito che si tratta di un sistema innovativo gratuito creato per aiutare gli artisti contro l’intelligenza artificiale e per tutelarli contro la violazione dei diritti d’autore.

Ma Nightshade non è l’unico programma esistente in grado di disturbare i modelli di addestramento: Glaze, sviluppato già precedentemente, è un ulteriore mezzo di protezione che mira a confondere gli algoritmi di AI, mascherando lo stile artistico di un’opera.

La tecnica del “data poisoning” inganna i modelli di AI per indurre le società di tecnologia ad avere maggiore rispetto del lavoro altrui e porre dei limiti ai sistemi. Per non essere danneggiate e per evitare ulteriori azioni legali, alcune delle più grandi big tech stanno introducendo nuove funzionalità, cercando di favorire pratiche concilianti.

La risposta delle Big Tech

Alcune delle maggiori società di tecnologia si stanno impegnando per un’intelligenza artificiale più etica. Otto di loro hanno sottoscritto un accordo con le Nazioni Unite per cercare un dialogo tra le parti coinvolte e soluzioni alle problematiche sollevate dalle nuove tecnologie sulla gestione dei dati e della privacy.  

Aziende come Stability AI, Midjourney e OpenAI hanno sollevato parecchie polemiche per aver sfruttato le opere di molti autori senza il loro consenso e aver creato delle copie con cui gli stessi si trovano ora a competere. Per allentare questi dissapori, OpenAI ha deciso di lanciare una nuova versione aggiornata di DALL-E 3, con cui è possibile sottrarre le opere degli artisti all’addestramento dei modelli di intelligenza artificiale. Si tratta di timidi segnali con cui le società cercano compromessi praticabili, ma che sicuramente non sono sufficienti a placare i dissapori con gli autori, che chiedono di poter scegliere se esprimere o meno il loro consenso su quanto accade.

Quali soluzioni sta adottando l’Italia per tutelare il diritto d’autore?

Gli artisti dimostrano di essere sempre più consapevoli dei cambiamenti in atto in ambito digitale. In Italia, ad esempio, sono state introdotte nuove regole sull’adeguata remunerazione e trasparenza per autori e interpreti, in linea con quanto previsto a livello europeo con la Direttiva sul copyright del mercato unico digitale. Sulla base di queste normative, occorre che gli artisti siano informati dettagliatamente sull’uso che viene fatto delle loro opere, garantendo un’adeguata remunerazione in linea con il valore dei diritti ceduti. In questo modo potrebbe consolidarsi un sistema incentrato su un accordo condiviso da creatori e società di tecnologia, e che può rappresentare una svolta nel difficile rapporto tra tecnologia e proprietà intellettuale.

Privacy: siamo davvero tutelati contro l’AI?

Raccogliere dati per rielaborarli può comportare una serie di problematiche. Tutte le informazioni, dalle più banali alle più personali, potrebbero essere utilizzate senza un reale consenso e manipolate dall’AI senza la nostra autorizzazione. 

Ciò che serve è una presa di coscienza sociale e non solo di innovazione tecnologica, delle leggi chiare in materia, che cancellino ogni tipo di incertezza.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha