di:  

intelligenza artificiale bollino

AI & Tech

In arrivo il bollino per identificare i contenuti prodotti con l’AI

Le principali aziende di Intelligenza Artificiale si sono impegnate a etichettare con un bollino i contenuti visivi, audio e video prodotti con l’AI. Un primo passo per contrastare la diffusione di deepfake e contenuti falsi. Ma lo strumento convince poco gli esperti.

Intelligenza Artificiale: in arrivo il bollino anti fake

È in arrivo un bollino in grado di identificare i contenuti prodotti con gli strumenti di Intelligenza Artificiale.

Lo ha annunciato di recente la Casa Bianca, che ha siglato un accordo con le principali aziende di AI a livello globale. L’obiettivo dell’accordo è quello di contenere la disinformazione e le altre minacce derivanti dalla diffusione dei contenuti prodotti con l’Intelligenza Artificiale.

Le “sette sorelle” dell’AI, ossia OpenAi, Microsoft, Google, Meta, Anthropic, Amazon e Inflection, si sono impegnate con la presidenza degli Stati Uniti a etichettare con una filigrana digitale, o un watermark, immagini, contenuti audio e video prodotti dai loro software AI.

Gli impegni assunti dalle più grandi aziende del settore riguardano principalmente tre fattori: sicurezza, protezione e fiducia.

Lato sicurezza, le aziende in questione hanno promesso di testare esternamente e con terze parti ogni nuovo prodotto creato dall’Intelligenza Artificiale generativa prima di rilasciarlo sul mercato, e a condividere e diffondere informazioni e tecniche su come ridurre i rischi posti dall’AI con l’industria, il governo e la società civile.

Lato protezione, hanno assicurato di investire di più nella sicurezza informatica per proteggere i dati personali degli utenti, per tutelarsi da eventuali minacce interne e di impegnarsi a sostenere le terze parti nella scoperta e nella segnalazione delle possibili vulnerabilità dei propri sistemi.

Infine, dal punto di vista della fiducia, hanno accettato di sviluppare dei sistemi per creare una filigrana non cancellabile, che sia automaticamente impressa su tutti i contenuti appena generati e altri strumenti per rendere chiaro quali contenuti sono prodotti tramite l’Intelligenza Artificiale e quali no.

Vale la pena sottolineare, tuttavia, che non si tratta di accordi vincolanti, ma soltanto di accordi volontari. E che, quindi, non comportano alcuna vera conseguenza se non dovessero essere rispettati. Inoltre, gli impegni assunti dalle “sette sorelle” non riguardano le altre aziende che operano in questo settore, che possono invece comportarsi liberamente.

Esperti scettici sull’efficacia dell’iniziativa

L’impegno assunto tra il governo americano e i colossi dell’AI non ha, tuttavia, suscitato grande entusiasmo.

Gli esperti di Intelligenza Artificiale concordano quasi tutti sul fatto che un bollino da solo non basta per contrastare il fenomeno deepfake e disinformazione. Per la maggior parte di loro sono mezze misure, troppo deboli, facili da rimuovere e da corrompere. Senza considerare che nell’accordo non sono menzionati i contenuti testuali.

A questo si aggiunge che, oltre alla produzione di contenuti foto e video passati per veri, c’è anche il problema inverso, ossia dei contenuti reali che vengono passati per falsi.

Molti esperti sostengono che stiamo entrando in una nuova epoca, in cui sarà sempre più difficile distinguere ciò che è reale da ciò che non lo è. Con il rischio di essere ingannati non solo da cose false, ma anche di non credere alle cose vere.

Tanto che i malintenzionati potrebbero finire col bollare come fake anche i contenuti autentici.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha