il magazine dedicato al mondo del credito

Cerca
Close this search box.

di:  

Allarme BoE sull'IA: rischi per il sistema finanziario

Allarme Banca d’Inghilterra sull’IA: rischi per il sistema finanziario

La Banca d’Inghilterra ha annunciato che intensificherà la sua supervisione dell’intelligenza artificiale per prevenire potenziali rischi al sistema finanziario.

L’allarme della BoE sull’intelligenza artificiale nel sistema finanziario

La Banca d’Inghilterra ha lanciato un allarme sull’intelligenza artificiale (IA). Secondo gli esperti, l’IA potrebbe creare rischi sistemici nel settore finanziario. Per questo motivo, la BoE avvierà una revisione approfondita della tecnologia nel 2024. L’accelerazione dei progressi tecnologici ha portato a un maggiore ricorso all’IA negli ultimi mesi. Pertanto, il sistema finanziario deve essere monitorato attentamente.

Il Financial Policy Committee (FPC) della Banca d’Inghilterra ha avvertito che l’IA potrebbe portare a una “mentalità di gregge” nel settore finanziario. Questo significa che le aziende finanziarie potrebbero seguire (tutte) le stesse indicazioni e prendere le stesse decisioni. Questo potrebbe indebolire la stabilità del sistema finanziario.

Andrew Bailey, il governatore della BoE, ha dichiarato che l’IA ha un “potenziale enorme” per la produttività e la crescita economica. Tuttavia, ha avvertito che è importante “tenere gli occhi aperti” sui potenziali rischi. Se l’IA non viene utilizzata in modo responsabile, potrebbe verificarsi una situazione simile a quella del film “2001 Odissea nello spazio“, in cui il computer della navicella spaziale si rivolta contro l’equipaggio. Un futuro alla Terminator o alla Matrix, insomma.

Monitorare l’intelligenza artificiale è la parola chiave

L’IA è sempre più utilizzata dalle aziende e dalle banche. È importante che chi la utilizza sia responsabile delle proprie azioni e delle possibili conseguenze. Il governatore Bailey ha affermato che i problemi si verificano quando il trading algoritmico viene utilizzato senza comprendere come funziona.

Anche la Financial Conduct Authority (FCA) sta lavorando per regolamentare l’IA nel settore finanziario. Entro l’anno verrà avviata una consultazione sulle cosiddette “terze parti“, cioè sui provider di dati.

L’evoluzione dell’intelligenza artificiale (IA) nel settore finanziario è un fenomeno che deve essere osservato con attenzione, ma non necessariamente regolamentato. Questo è (invece) il parere di alcuni altri esperti, tra cui Sam Woods, vice-governatore della Banca d’Inghilterra.

Secondo Woods, una regolamentazione specifica dell’IA potrebbe non essere la soluzione migliore. L’IA è una tecnologia in rapida evoluzione, e le regole potrebbero diventare obsolete rapidamente. Inoltre, una regolamentazione eccessivamente restrittiva potrebbe limitare lo sviluppo dell’IA, che ha un potenziale enorme per il settore finanziario.

Nel frattempo, anche l’Unione Europea sta lavorando a una regolamentazione dell’IA. L’IA Act è un complesso di norme che mira a garantire un uso sicuro e responsabile dell’IA in tutti i settori, compreso quello finanziario.

Riassumendo…

La Banca d’Inghilterra e la FCA stanno intensificando la supervisione dell’IA nel settore finanziario. Ciò è dovuto alla preoccupazione che l’IA possa creare rischi sistemici, come una “mentalità di gregge“, che potrebbe indebolire l’intera stabilità del sistema.

È importante che chi utilizza l’IA sia responsabile delle proprie azioni e delle possibili conseguenze. Il trading algoritmico, in particolare, deve essere utilizzato solo da persone che comprendono (davvero bene) come funziona.

La FCA sta lavorando per sviluppare norme per l’IA nel settore finanziario. Queste norme dovrebbero aiutare a garantire che l’IA venga utilizzata in modo sicuro e responsabile. Stessa cosa sta facendo anche l’Unione Europea, attraverso l’uso di strumenti come l’IA Act.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha