Con l’entrata in vigore dell’AI Act e l’uso crescente di modelli di Intelligenza Artificiale nelle decisioni di credito, il nodo non è più se usare l’algoritmo, ma come governarne l’impatto su diritti, equità e responsabilità.
Negli ultimi anni abbiamo vissuto una progressiva trasformazione del mondo del credito. Strumenti tecnologici sempre più sofisticati sono entrati nei processi di valutazione, monitoraggio e pricing del rischio.
Oggi, l’adozione dell’Intelligenza Artificiale è una realtà consolidata, con modelli di machine learning utilizzati sia per assegnare un punteggio creditizio, sia per automatizzare decisioni cruciali su affidamenti, condizioni e monitoraggio dei portafogli. Questo cambiamento non può essere trattato come una semplice evoluzione operativa, ma comporta implicazioni profonde sui diritti dei cittadini e sulle responsabilità degli intermediari.
Con l’entrata in vigore dell’AI Act, l’Unione europea ha portato a compimento la prima grande regolamentazione internazionale sull’uso dell’AI. La legge classifica come “sistemi ad alto rischio” tutti i meccanismi automatizzati che incidono su scelte rilevanti per le persone e per le imprese. La normativa impone trasparenza, supervisione umana e responsabilità nel loro sviluppo e impiego.
Sotto la superficie normativa si nasconde un tema più profondo di fiducia sociale. Se un algoritmo decide chi ha accesso alle risorse finanziarie, su quali basi vengono raccolti e pesati i dati? Come viene garantita l’equità tra gruppi socioeconomici? E soprattutto, chi risponde quando un modello, pur “tecnicamente corretto”, produce risultati distorti o ingiusti?
Secondo un rapporto OECD sul ruolo dell’AI nella finanza, l’uso di modelli automatizzati può esacerbare rischi preesistenti nel sistema finanziario se non è accompagnato da adeguati meccanismi di controllo, intervento umano e supervisione regolatoria. La maggior parte dei paesi che hanno partecipato all’indagine ha rilevato l’assenza di normative specifiche, evidenziando la necessità di orientamenti più chiari per assicurare che i sistemi AI siano giusti, trasparenti e affidabili.
Il cuore della questione è qui: nonostante l’efficienza e la capacità predittiva dei modelli, la delega totale alle macchine nei processi decisionali presenta rischi reali di bias, discriminazioni involontarie e mancanza di trasparenza, soprattutto se modellati con dati incompleti o non rappresentativi. In ambito creditizio, questo potrebbe tradursi in esclusioni ingiustificate o in decisioni non spiegabili ai richiedenti, minando la fiducia nel sistema.
Il recente quadro normativo europeo, così come interpretato dalle autorità, non trova contraddizioni insanabili tra l’AI Act e la normativa bancaria esistente. Tuttavia, la vera sfida non è solo tecnica, bensì culturale ed etica. Governare modelli ad alto rischio significa integrare discipline di governance robuste, con audit indipendenti, metriche eque e paritarie, e reale supervisione umana in grado di “disinnescare” output inaccettabili a livello sociale.
Il dibattito che ne deriva investe tre grandi questioni:
- Responsabilità: quando un modello errato o discriminatorio viene usato, chi risponde? Il fornitore tecnologico? La banca? Il risk manager? La normativa spinge verso una supervisione umana, ma l’efficacia di questa tutela resta da verificare nella pratica.
- Equità e trasparenza: come garantire che i processi automatizzati non riproducano o amplifichino le disuguaglianze esistenti? L’obbligo di spiegabilità e reportistica introdotto dall’AI Act è un passo importante, ma non garantirà da solo equità sostanziale.
- Governance del rischio: oltre alla tecnologia, serve un approccio che integri competenze multidisciplinari — legali, etiche, economiche — nel design e nell’uso di sistemi AI, per assicurare che la decisione finale non sia mai “solo un algoritmo”.
In conclusione, la vera posta in gioco non è se usare o meno l’Intelligenza Artificiale nel credito, ma come governarla responsabilmente, perché un sistema finanziario moderno non può prescindere dall’innovazione, ma nemmeno ignorare le conseguenze sociali delle sue applicazioni. La vera responsabilità è umana e questa è la sfida che istituzioni, regolatori e operatori devono accogliere insieme, con urgenza.










