Teoria
31.7.2024

Il problema della scatola nera nell'intelligenza artificiale: come prende decisioni l'IA?

L'Intelligenza Artificiale (IA) sta rivoluzionando il modo in cui affrontiamo e risolviamo problemi complessi in vari settori, dalla sanità alla finanza, dall'industria automobilistica alla giustizia. Tuttavia, mentre l'IA diventa sempre più presente nelle nostre vite, emerge una domanda cruciale: come fa esattamente l'IA a prendere le sue decisioni? Per esempio, come fa un algoritmo di IA a determinare se una persona è idonea per un prestito? 

La mancanza di trasparenza nel processo decisionale dell’intelligenza artificiale è nota come "problema della scatola nera". In questo articolo esploreremo cos'è il problema della scatola nera, perché rappresenta un rischio e quali soluzioni vengono studiate per rendere più “interpretabili” i sistemi di intelligenza artificiale.

Dentro la mente dell’IA: cos’è il problema della scatola nera?

Quando si parla del "problema della scatola nera" nell'IA, non si fa riferimento a un oggetto fisico. Questo termine si riferisce ai sistemi di intelligenza artificiale che prendono decisioni o fanno previsioni in modo non trasparente, impedendo alle persone di comprendere il loro processo decisionale. È come se l'IA fosse un meccanismo chiuso dentro a una scatola: si inseriscono dei dati da un lato e si ottiene un risultato dall'altro, ma non si può vedere cosa succede all'interno.

Analogamente, si può pensare a come i bambini imparano a riconoscere le lettere dell'alfabeto o gli animali. Dopo aver visto tanti esempi di lettere “A” o di cani, saranno in grado di identificare una “A” o un cane. Ma se chiedessimo loro (o anche a un adulto!) come fanno a riconoscerli, probabilmente non saprebbero spiegarcelo. L'IA funziona in modo simile: impara a riconoscere schemi ricorrenti e tendenze nei dati che le vengono forniti, ma non sa spiegare il suo processo decisionale.

Tecnicamente, gli esperti sanno benissimo come si costruisce una rete neurale, come aggiorna i suoi parametri interni durante l’addestramento e come i dati in ingresso vengono processati per arrivare al risultato finale (ne abbiamo parlato qui). Tuttavia, una volta completato l’addestramento, non riescono a capire come mai la rete abbia imparato quegli specifici parametri e come la loro interazione porti ai risultati finali. È un po’ come la sensazione che potreste avere se un genio della matematica vi spiegasse passo per passo come risolvere un problema al di là delle vostre capacità: potreste imparare a svolgere meccanicamente il procedimento, ma non riuscireste a capire il motivo dietro ai ciascuno step e la logica con cui gli step, messi insieme, portano al risultato corretto.

Perché la mancanza di trasparenza dell’IA è un problema, con storie vere

Le implicazioni del problema della scatola nera dell'IA toccano diversi ambiti. Ecco i principali problemi legati alla mancanza di trasparenza nelle decisioni dell'intelligenza artificiale.

Difficoltà nel correggere risultati indesiderati

Poiché non si comprende come i parametri interagiscono per produrre i risultati finali, non si sa come modificarli se si vuole correggere un risultato indesiderato. Per esempio, nel 2015 L'IA di Google Photos ha erroneamente etichettato due persone afroamericane come "gorilla". Tuttavia, non c'era un modo chiaro per correggere questo errore senza riaddestrare da zero il modello.

Immagine tratta da un articolo pubblicato su BBC News, contenente sei copertine di album di Google Photos con foto classificate automaticamente dall'intelligenza artificiale. Le sei categorie sono Grattacieli, Aeroplani, Automobili, Biciclette, Gorilla, Laurea; la foto etichettata come "gorilla", tuttavia, mostra un ragazzo e una ragazza di colore. Questo mostra la difficoltà nel correggere errori e risultati indesiderati senza riaddestrare un'intelligenza artificiale.
Ragazzi di colore etichettate come “gorilla” da Google Photos su BBC News

Affidabilità dell’IA: la fiducia nelle decisioni automatizzate

La mancanza di trasparenza rende difficile fidarsi dei sistemi di IA. Per esempio, il sistema Watson era stato progettato da IBM per assistere i medici nella diagnosi e nel trattamento del cancro. Tuttavia, i medici trovavano difficile fidarsi delle raccomandazioni di Watson perché il sistema spesso suggeriva trattamenti non appropriati o non fattibili. La mancanza di trasparenza su come Watson arrivasse alle sue conclusioni ha portato a scetticismo tra il personale sanitario.

Screenshot del titolo di un articolo pubblicato su Forbes: “IBM Watson: come mai la sanità IA è così difficile?”. Questo mostra la difficoltà nel fidarsi delle decisioni dell'intelligenza artificiale, soprattutto in ambiti sensibili come quello medico, a cause della mancanza di trasparenza.
“IBM Watson: come mai la sanità IA è così difficile?” su Forbes

Responsabilità: chi risponde degli errori dell’IA?

Chi è responsabile quando un'IA commette un errore? Un esempio è l'algoritmo COMPAS utilizzato dalla giustizia statunitense per valutare la probabilità che un criminale commetta un altro reato. Se COMPAS stima delle probabilità troppo alte, chi è responsabile dell’enorme impatto sulle vite degli imputati? I programmatori? L'azienda produttrice?

Screenshot del titolo di un articolo pubblicato su MIT Technology Review: “L’IA sta mandando le persone in prigione, e sbagliando tutto”. Questo mostra il problema dell'attribuzione di responsabilità quando un sistema di intelligenza artificiale commette un errore.
“L’IA sta mandando le persone in prigione, e sbagliando tutto” su MIT Technology Review

Sicurezza dei sistemi di IA

Sistemi di IA che non comprendiamo del tutto possono prendere decisioni dannose inaspettate. Per esempio, ci sono stati diversi casi in cui il sistema Autopilot di Tesla non è riuscito a riconoscere ostacoli o ha interpretato male le condizioni stradali, portando a incidenti. Senza una comprensione chiara di come il sistema prende le sue decisioni, è difficile creare IA sicure.

Screenshot del titolo di un articolo pubblicato su The Verge: “Autopilot e guida automatica completa di Tesla associati a centinaia di incidenti, dozzine di morti”. Questo mostra la difficoltà nel raggiungere un livello affidabile di sicurezza nei sistemi di IA, in quanto questi possono prendere decisioni inaspettate.
“Autopilot e guida automatica completa di Tesla associati a centinaia di incidenti, dozzine di morti” su The Verge

Problemi etici: pregiudizi e discriminazioni

I sistemi di intelligenza artificiale possono incorporare e amplificare i pregiudizi e le discriminazioni esistenti nella società. Un esempio famoso è lo strumento di reclutamento basato sull'IA di Amazon, che discriminava contro le donne. Questo perché era stato addestrato su curriculum presentati in un periodo di dieci anni, che erano prevalentemente di uomini. Anche in questo caso, non è possibile correggere questo errore senza addestrare di nuovo l’IA su una diversa selezione di curriculum.

Screenshot del titolo di un articolo pubblicato su Reuters: “Amazon abbandona il segreto strumento IA di selezione del personale che mostrava pregiudizi contro le donne”. Questo mostra i problemi etici che si possono riscontrare con l'uso di sistemi di intelligenza artificiale, i quali possono amplificare pregiudizi e discriminazioni presenti nei dati con cui sono stati addestrati.
“Amazon abbandona il segreto strumento IA di selezione del personale che mostrava pregiudizi contro le donne” su Reuters

Conformità alle norme

La scarsa comprensibilità di questi sistemi complica il rispetto delle regole sulla trasparenza. Per esempio, nel 2019, è stato rivelato che gli appaltatori di Apple ascoltavano le registrazioni delle interazioni degli utenti con l’assistente Siri senza il loro consenso esplicito. Queste registrazioni includevano conversazioni private e informazioni sensibili. Apple ha dovuto affrontare un’indagine per le violazioni della privacy, oltre a subire un danno di immagine.

Screenshot del titolo di un articolo pubblicato su Forbes: “Confermato: Apple coinvolta nello scandalo sulla privacy di Siri, ha permesso agli appaltatori di ascoltare registrazioni vocali private”. Questo mostra la difficoltà nell'aderire a norme sulla trasparenza con i sistemi di intelligenza artificiale.
“Confermato: Apple coinvolta nello scandalo sulla privacy di Siri, ha permesso agli appaltatori di ascoltare registrazioni vocali private” su Forbes

Come rendere l’IA più trasparente?

Per affrontare il problema della scatola nera, esperti del settore stanno sviluppando approcci sia tecnici che normativi.

Spiegabilità

La spiegabilità dell’IA mira a creare sistemi di intelligenza artificiale capaci di spiegare il loro processo decisionale, permettendo agli umani di capire come e perché una certa decisione è stata presa. Questo porterebbe le IA ad essere anche più conformi alle norme di legge.

Pensate ad un’IA progettata per prevedere il rischio di un paziente di sviluppare una patologia, basandosi sulla sua cartella clinica. Un modo per rendere questa IA più spiegabile è creare grafici che mostrano quali fattori (come età, peso, pressione sanguigna, …) l'IA ha considerato più importanti nella sua previsione. Questo aiuta i medici a capire in che modo l’IA ha raggiunto le sue conclusioni.

La spiegabilità, però, ha anche dei limiti. I modelli di IA avanzati, come le reti neurali profonde (“deep learning"), sono molto complessi ed è difficile renderli completamente spiegabili. Nel caso della previsione di malattie, anche conoscere i fattori chiave usati dall'IA non spiega completamente il suo processo di decisione. Inoltre, tecniche di spiegabilità che funzionano in un ambito, come quello della medicina, potrebbero non funzionare in un ambito diverso, come quello della finanza. Se invece si volessero semplificare i modelli per renderli più spiegabili, si perderebbero le capacità di fare previsioni accurate.

Interpretabilità

L'interpretabilità è un sottoinsieme della spiegabilità che si concentra sul capire come ogni parte di un'IA contribuisce al risultato.

Un esempio di successo nell’ambito dell’interpretabilità è stato ottenuto con una rete neurale per il riconoscimento delle immagini. I ricercatori sono riusciti a identificare neuroni specifici che rilevano elementi interpretabili dall'uomo, dai più semplici come linee e bordi, ai più complessi come occhi, facce di cani e automobili.

Visualizzazione dell'interpretabilità delle reti neurali: tre serie di iimmagini che attivano al massimo alcuni neuroni di una rete neurale per il riconoscimento di immagini. In alto, neuroni specializzati nel riconoscimento di linee curve. Al centro, neuroni che identificano caratteristiche di cani, da forme più astratte a rappresentazioni più dettagliate. In basso, neuroni dedicati al riconoscimento di automobili, da parti di esse a veicoli completi.
Esempi di immagini che attivano al massimo alcuni neuroni di una rete per il riconoscimento di immagini (ogni immagine quadrata corrisponde a un neurone). Immagini tratte da Zoom In: An Introduction to Circuits di Chris Olah

Tuttavia, come per la spiegabilità, i modelli altamente complessi sono molto difficili da interpretare, e ogni campo e applicazione richiede tecniche specifiche.

Approcci normativi: regolamentare la trasparenza dell’IA

Sempre più legislatori stanno lavorando per imporre standard di trasparenza nell'IA. Ad esempio, l'Unione Europea ha sviluppato l'AI Act, che mira a classificare le applicazioni di IA in categorie di rischio e imporre requisiti di trasparenza. Più un'IA opera in un campo ad alto rischio, come la medicina, più deve essere trasparente.

Tuttavia, ci sono sfide nella standardizzazione dei modelli di IA. Una legge di New York che richiede ai datori di lavoro di sottoporre a ispezione i loro strumenti IA di decisione sull'impiego per pregiudizi razziali e di genere, per esempio, è stata giudicata inefficace da uno studio della Cornell University.

Modelli open-source: trasparenza attraverso il codice aperto

Lo sviluppo di IA open-source può aumentare la trasparenza permettendo a chiunque di esaminare il codice. Anche questo approccio, però, ha i suoi limiti. Le aziende spesso nascondono componenti chiave, come i dati di addestramento o il modo in cui li hanno pre-processati, per proteggere la loro proprietà intellettuale.

Ricapitolando: la sfida dell’IA trasparente

Il problema della scatola nera nell'intelligenza artificiale si riferisce al fatto che non sappiamo spiegare esattamente come i modelli di IA arrivano alle loro decisioni e previsioni. Questo porta a problemi etici, di affidabilità, sicurezza e conformità alle norme. Mentre gli esperti lavorano su soluzioni tecniche come la spiegabilità e l'interpretabilità dell’IA, è anche necessario un impegno da parte di aziende, politica e società civile per garantire che l'intelligenza artificiale sia trasparente, equa e affidabile.

Per  approfondire quali rischi specifici pongono le IA moderne, potete leggere questo articolo.

Leggi Anche