La fine del futuro: l’intelligenza artificiale e il potere della previsione


1. Terapie parlanti

“La previsione è difficile, soprattutto se riguarda il futuro”, è una battuta attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La riflessione che Gerd Gigerenzer sviluppa nel libroPerché l’intelligenza umana batte sempre gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia del pensiero: una mirata al modo in cui percepiamo i risultati del software, l’altra alla comprensione delle politiche dell’infosfera, per comprendere le modalità e gli scopi del raid dei dati personali che alimenta il sistema Database di intelligenza artificiale. .

Il titolo del saggio sembra suggerire che sia in corso un assalto, o quantomeno una sfida, da parte delle macchine. Lo sviluppo del ragionamento non segue però questa strada, perché sotto il prisma dell’analisi, le promesse del marketing (e le aspettative del pubblico) sulle potenzialità del software riescono, senza che venga loro attribuita alcuna intenzione competitiva: gli unici protagonisti sono le conversazioni che gli uomini si scambiano sui dispositivi digitali. Gli interventi terapeutici vengono effettuati soprattutto sulla nostra lingua e sugli archivi di dichiarazioni con cui vengono descritti i servizi digitali: questo avrebbe potuto essere scelto come titolo del libro.Perché possiamo sempre cercare di curare l’intelligenza umana dalla sua stessa stupiditma così si sarebbe persa l’evocazione del Golem elettronico, che esercita ancora il suo (stupido) fascino nelle vetrine delle librerie.

2. Prevedere il passato

Gigerenzer mostra al lettore una gallery delle attività svolte dall’IA, dalla selezione del partner sessuale alla guida autonoma, dalla traduzione automatica al predittive policing, dal riconoscimento facciale alla profilazione di marketing. In tutte queste pratiche, i racconti dei produttori (spesso poi rilanciati dai media istituzionali) tendono a esagerare i risultati ottenuti dal software sulla base di una costruzione argomentativa qualificata come “Texas sniper fallacy”. Immagina un cowboy che spara al muro del fienile a lunga distanza, quindi disegna cerchi bersaglio attorno all’area in cui sono raggruppati la maggior parte dei buchi che ha praticato nel muro. L’adattamento del bersaglio agli impatti dei proiettili porta ad un’ammirazione molto inferiore per la mira del cecchino rispetto a quella che avrebbe ottenuto se i fori fossero stati concentrati all’interno del perimetro di un bersaglio già contrassegnato. Ciò che accade nella descrizione delle prestazioni della macchina è molto simile: i risultati divulgati e commentati riguardano la capacità del software di adattare la capacità predittiva ad eventi accaduti nel passato: gli eventi passati sono gli unici di cui si conoscono già gli effetti, su quali corsi di formazione sull’IA possono essere condotti e su cui può essere misurata la loro efficacia.

I modelli di calcolo, però, potrebbero garantire la replicazione della loro profetica esattezza nei casi futuri solo se fosse possibile verificare che gli ambiti delle relazioni umane, quello dei comportamenti individuali, quello della storia, anche quello della circolazione stradale, obbediscono sempre agli stessi parametri di progresso . Se l’amore tra uomini nascesse sempre per gli stessi motivi, se il progetto di furto o di omicidio nascesse sempre dagli stessi motivi, se la circolazione dei veicoli e dei pedoni ripetesse sempre le stesse traiettorie e non violasse mai il codice, qual è il grado di successo? registrati dalle IA nella fase di test sarebbero una promessa affidabile per il futuro. Ma in situazioni complesse, come quelle sviluppate dalle azioni degli uomini, l’adattamento di un modello agli effetti del passato attraverso la scelta e l’interpretazione di parametri adeguati, e il talento profetico per il futuro, non si sovrappongono ad alcuno approccio ragionevole. certezza. Il mondo dovrebbe essere meccanicamente stabile (e noioso) per soddisfare requisiti simili; invece, la realtà sociale continua a essere in continuo cambiamento e le previsioni del software sono molto meno affidabili di quanto pubblicizzato.

Giochi come gli scacchi, la dama e il Go offrono le condizioni ideali per il miglior funzionamento dell’IA. Le situazioni cambiano sempre, ma l’ontologia entro i limiti dei giochi è stabile come quella dei pianeti e delle stelle, le cui orbite sono calcolate con assoluto determinismo: le dimensioni e la forma del tabellone, il valore dei pezzi, le regole del movimento . , gli scopi dei movimenti, rimangono costanti. Non ci sono bambini che all’improvviso oltrepassano il tabellone, pazzi che decidono di muoversi in verticale, regine con appetiti segreti che mangiano il loro re. Per decenni si è creduto che la capacità di giocare a scacchi esprimesse l’essenza dell’intelligenza, ma l’evidenza empirica sembra smentire questa ipotesi: le abilità necessarie per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere per le strade di Milano. . o per garantire la sicurezza dei milanesi. Una soluzione al problema potrebbe essere quella di riservare le strade esclusivamente alle auto guidate dall’intelligenza artificiale, ma questa non sembra essere un’opzione praticabile nel breve termine. Le aspettative non migliorano quando si passa all’abbinamento di coppie con l’obiettivo di non divorziare entro un anno, o al riconoscimento di volti sospetti senza rischiare di arrestare innocui passanti – o peggio ancora, alla divinazione di profili psicologici per frasi di libertà sulla parola (o per personalizzare messaggi di marketing).

3. Euristica e stabilità del mondo

Gigerenzer sottolinea la possibilità di fidarsi del software costruito su un’euristica trasparente. Il successo dell’intelligenza artificiale è stato sostenuto da due pregiudizi che ognuno di noi coltiva a favore della complessità e dell’opacità, perché ci sentiamo più fiduciosi nei risultati di una macchina complicata e incomprensibile. Invece, una “lista decisionale” con poche regole permette di ottenere previsioni che, nel confronto empirico, funzionano meglio dell’IA: Angelino et al. (2018) mostra che questo è ciò che accade con i tre parametri e le tre clausole del software CORELS, capace di prevedere se l’imputato sarà arrestato nei prossimi due anni con una precisione del 65%, la stessa di AI COMPASS acquistato dal governo americano, che calcola innumerevoli calcoli combinatori su 137 parametri.

L’autorevolezza di Kahnemann squalifica le euristiche assimilandole al “pensiero rapido”, che tende a precipitarsi verso soluzioni contaminate da errori e pregiudizi, per trovare nell’immediatezza della situazione un criterio di condotta. Gigerenzer al contrario consacra il repertorio delle nostre regole pratiche come una “cassetta degli attrezzi” che ha superato la selezione dell’ambiente in cui viviamo, ed è quindi adeguata alla razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è cementare la stabilità del mondo, che le intelligenze artificiali faticano a dedurre tra i numerosi modelli di relazioni che si stabiliscono nei dati con cui si svolge il loro lavoro.formazione. Inoltre, le reti neurali amano nascondersi, come la natura di Eraclito, e dopo alcune generazioni di addestramento, diventa impossibile anche per i loro sviluppatori capire quali segnali vengono intercettati ed elaborati: potremo scoprirlo solo con test empirici sugli output se il software ha imparato a riconoscere i carri armati russi, o se li distingue dai carri armati americani, perché nelle foto il cielo sullo sfondo dei mezzi corazzati slavi è per caso sempre nuvoloso, quanto è soleggiato nelle foto americane. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati trasformi la percezione di uno scuolabus in quella di uno struzzo. Se il mondo deve essere noioso e stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, che la noia sia almeno quella dei nostri pregiudizi, e non quella di un mondo possibile disegnato a caso.

Bibliografia

Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Apprendimento di elenchi di regole ottimali certificate per dati categorici“Journal of Machine Learning Research”, n. 18, 2018, pag. 1-78.

Gigerenzer, Gerd,Come rimanere intelligenti in un mondo intelligente Perché l’intelligenza umana batte ancora gli algoritmiPinguino, New York 2022.

Kahneman, Daniele,Pensa, veloce e lentoFarrar, Straus e Giroux, New York 2011

  • laureato in filosofia, si occupa di media digitali dal 1999: è cofondatore di Pquod e SocialGraph, società specializzate in comunicazione web e analisi dati. Contemporaneamente ha svolto attività didattica sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep del Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dai nuovi media nella monografia pubblicata nel 2010: Googlecracy. Dal febbraio 2011 la loro evoluzione è stata documentata in articoli pubblicati sui quotidiani Linkiesta, pagina99, Gli Stati Generali.

    Vedi tutti gli articoli



Mi piace

Leave a Comment

Leave a Reply

Your email address will not be published. Required fields are marked *