Nobel 2024, Fisica: propagazione degli errori e vertigine delle etichette

1. ETICHETTE
Goffrey Hinton è uno psicologo che ha ricevuto il Premio Nobel per la fisica in riconoscimento delle sue innovazioni nel campo dell’informatica. Questa commistione di discipline mostra come la rigidità della separazione delle competenze e l’insistenza sulla specializzazione siano svantaggiose; ma sorprende che questa evidenza venga portata alla luce da un personaggio che ha costruito la sua carriera sulla ricerca di meccanismi destinati a compiere operazioni automatiche di ordinamento e classificazione – o, ancora, ad apprendere metodi di lettura di contenuti non strutturati per applicarli alla catalogazione . etichette.
Hinton meriterebbe un Premio Nobel per la sua caparbietà, per la perseveranza con cui ha continuato a impegnarsi nell’evoluzione delle reti neurali e apprendimento profondoanche durante le fasi “invernali” dell’intelligenza artificiale, con la riduzione degli investimenti, la sfiducia nelle istituzioni, lo scetticismo dei finanziatori. E non è tutto: per almeno vent’anni i budget destinati alla ricerca nel settore dell’intelligenza artificiale hanno sostenuto soprattutto progetti che non credevano nella possibilità del machine learning, e che si affidavano a software in cui i processi di comprensione, decisione e l’esecuzione erano definite da regole comportamentali stabilite a priori dallo sviluppatore umano.
Nel 2012, Hinton, insieme ai collaboratori studenti Alex Krizhevsky e Ilya Sutskever, hanno partecipato al concorso ImageNet il sistema di riconoscimento delle immagini AlexNet: è allo strepitoso successo di questa macchina che si deve la convinzione diffusa che intelligenza artificiale, reti neurali e deep learning siano tutti sinonimi. Il software non solo ha vinto il concorso del 2012, ma ha anche migliorato l’indice di accuratezza della classificazione delle illustrazioni di oltre 10 punti percentuali rispetto all’edizione precedente: un passo avanti nelle prestazioni dell’intelligenza percettiva mai registrato prima nella storia dell’informatica. concorrenza. Era chiaro a tutti che a questo punto la disciplina era entrata in una nuova fase ed era cambiato il paradigma progettuale e realizzativo. La prova è che Sutskever è stato tra i fondatori di OpenAI nel 2015 e che è stato arruolato fino al novembre 2023 come ingegnere capo dello sviluppo di ChatGPT – il progetto con cui l’intelligenza artificiale ha superato i limiti dell’interesse degli specialisti ed è stata portata alla ribalta attenzione del grande pubblico. udienze a fine 2022.
2. STRATI NASCOSTI E PROPAGAZIONE DEGLI ERRORI
I trent’anni di lavoro che precedono AlexNet ruotano attorno al concetto di propagazione all’indietro dell’errore nel processo di apprendimento delle reti neurali. Né il concetto né il metodo sono stati inventati da Hinton, ma la sua tenacia nel coltivarli è servito niente meno che al suo contributo alle procedure attuali e alla loro diffusione nello sviluppo del paradigma contemporaneo dell’IA.
AlexNet e le reti neurali simili (reti convoluzionali) sono costruite con diversi livelli di unità di elaborazione. Nel primo strato i “neuroni” mappano l’immagine in una griglia di piccole cellule, analogamente a quanto avviene nella fisiologia della percezione umana.
Il risultato di questo modello di ricezione viene esaminato dagli strati “nascosti” delle unità di elaborazione, che interpretano i confini e i colori della figura. L’effetto è una riprogrammazione dell’immagine attraverso la lettura dei livelli, che separano il soggetto dallo sfondo, esaminano le parti, valutano le posture, ecc. possono anche prescindere da concetti come “fedeltà” o “familiarità”. Maggiore è il numero di questi livelli intermedi, maggiore è il grado di affidabilità con cui l’immagine viene fatta corrispondere all’etichetta che la descrive. A sua volta, la didascalia deriva da una tassonomia che la macchina ha immagazzinato in memoria durante la prima fase di addestramento, oltre che da una galleria di migliaia, se non milioni, di immagini già classificate.
Il compito del software è quindi quello di associare schemi di pixel colorati alle etichette presenti in un raccoglitore, con un certo grado di probabilità. Nella fase di addestramento supervisionato, se la dicitura scelta dalla macchina è corretta, il sistema rimane invariato; Se, invece, il risultato è errato, il giudizio di errore si propaga tra gli strati intermedi che hanno contribuito alla stima, inducendo una variazione nei “pesi” del calcolo. Il processo interessa tutte le unità di lavorazione, e il suo miglioramento resta il principale oggetto di indagine da parte degli esperti del settore, come ha testimoniato Yann LeCun in un post su X poco meno di un anno fa.
La sfiducia di figure come Marvin Minsky e Seymour Papert riguardo alla fattibilità stessa della propagazione all’indietro degli errori ha dirottato per anni i finanziamenti verso progetti che escludevano apprendimento profondo: durante la prima rete neurale, il Percettrone di Frank Rosenblatt che nel 1958 aveva un solo livello intermedio, le difficoltà sembravano insormontabili. Come nei racconti dei grandi profeti, Hinton si è armato di fede, di speranza – e anche senza la carità dei grandi finanziatori istituzionali, ha messo in piedi una macchina capace di imparare a classificare.
3. LIMITAZIONI
La descrizione colpevolmente eccessivamente riduttiva del funzionamento di AlexNet suggerisce anche le condizioni e i limiti della concezione di intelligenza che sta alla base della tecnologia delle reti neurali. Già nel progetto di Rosenblatt il riconoscimento di un’immagine è inteso come un metodo che porta alla comprensione del contenuto attraverso l’autorganizzazione del contributo di numerosi attori atomici, coincidenti con le unità di calcolo: un altro articolo su “Controversie” esaminava come questo modello cognitivo deriva dal liberalismo economico e sociale di Von Hayek. Ma è importante sottolineare ora altri due aspetti del paradigma: l’isolamento dell’apprendimento da qualsiasi considerazione pragmatica e il carattere costruttivo dal basso verso l’alto del processo interpretativo.
Merleau Ponty ha esaminato con un approccio fenomenologico il ruolo che l’attenzione gioca nella percezione: l’identificazione di persone e cose non è una successione di shock visivi che appaiono dal nulla, ma un flusso che va da una direzione all’altra da una maggiore indeterminazione a una maggiore precisione. come appropriato. di una domanda. La richiesta sfida la nostra libertà di avvicinarci, di esplorare, di interagire: il riconoscimento avviene nel contesto di un mondo già in qualche modo pre-compreso, e che solleva interrogativi in base al rapporto che abbiamo con la scena in cui siamo immersi – perché dove la stessa roccia parla diversamente ad un geologo, o ad un turista stanco di passeggiare con il suo cane.
Il sistema di riconoscimento artificiale delle immagini, invece, non stabilisce alcuna relazione con il mondo né ha domande da porgli. Egli, infatti, non ha alcuna conoscenza dell’esistenza del mondo e della possibilità di stabilire un qualsiasi rapporto con esso. La macchina valuta la probabilità con cui l’attivazione di alcuni modelli di unità riceventi può essere collegata ad una delle etichette presenti nel file di memoria. Ciò spiega come si possa cadere nella trappola degli attacchi avversari, in cui il “rumore informativo” dovuto alla sostituzione di alcuni pixel (che non modificano in alcun modo l’aspetto dell’immagine ai nostri occhi) fa sì che le stime dell’AlexNet, convincenti, . è preferire l’etichetta struzzo a quelli correttamente assegnati in precedenza tempio e canna.
Senza un mondo che funga da orizzonte di senso per azioni e interpretazioni, non ci sono domande, quindi nemmeno riconoscimenti e intelligenza – nel senso attuale di questi termini. Non esiste nemmeno la possibilità di autocorrezione, come quella che sviluppiamo istintivamente quando incontriamo un problema. ingannare l’occhio o in qualche illusione ottica: è la stabilità del mondo, e non la coerenza delle leggi dell’apprensione, che ci permette di riconoscere l’errore. L’inganno per noi è infatti momentaneo, poi la coesione dell’esperienza della realtà torna a ripristinare il senso della percezione (anche in caso di abuso di sostanze psicotrope): ecco perché siamo consapevoli di essere vittime di illusioni.
La separazione della sfera cognitiva da quella pragmatica e la riduzione della mente a un sistema di procedure risoluzione dei problemipiuttosto intrappolare la percezione in un mondo di specchi e concetti senza uscita. Le illazioni che si propagano dalle unità nucleari della percezione sono il correlato di un universo di etichette che non rimandano a nulla di reale – tanto che si può riconoscere uno struzzo invece di un tempio, senza alcuna forma di disagio. Questo disagio che colpisce l’individuo intelligente di fronte all’abisso della stupidità.
BIBLIOGRAFIA
Bottazzini, Paolo, Nello specchio dell’Intelligenza Artificiale – L’Occhio del Maestro“Controversie”, 4 giugno 2024.
LeCun, Yann, Per favore, ignorate la raffica di assurdità su Q*,
Merleau-Ponty, Maurizio, Fenomenologia della percezioneGallimard, Parigi 1945; trans. Lui. a cura di Andrea Bonomi, Fenomenologia della percezioneBombiani, Milano 2003.
Minsky, Marvin; Papert, Seymour, PercepiamoMIT Press, Cambridge 1969.
Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J., Rappresentazioni dell’apprendimento mediante propagazione all’indietro degli errori“Natura”, vol. 323, n. 6088, 9 ottobre 1986, pag. 533-536.
Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Proprietà intriganti delle reti neurali‘arXiv’, prestampa arXiv:1312.6199.
Leave a Comment