Alcuni problemi dell’intelligenza artificiale

Ricordo una cena a casa di una coppia di amici, qualche anno fa, in cui lui a un certo punto pronunciò con sicurezza la frase: “Le mie figlie [che all’epoca frequentavano entrambe le elementari] non dovranno imparare a guidare: ci sarà un computer che lo farà per loro“. E invece, la più grande ha da poco compiuto 18 anni, e indovinate un po’ quale regalo le ha fatto il papà? Proprio così: la scuola guida per ottenere la patente.

Pochi campi sono stati più oggetto di strombazzamenti vari dell’intelligenza artificiale. Negli ultimi decenni, più e più volte ci è capitato di leggere o sentir dire che “presto non ci sarà più bisogno di esseri umani per fare X” – dove X di volta in volta poteva essere uguale per l’appunto a “guidare”, ma anche a “tradurre” o “esaminare radiografie”.

Il fatto è che i sistemi di Deep Learning (la tecnica che – come spiego più diffusamente in questo articolo – oggi è praticamente sinonimo di IA ed eccelle nel riconoscere i pattern) continuano a compiere errori. E se l’errore consiste nel non riconoscere, tra le foto nel mio smartphone, che quel musino bianco che spunta dai cuscini è il mio gatto, poco male; non butterò via il mio smartphone soltanto per questo motivo e, se proprio voglio, la catalogherò io manualmente come “foto del micio”, e tanti saluti.

micio bianco
Il mio gatto, per gli amici “micio Codino”

Ma se l’errore dell’algoritmo lo porta invece a non distinguere un essere umano da un sacchetto agitato dal vento quando si parla di auto senza guidatore… E se si tratta di un chatbot, un software che dovrebbe rispondere in modo sensato alle nostre domande ma, piuttosto, reagisce come “un pappagallo stocastico”, che ripete molto ma capisce ben poco, e quel chatbot sostiene con convinzione che bere dell’ammoniaca a grandi sorsate fa bene alla salute?

Se la questione dei problemi dell’intelligenza artificiale vi intriga, non potete non leggere questo articolo dello scienziato Gary Marcus: pubblicato sul sito del magazine Nautilus un paio di mesi fa, ha suscitato un bel polverone con la sua sintesi di tutto quello che, oggi, nel campo dell’intelligenza artificiale non funziona – sostanzialmente, il fatto che per quanto riescano a fare un sacco di cose, di base tutti i sistemi costruiti finora non capiscono un tubo.

Secondo Marcus, uno dei motivi per cui questo succede potrebbe stare nel fatto che i sostenitori del deep learning abbiano pensato che i network neurali, a forza di macinare moli sempre più considerevoli di dati, avrebbero prima o poi iniziato a “imparare davvero”, e questo avrebbe portato molti di loro a un rifiuto dell’approccio simbolico – dimenticando che la manipolazione di simboli ha caratterizzato l’informatica sin da quando debuttò in società grazie agli articoli, ormai leggendari, di Alan Turing e John von Neumann.

Marcus propone allora un approccio ibrido, neurosimbolico, all’intelligenza artificiale, concludendo che d’altronde, così come la mente umana non è un oggetto unico, ma è composta di più parti – muovere un braccio non è la stessa cosa che innamorarsi, riconoscere il musetto del mio gatto non è la stessa cosa che organizzare le vacanze – perché da una “vera” intelligenza artificiale dovremmo aspettarci tutta questa uniformità?

Il problema è ovviamente complesso, come spiega molto bene l’esperta di intelligenza artificiale Janelle Shane in questo TedTalk (con sottotitoli in italiano), intitolato non a caso “I pericoli dell’IA sono più strani di quanto potreste pensare”:

Da diversi anni, Janelle Shane tiene un blog, Ai Weirdness, in cui racconta le proprie peripezie nello scontrarsi con i vari problemi dell’intelligenza artificiale ed è anche autrice di un libro piacevolissimo, You look like a thing and I love you, in cui spiega concetti complessi con parole della vita quotidiana, evitando tecnicismi e appoggiandosi a fumetti che personalmente ho trovato piuttosto azzeccati – come potete vedere nella foto del libro più in basso, che è tutta scicchettosa perché l’ho scattata per una recensione sul mio account Instagram.

Leggendolo, oltre che sui problemi dell’intelligenza artificiale in senso più ampio, ho riflettuto su quanto anche con le macchine, così come con le persone, se vogliamo ottenere delle risposte sensate e utili la cosa davvero importante è imparare a fare le domande giuste.

Immagine di copertina di Stephanie LeBlanc via Unsplash