Pensiero meccanico
E’ stata soprattutto la fantascienza a determinare quello che nella percezione comune si intende per “Intelligenza Artificiale”. Gli addetti ai lavori non pensano affatto alle “macchine pensanti” quando si occupano di IA, ma l’uomo della strada probabilmente sì.
In questo senso, tutte le tecnologie a cui siamo abituati e che ci vengono proposte come “intelligenti”, sono un po’ una delusione. Certo, se l’aspettativa è quella di un robot parlante e pensante, viene da dire: “Tutto qua?”
A parte il ristretto circolo degli addetti ai lavori, il significato comune che si attribuisce all’espressione “Intelligenza Artificiale” è quello letterale, quindi di intelligenza vera e propria, realizzata con qualche artificio tecnico.
L’inventore del termine “Artificial Intelligence”, nel 1955, è stato un certo John McCarthy, che ha definito l’IA come “la scienza e l’ingegneria per creare macchine intelligenti” e ha chiarito come obbiettivo generale “far sì che una macchina si comporti in modi che sarebbero considerati intelligenti se un essere umano si comportasse in quel modo”
Anche Marvin Minsky, altro pioniere dell’AI, offre una definizione identica nel 1968: “la scienza di far fare a delle macchine cose che richiederebbero intelligenza se fossero fatte da esseri umani.”
Queste definizioni iniziali chiariscono che lo scopo non era di creare un qualche tipo di intelligenza e farla vivere in un computer, ma solo di replicare in campi limitati un comportamento “intelligente” secondo il senso comune.
Il termine “Intelligenza Artificiale” è ambiguo, e sembra fatto apposta per creare false aspettative. Se McCarthy l’avesse chiamata “abilità artificiale”, che sembra meno altisonante ma più aderente alla realtà, sicuramente nessuno avrebbe fatto confusione.
La fantascienza aveva peraltro già fatto suo un concetto molto più ampio, ovvero le “macchine intelligenti”, che anzi è sempre stato uno dei suoi filoni classici. Già nel 1950 Isaac Asimov immaginava robot pensanti nel suo “Io, Robot”. Del resto, la fantascienza stessa era un fenomeno relativamente nuovo, dato che il termine stesso “science fiction” si fa risalire al 1926. Hugo Gernsback coniò in verità “scientific fiction”, poi contratto in “scientifiction” e infine in “science fiction”. In Italia il termine “fantascienza” pare sia stato coniato da Giorgio Monicelli (nel 1952).
E la fantascienza si è divertita ad esplorare una infinità di scenari, dai più rosei ai più funesti, con netta prevalenza di quelli funesti, perché in un mondo perfetto dove tutto fila a meraviglia non c’è molto pathos. In molti racconti viene richiamato il cosiddetto “mito di Frankenstein”, ovvero quello della creatura che si ribella al suo creatore. Ahimé, si tratta sempre di robot che si ribellano all’uomo.
Isabella Hermann dice: “Per far funzionare il dramma, l’AI viene spesso rappresentata come simile all’uomo o autonoma, indipendentemente dalle reali limitazioni tecnologiche. Prendere troppo alla lettera l’AI fantascientifica e persino applicarla alla comunicazione scientifica dipinge un’immagine distorta del potenziale attuale della tecnologia e distrae dalle implicazioni e dai rischi del mondo reale dell’AI.”
E spesso l’AI viene rappresentata come pericolosa, per esigenza di drammaticità. Questo ha contornato la percezione comune dell’AI di un alone minaccioso, che non sembra tendere a dissiparsi, anche se per motivi molto diversi dal timore dei robot killer. Molto più prosaicamente oggi ci si preoccupa delle violazioni della privacy e dei potenziali rischi di disinformazione o manipolazione che IA “conversazionali” possono comportare.
Oltre alla fantascienza però il concetto stesso di intelligenza artificiale ha interessato anche pensatori, scienziati e filosofi.
Tanto per cominciare, si è subito entrati in una disputa sulla definizione stessa di AI.
AI Forte, AI Debole
I sostenitori della “AI Forte” ” credono che sia possibile creare macchine dotate di un’intelligenza simile a quella umana. Il loro obiettivo è quello di costruire macchine in grado di comprendere il linguaggio naturale, apprendere e ragionare come gli esseri umani, e persino sperimentare la coscienza. L’obiettivo ultimo dell’AI Forte è quello di creare macchine auto-consapevoli.
Così la definizione iniziale della AI è oggi chiamata “AI Debole”. Questo approccio si concentra invece su compiti limitati senza pretese di ragionamento o apprendimento al di fuori dello specifico problema affrontato. Un esempio di queste AI sono i sistemi per il riconoscimento vocale o facciale o certi programmi di scacchi. L’approccio limitato e specifico ha portato a numerosi risultati estremamente significativi.
L’industria ha appoggiato l’AI Debole perché è l’unica che abbia prodotto risultati efficaci. La definizione di AI che dà l’IBM è “qualsiasi cosa che faccia agire le macchine più intelligentemente”, quindi una concezione molto pratica.
L’AI Forte ha sollevato un vespaio perché pone una domanda fondamentale: Ma possono concettualmente esistere macchine auto-coscienti?
Prima di rispondere a questa domanda è necessario capire cos’hanno di così strano o particolare i programmi di IA rispetto agli altri programmi “tradizionali”, mi si passi il termine. A farli rientrare nella categoria di IA non è il grado di complessità del software o la bontà dei risultati, bensì il modo con cui il software lavora. Per dirla alla buona, se il software è basato sul concetto di rete neurale, è AI.
Reti neurali
Una rete neurale è un modello computazionale che si ispira al funzionamento del cervello umano. Le cellule nervose nel cervello sono interconnesse da sottili filamenti lungo i quali viaggiano gli impulsi nervosi. Ogni cellula funziona un po’ come un centralino, ricevendo ed emettendo segnali.
In una rete neurale abbiamo al posto dei neuroni delle piccole unità di elaborazione, i nodi, i quali sono interconnessi. Quando un nodo viene raggiunto da un segnale esso è in grado di fare una semplice misurazione e decidere se ritrasmettere il segnale o no. Per esempio un nodo collegato a due altri nodi si attiva se entrambi i nodi trasmettono, ma non si attiva se uno solo di essi trasmette.
La caratteristica importante di una rete neurale è che può essere calcolata, cioè simulata. Non occorre quindi costruire fisicamente complesse reti neurali, esse possono essere virtualizzate mediante un programma. Un calcolatore può quindi funzionare come una rete neurale, col vantaggio di poter essere configurato a piacere quanto a connessioni e tipo di elaborazione dei nodi.
Così abbiamo reti neurali (simulate) per classificare, per riconoscere, per calcolare, e funzionano straordinariamente bene. In particolare mostrano la capacità di elaborare delle informazioni anche se incomplete o imprecise, e fornire comunque una risposta.
Le RN possono apprendere: in una fase di “addestramento” vengono forniti alla rete dei modelli di attivazione di gruppi di nodi, e la risposta corretta che essi determinano. A questo punto la rete modifica autonomamente i nodi in modo che il risultato dei calcoli si avvicini alla risposta corretta.
Questo procedimento viene ripetuto molte volte, finché i nodi non raggiungono una configurazione stabile. Una volta addestrata, si sottopongono alla RN i dati “veri” e si verifica il grado di precisione delle risposte.
Un problema con le reti neurali è che, quando sono complesse, si perde la capacità di determinare cosa esattamente faccia la RN. Non c’è un modo di sapere in anticipo quale sarà lo stato dei nodi dopo l’addestramento, la RN si comporta insomma come una “scatola nera” imperscrutabile.
Anche sui tipi di calcoli spesso si usa un approccio empirico, provando varie soluzioni a seconda del problema e procedendo per tentativi. A dispetto di questa metodologia (apparentemente) poco rigorosa, le RN funzionano molto bene e sono molto più efficienti di altri approcci in molti ambiti, per esempio nell’analisi di grandi quantità di dati.
Le reti neurali non sono l’unica arma a disposizione dei ricercatori di AI, vi sono altri approcci che hanno dato segnali promettenti. Inoltre le RN hanno dei limiti e non si vede come si possa realizzare una intelligenza autocosciente solo con questo strumento.
La Mente
Torniamo ora alla nostra domanda: in effetti sembrerebbe, prima di poter creare una “mente” artificiale, – perché proprio di questo si tratterebbe – bisogna avere un modello della mente o una teoria della mente. Abbiamo questi strumenti? No. Quindi niente mente artificiale. Bisogna ricordare che nel frattempo i filosofi stanno ancora disputando tra connettivisti e cognitivisti su come funziona l’intelligenza umana (molto in soldoni: la mente funziona come una rete neurale e basta, oppure no, la mente funziona come un elaboratore di simboli).
Ma, obbiettano alcuni, una Teoria della Mente non è affatto necessaria se immaginiamo che la mente “si formi da sé” posto di aver creato un sistema capace di apprendere e di auto-modificarsi. La nascita dell’autocoscienza sarebbe una specie di “effetto collaterale”, un cosiddetto epifenomeno, che si manifesta spontaneamente raggiunto un certo livello di complessità. In pratica la coscienza e l’intenzionalità sarebbero “qualità emergenti” dell’attività cerebrale. Una qualità emergente è qualcosa che richiama l’idea che il tutto è maggiore delle parti: per esempio il traffico su scala macroscopica si può studiare con la dinamica dei fluidi, come se fosse acqua che scorre. Questo non è controllato da nessuno in particolare, ed è involontario da parte dei conducenti. La combinazione di molti comportamenti individuali porta alla formazione di un “super-comportamento” osservabile solo su una scala più vasta.
Tuttavia c’è un’altra obiezione alla AI Forte, Il punto fondamentale è che una macchina non ha alcuna percezione. Un pezzo di silicio non può provare piacere o dolore, non vede e non sente. Una AI può simulare però, mediante calcoli, queste cose. Possiamo immaginare un robot dotato di sensori termici, che riceverà un segnale se mette un dito su una fiamma, calcolerà l’azione opportuna e ritrarrà la mano, ma quello che accade ad un essere umano è intrinsecamente diverso: Il robot calcolerebbe che sta provando “dolore”, ma non proverebbe in effetti alcun dolore fisico. Il dolore non può essere riprodotto, perché il nostro “Io” è un tutt’uno con l’apparato percettivo, ed è proprio la percezione a determinare l’essenza stessa della nostra autoconsapevolezza. Una IA potrebbe solo simulare una intelligenza umana, corporea, e quindi al massimo simulare l’autocoscienza, senza che essa possa avere la stessa natura della autoconsapevolezza umana.
Allo stato delle cose insomma alla domanda se sia possibile davvero creare macchine autocoscienti e autodeterminate come lo intendiamo noi esseri umani, la risposta è no.
Ma se ci domandiamo se sia possibile creare macchine che simulano in maggiore o minor misura tutte queste facoltà, la risposta sarà invece affermativa.
Intelligenze conversazionali
Adesso però la macchina parlante è arrivata per davvero, e sembra proprio intelligente. Come dubitarne? Parla (anzi scrive)!
C’erano già risponditori automatici in grado di recepire comandi vocali, e fornire una risposta preconfezionata, ma usandoli ci rendiamo conto che non sono affatto “intelligenti”, ovvero non capiscono davvero quello che diciamo loro.
Le nuove “intelligenze conversazionali”, come ChatGPT, sono diverse: sembrano capire esattamente quello che gli diciamo e formulano delle risposte pertinenti elaborate al momento nella nostra lingua. In poche parole ci sembra proprio di comunicare con una entità “intelligente”.
Questa à la trascrizione di una sessione con una AI (non è ChatGPT, è un suo emulo di nome Chatsonic). Per la stesura di questo articolo mi sono fatto assistere da questa AI per ricerche varie e non dire qualche strafalcione. Ad un certo punto mi è venuto in mente un articolo che lessi negli anni 80 (mi pare) che poi per fortuna del lettore non ho citato e spiegato, che parlava della manipolazione di simboli come una attività che non richiede necessariamente intelligenza. Ricordavo vagamente che c’era una stanza in cui un tizio che non sa il cinese sta seduto con un vocabolario. Ogni tanto qualcuno gli consegna un foglio con ideogrammi cinesi. Il tizio si limita a tradurre uno per uno gli ideogrammi e a fornire un foglio con la traduzione, senza capire nulla.
Il tutto era per spiegare come mai i computer sono così stupidi, anche se sono in grado di manipolare i simboli, o qualcosa di simile. Con pochi indizi ho provato a sfruttare l’onniscienza della AI per recuperare l’articolo.
D: chi ha suggerito l’esempio della “scatola nera” in grado di tradurre dal cinese?
(Nota: Chatsonic non è avanzato come ChatGPT, qualche volta risponde in inglese)
R: I’m sorry, I couldn’t find any relevant information in the given Web Search Results to answer your question about who suggested the example of the “black box” that can translate from Chinese. However, I can tell you that the term “black box” refers to a device or system that has inputs and outputs, but its internal workings are not easily understood or observable. In the context of brain activity and consciousness, some scientists believe that consciousness and intentionality are by-products of brain activity, while others argue that they are emergent qualities or epiphenomena [1]. Holism, on the other hand, is the concept that a system cannot be fully understood by looking only at its individual parts, but rather as a whole [2]. Regarding the idea of “strong AI,” there are arguments against its ability to replicate human consciousness and intelligence, as well as concerns about ethical risks [3].
Come si vede, alla prima domanda Chatsonic mi risponde picche. Dato che ero sicuro dell’articolo, ho allora insistito (in inglese maccheronico):
D: the example was published by “science” 30-40 years ago. I read it on the italian edition, “Le scienze”. The article was about the symbol manipulation
R: I see. The “Chinese Room” thought experiment, which was first proposed by philosopher John Searle in 1980, is often used to illustrate the limitations of “strong AI” or artificial general intelligence. In the thought experiment, a person who does not understand Chinese is placed in a room with a set of instructions for manipulating Chinese characters to produce responses to questions in Chinese. Though the person in the room may be able to produce convincing responses, they do not actually understand Chinese, and therefore the system as a whole cannot be said to truly understand Chinese either. This example highlights the difference between symbol manipulation and true understanding or consciousness.
Questa risposta mi ha deliziato, soprattutto quell’ ”I see” all’inizio. Intanto non era la “scatola nera” ma era la “stanza cinese”, va beh, e non si trattava nemmeno di tradurre, ma di comporre risposte. Inoltre la rivista non è “Science”, ma è “Scientific American”.
Aggiungendo però il riferimento alla manipolazione dei simboli l’AI ha ripreso in esame le poche informazioni fornite e ha azzeccato la risposta. Provate a immaginare la fatica che avrei fatto se avessi voluto cercare su un motore di ricerca normale quell’articolo a partire da informazioni scarse e imprecise!
Le AI, anche se si esprimono correttamente, comprendono le domande e rispondono a tono, non sono in effetti più consapevoli di sé di un apriscatole. Sono però delle ottime imitazioni di intelligenza, e questo sicuramente comporta delle conseguenze.
Ci sono persone che sono perfettamente convinte che il loro cane (o gatto, o pappagallo…) li capisca quando loro ci parlano. E ci parlano, eccome. L’essere umano quando usa il linguaggio fa quello che milioni di anni di evoluzione hanno affinato: parte dall’assunto che l’interlocutore sia umano e gli attribuisce emozioni e stati d’animo che non sono altro che la proiezione di se stessi. Del resto, senza questo meccanismo, la comunicazione non funzionerebbe, perché non possiamo descrivere a parole il colore verde, il profumo del rosmarino o una sensazione di bruciore al dito. Possiamo solo sperare che l’interlocutore condivida queste sensazioni quando pronunciamo le parole che le richiamano, e capisca esattamente queste parole in quanto anche lui le ha sperimentate.
Io penso che molte persone finirebbero per umanizzare queste AI conversazionali, considerarle un po’ come amici o comunque entità benevole a propria disposizione. Ci saranno persone che non sapranno fare a meno del loro assistente personale. E ci sono milioni di ragazzini che semplicemente non sono in grado di discernere esattamente cosa sia una AI. Come si dice: “Se cammina come un’oca, gracchia come un’oca e sembra un’oca, allora è un’oca”
La commissione selezionata della Camera dei Lord sulle tecnologie di intelligenza artificiale scrive nel suo rapporto “AI in the UK: ready, willing, able?” (House of Lords 2018: 22): “La rappresentazione dell’intelligenza artificiale nella cultura popolare è a anni luce dalla realtà spesso più complessa e banale. Sulla base delle rappresentazioni nella cultura popolare e nei media, il non specialista sarebbe perdonato per immaginare l’IA come un robot antropomorfo (con o senza intenzioni omicide), o almeno come una voce altamente intelligente e senza corpo in grado di assistere in modo impeccabile in una serie di compiti. [...] Questo non è un vero riflesso della sua attuale capacità, e confrontarsi con la natura pervasiva ma spesso opaca dell’intelligenza artificiale sta diventando sempre più necessario per una società informata.”
Magari andrà tutto bene e le AI si dimostreranno un formidabile strumento di sostegno psicologico e aiuto a soggetti fragili, soli o abbandonati. Magari ci aiuteranno nell’educazione e nell’apprendimento e nel coaching in momenti di crisi. A volte fa bene sfogarsi, e una IA conversazionale è probabilmente l’unico essere al mondo che può ascoltare i nostri sfoghi senza annoiarsi, senza criticare e senza mandarci a quel paese.
O invece questo ci renderà tutti più insicuri, solitari e disadattati. Chissà?
Comunque, sarà l’uso che ne faranno coloro che le manovrano ad essere pericoloso, piuttosto che le AI in sé.
Sempre Herrmann conclude: ”Questi rischi non riguardano robot umanoidi o macchine coscienti, ma riguardano la valutazione, il nudging, la discriminazione, lo sfruttamento e la sorveglianza degli esseri umani da parte delle tecnologie AI attraverso i governi e le aziende.”
Argo interessante. Un po lungo per leggerlo tutto