Perché l’intelligenza artificiale generale NON verrà realizzata

Spread the love

Perché l’intelligenza artificiale generale non verrà realizzata

Il moderno progetto di creare un’intelligenza artificiale (AI) simile all’uomo è iniziato dopo la seconda guerra mondiale, quando si è scoperto che i computer elettronici non sono solo macchine per lo scricchiolio di numeri, ma possono anche manipolare simboli. 

È possibile perseguire questo obiettivo senza presumere che l’intelligenza della macchina sia identica all’intelligenza umana. 

Questo è noto come IA debole. Tuttavia, molti ricercatori di IA hanno perseguito l’obiettivo di sviluppare un’intelligenza artificiale che è in linea di principio identica all’intelligenza umana, chiamata IA forte. 

L’IA debole è meno ambiziosa dell’IA forte e quindi meno controversa. 

Tuttavia, ci sono anche importanti controversie relative all’intelligenza artificiale debole. Questo articolo si concentra sulla distinzione tra intelligenza artificiale generale (AGI) e intelligenza artificiale stretta (ANI). 

Sebbene l’AGI possa essere classificato come IA debole, è vicino all’intelligenza artificiale forte perché una delle caratteristiche principali dell’intelligenza umana è la sua generalità. 

Sebbene AGI sia meno ambizioso di un’IA forte, ci sono state critiche quasi dall’inizio. Uno dei principali critici fu il filosofo Hubert Dreyfus, il quale sostenne che i computer, che non hanno corpo, infanzia e pratica culturale, non potevano acquisire affatto intelligenza. 

Uno dei principali argomenti di Dreyfus era che la conoscenza umana è in parte tacita e quindi non può essere articolata e incorporata in un programma per computer. 

Tuttavia, oggi si potrebbe sostenere che i nuovi approcci alla ricerca sull’intelligenza artificiale hanno reso le sue argomentazioni obsolete. 

Il deep learning e i Big Data sono tra gli approcci più recenti e i sostenitori sostengono che saranno in grado di realizzare AGI. 

Uno sguardo più attento rivela che, sebbene lo sviluppo dell’intelligenza artificiale per scopi specifici (ANI) sia stato impressionante, non ci siamo avvicinati molto allo sviluppo dell’intelligenza artificiale generale (AGI). 

L’articolo sostiene inoltre che ciò è in linea di principio impossibile e fa rivivere l’argomento di Hubert Dreyfus secondo cui i computer non sono nel mondo.

L’idea di macchine in grado di eseguire compiti che richiedono intelligenza risale almeno a Descartes e Leibniz. 

Tuttavia, il progetto ha compiuto un importante passo avanti quando all’inizio degli anni ’50 è stato riconosciuto che i computer elettronici non sono solo dispositivi numerici, ma possono essere utilizzati per manipolare simboli. 

Questa è stata la nascita della ricerca sull’intelligenza artificiale (AI). È possibile perseguire questo obiettivo senza presumere che l’intelligenza artificiale sia identica all’intelligenza umana. 

Ad esempio, uno dei pionieri nel campo, Marvin Minsky, ha definito l’AI come: “… la scienza di far fare alle macchine cose che richiederebbero intelligenza se fatte da uomini” (citato da Bolter, 1986, p. 193). 

Questo a volte è chiamato IA debole. Tuttavia, molti ricercatori sull’IA hanno perseguito l’obiettivo di sviluppare un’IA che è in linea di principio identica all’intelligenza umana, chiamata IA forte. 

Ciò implica che “… il computer opportunamente programmato è una mente, nel senso che si può letteralmente dire che i computer comprendono e hanno altri stati cognitivi” (Searle, 1980, p. 417).

In questo articolo userò una terminologia diversa, che si adatta meglio alle questioni che discuto. Poiché l’intelligenza umana è generale, l’IA simile all’uomo è quindi spesso chiamata intelligenza artificiale generale (AGI). 

Sebbene AGI possieda una proprietà essenziale dell’intelligenza umana, può ancora essere considerata un’IA debole. 

È tuttavia diversa dalla tradizionale IA debole, che è limitata a compiti o aree specifiche. 

L’IA debole tradizionale è quindi talvolta chiamata intelligenza artificiale stretta (ANI) (Shane, 2019, p. 41). 

Sebbene a volte mi riferirò a un’IA forte, la distinzione fondamentale in questo articolo è tra AGI e ANI. È importante tenere i due separati. Gli anticipi in ANI non sono anticipi in AGI.

Nel 1976 Joseph Weizenbaum, a quel tempo professore di informatica al MIT e ideatore del famoso programma Eliza , pubblicò il libro Computer Power and Human Reason (Weizenbaum, 1976). 

Come indica il titolo, ha fatto una distinzione tra potenza del computer e ragione umana. 

La potenza del computer è, nella terminologia odierna, la capacità di utilizzare algoritmi a una velocità enorme, che è ANI. Il potere del computer non si svilupperà mai nella ragione umana, perché i due sono fondamentalmente diversi. 

La “ragione umana” comprenderebbe la prudenza e la saggezza di Aristotele. La prudenza è la capacità di prendere decisioni giuste in situazioni concrete e la saggezza è la capacità di vedere il tutto. 

Queste capacità non sono algoritmiche e quindi la potenza del computer non può, e non dovrebbe, sostituire la ragione umana. 

Il matematico Roger Penrose, pochi anni dopo, scrisse due libri importanti in cui dimostrò che il pensiero umano fondamentalmente non è algoritmico (Penrose, 1989 , 1994).

Tuttavia, i miei argomenti saranno leggermente diversi da quelli di Weizenbaum e Penrose. 

Continuerò una linea di argomenti che è stata originariamente presentata dal filosofo Hubert Dreyfus.

È entrato nella ricerca sull’IA più o meno per caso. Aveva svolto lavori legati ai due filosofi Martin Heidegger e Ludwig Wittgenstein.

Questi filosofi rappresentarono una rottura con la filosofia occidentale tradizionale, poiché enfatizzarono l’importanza del corpo umano e dell’attività pratica come primaria rispetto al mondo della scienza.

Ad esempio, Heidegger sosteneva che possiamo avere solo un concetto di martello o sedia perché apparteniamo a una cultura in cui cresciamo e siamo in grado di maneggiare questi oggetti.

Dreyfus pensava quindi che i computer, che non hanno corpo, infanzia e pratica culturale, non potessero acquisire affatto intelligenza (Dreyfus e Dreyfus,1986 , p. 5).

Uno dei luoghi importanti per la ricerca sull’IA negli anni ’50 e ’60 era la Rand Corporation. 

Stranamente, hanno assunto Dreyfus come consulente nel 1964. L’anno successivo ha presentato un rapporto critico intitolato: “Alchimia e intelligenza artificiale”. 

Tuttavia, i leader del progetto AI della Rand hanno sostenuto che il rapporto non aveva senso e non avrebbe dovuto essere pubblicato. 

Quando è stato finalmente rilasciato, è diventato il rapporto più richiesto nella storia della Rand Corporation. Dreyfus in seguito espanse il rapporto al libro What Computers Can’t Do (Dreyfus, 1972). 

Nel libro ha sostenuto che una parte importante della conoscenza umana è tacita. Pertanto, non può essere articolato e implementato in un programma per computer.

Sebbene Dreyfus sia stato ferocemente attaccato da alcuni ricercatori di intelligenza artificiale, senza dubbio ha indicato un problema serio. 

Ma durante gli anni ’80 un altro paradigma divenne dominante nella ricerca sull’IA. Era basato sull’idea di reti neurali

Invece di prendere come modello la manipolazione dei simboli, ha preso come modello i processi nel nostro sistema nervoso e nel cervello. 

Una rete neurale può apprendere senza ricevere istruzioni esplicite. Quindi sembrava che gli argomenti di Dreyfus su ciò che i computer non possono fare fossero obsoleti.

L’ultima primavera è Big Data. I Big Data sono l’applicazione di metodi matematici a enormi quantità di dati per trovare correlazioni e inferire probabilità (Najafabadi et al., 2015). 

I Big Data rappresentano una sfida interessante: ho detto in precedenza che AGI non fa parte di un’IA forte. 

Tuttavia, sebbene i Big Data non rappresentino l’ambizione di sviluppare un’IA forte, i sostenitori hanno sostenuto che ciò non è necessario. 

Non dobbiamo sviluppare computer con intelligenza simile a quella umana. Al contrario, possiamo cambiare il nostro modo di pensare per essere come i computer. 

Questo è implicitamente il messaggio del libro di Viktor Mayer-Schönberger e Kenneth Cukier: Big Data: A Revolution That Will Transform How We Live, Work, and Think (Mayer-Schönberger e Cukier, 2014). 

Il libro è ottimista su ciò che i Big Data possono realizzare e sui suoi effetti positivi sulla nostra vita personale e sulla società nel suo insieme.

Alcuni sostengono addirittura che il metodo scientifico tradizionale di utilizzare ipotesi, modelli causali e test sia obsoleto. 

La causalità è una parte importante del pensiero umano, in particolare nella scienza, ma secondo questo punto di vista non abbiamo bisogno della causalità. 

Le correlazioni sono sufficienti. Ad esempio, sulla base di dati criminali possiamo dedurre dove si verificheranno i crimini e utilizzarli per allocare le risorse della polizia. 

Potremmo persino essere in grado di prevedere i crimini prima che vengano commessi e quindi prevenirli.

Se guardiamo parte della letteratura sulla ricerca sull’IA, sembra che non ci siano limiti a ciò che la ricerca può realizzare entro pochi decenni. Un esempio è il libro di Mayer-Schönberger e Cukier a cui ho fatto riferimento sopra. Ecco una citazione:

In futuro, e prima di quanto si possa pensare, molti aspetti del nostro mondo saranno aumentati o sostituiti da sistemi informatici che oggi sono di esclusiva competenza del giudizio umano (Mayer-Schönberger e Cukier, 2014, p. 12).

Un esempio che supporta questa visione è l’amministrazione Obama, che nel 2012 ha annunciato una “Big Data Research and Development Initiative” per “aiutare a risolvere alcune delle sfide più urgenti delle Nazioni” (citato da Chen e Lin, 2014, p. 521).

Tuttavia, quando si guarda a ciò che è stato effettivamente realizzato rispetto a quanto promesso, la discrepanza è sorprendente. 

Più avanti fornirò alcuni esempi. Una spiegazione di questa discrepanza potrebbe essere che il profitto è la forza trainante principale e, pertanto, molte delle promesse dovrebbero essere considerate marketing. 

Tuttavia, sebbene gli interessi commerciali giochino senza dubbio un ruolo, ritengo che questa spiegazione sia insufficiente. 

Aggiungerò due fattori: primo, uno dei pochi dissidenti nella Silicon Valley, Jerone Lanier, ha sostenuto che la fede nell’immortalità scientifica, lo sviluppo di computer dotati di super intelligenza, ecc., Sono espressioni di una nuova religione “,

ha espresso attraverso una cultura ingegneristica “(Lanier, 2013, p. 186). 

In secondo luogo, quando si sostiene che i computer sono in grado di riprodurre un’attività umana, spesso si scopre che l’affermazione presuppone una descrizione di tale attività che è seriamente semplificata e distorta. 

Per dirla semplicemente: la sopravvalutazione della tecnologia è strettamente connessa con la sottovalutazione degli esseri umani.

Inizierò con l’argomento principale di Dreyfus secondo cui AGI non può essere realizzato. 

Quindi darò un breve resoconto dello sviluppo della ricerca sull’IA dopo la pubblicazione del suo libro. 

Alcune scoperte spettacolari sono state utilizzate per sostenere l’affermazione che AGI è realizzabile entro i prossimi decenni, ma mostrerò che è stato ottenuto molto poco nella realizzazione di AGI. 

Sosterrò quindi che non è solo questione di tempo, che ciò che non è stato realizzato prima, verrà realizzato in seguito. 

Al contrario, sostengo che l’obiettivo in linea di principio non può essere realizzato e che il progetto è un vicolo cieco.

Nella seconda parte dell’articolo mi limito a sostenere che la conoscenza causale è una parte importante dell’intelligenza umana e che i computer non possono gestire la causalità perché non possono intervenire nel mondo.

Più generalmente, L’AGI non può essere realizzato perché i computer non sono nel mondo. Finché i computer non crescono, non appartengono a una cultura e non agiscono nel mondo, non acquisiranno mai un’intelligenza simile a quella umana.

Infine, sosterrò che la convinzione che AGI possa essere realizzata è dannosa. 

Se il potere della tecnologia viene sopravvalutato e le capacità umane vengono sottovalutate, il risultato in molti casi sarà che sostituiamo qualcosa che funziona bene con qualcosa che è inferiore.

Dreyfus ha inserito l’IA in una tradizione filosofica che risale a Platone. La teoria della conoscenza di Platone era costruita sull’ideale della matematica, in particolare la geometria. 

La geometria non riguarda i corpi materiali, ma i corpi ideali. Possiamo solo acquisire una vera conoscenza, episteme, distogliendo l’attenzione dal mondo materiale e dirigendola “verso l’alto”, verso il mondo degli oggetti ideali. 

Platone ha persino criticato i geometri per non aver capito il loro mestiere, perché pensavano che stessero “… facendo qualcosa e il loro ragionamento aveva uno scopo pratico, e l’argomento non era, infatti, perseguito per amore della conoscenza” (Platone, 1955, p. 517). 

Le abilità sono semplicemente opinione, doxa, e sono relegate in fondo alla sua gerarchia di conoscenze.

Secondo questa visione, un requisito minimo per considerare qualcosa come conoscenza è che possa essere formulato esplicitamente. 

La filosofia occidentale ha generalmente seguito Platone e ha accettato solo la conoscenza proposizionale come conoscenza reale. 

Un’eccezione è quella che Dreyfus chiamava gli “anti-filosofi” Merleau-Ponty, Heidegger e Wittgenstein. 

Ha anche fatto riferimento allo scienziato e filosofo Michael Polanyi. Nel suo libro Personal Knowledge Polanyi ha introdotto l’espressione conoscenza tacita

La maggior parte delle conoscenze che applichiamo nella vita di tutti i giorni è tacita. In effetti, non sappiamo quali regole applichiamo quando eseguiamo un’attività. 

Polanyi ha usato il nuoto e la bicicletta come esempi. Pochissimi nuotatori sanno che ciò che li tiene a galla è come regolano la respirazione: quando espirano non svuotano i polmoni e quando inspirano gonfiano i polmoni più del normale.

Qualcosa di simile si applica alla bicicletta. Il ciclista mantiene l’equilibrio girando il manubrio della bicicletta. 

Per evitare di cadere a sinistra, sposta il manubrio a sinistra e per evitare di cadere a destra ruota il manubrio a destra. Così mantiene l’equilibrio muovendosi lungo una serie di piccole curvature. 

Secondo Polanyi una semplice analisi mostra che per un dato angolo di squilibrio, la curvatura di ogni avvolgimento è inversamente proporzionale al quadrato della velocità della bicicletta. 

Ma il ciclista non lo sa e non lo aiuterebbe a diventare un ciclista migliore (Polanyi, 1958 , p. 50). Successivamente Polanyi formulò questa intuizione come “… possiamo sapere più di quanto possiamo dire ” (Polanyi, 2009, p. 4, corsivo nell’originale).

Tuttavia, la cosa importante nel contributo di Polanyi è che ha sostenuto che le abilità sono una precondizione per la conoscenza articolata in generale e la conoscenza scientifica in particolare. 

Ad esempio, per eseguire esperimenti fisici è necessario un alto grado di abilità. Queste abilità non possono essere apprese solo dai libri di testo. 

Vengono acquisiti su istruzione di qualcuno che conosce il mestiere.

Allo stesso modo, Hubert Dreyfus, in collaborazione con suo fratello Stuart, ha sviluppato un modello per l’acquisizione di competenze. 

Al livello più basso l’esecutore segue regole esplicite. Il livello più alto, la performance degli esperti, è simile al resoconto della pratica scientifica di Polanyi. 

Una parte importante della competenza è tacita. Il problema che deve affrontare lo sviluppo di sistemi esperti, cioè sistemi che consentono a un computer di simulare le prestazioni di un esperto (ad esempio la diagnostica medica) è che una parte importante della conoscenza esperta è tacita. 

Se gli esperti cercano di articolare la conoscenza che applicano nella loro performance, normalmente regrediscono a un livello inferiore. 

Pertanto, secondo Hubert e Stuart Dreyfus, i sistemi esperti non sono in grado di catturare le capacità di un artista esperto (Dreyfus e Dreyfus, 1986, p. 36). 

Conosciamo questo fenomeno dalla vita di tutti i giorni. La maggior parte di noi è esperta nel camminare. Tuttavia, se proviamo ad articolare il modo in cui camminiamo, sicuramente diamo una descrizione che non coglie le abilità coinvolte nel camminare.

Tre “pietre miliari” nella ricerca sull’IA

Tuttavia, dopo che Hubert Dreyfus ha pubblicato What Computers Can’t Do , l’AI ha fatto enormi progressi. 

Citerò tre “pietre miliari” che hanno ricevuto l’attenzione del pubblico e hanno contribuito a dare l’impressione che AGI sia “dietro l’angolo”.

La prima “pietra miliare” è il computer scacchista di IBM Deep Blue , che è spesso considerato una svolta quando nel 1997 ha sconfitto il campione del mondo di scacchi, Garri Kasparov. 

Tuttavia, Deep Blue è stato un esempio di ANI; è stato creato per uno scopo specifico. 

Sebbene abbia funzionato molto bene in un’attività che richiede intelligenza quando eseguita da umani, nessuno affermerebbe che Deep Blue abbia acquisito intelligenza generale.

Il secondo è il computer di IBM Watson. È stato sviluppato con l’obiettivo esplicito di partecipare al quiz show Jeopardy!

Questa è una competizione in cui i partecipanti ricevono le risposte e quindi dovrebbero trovare le domande giuste. 

Ad esempio, può essere presentata la risposta: “Questo ‘padre del nostro paese’ non ha davvero abbattuto un ciliegio”. 

La domanda corretta che i partecipanti dovrebbero trovare è: “Chi era George Washington?”

Pericolo! richiede un repertorio di conoscenze e abilità molto più ampio rispetto agli scacchi. 

Le attività coprono una varietà di aree, come scienza, storia, cultura, geografia e sport e possono contenere analogie e giochi di parole. 

Ha tre partecipanti, che competono per rispondere per primi. Se rispondi in modo errato, verrai estratto e un altro dei partecipanti avrà l’opportunità di rispondere. 

Pertanto, la competizione richiede sia conoscenza, velocità, ma anche capacità di limitarsi. 

Il programma ha goduto di un’enorme popolarità negli Stati Uniti sin dall’inizio nel 1964 ed è visto in media da sette milioni di persone (Brynjolfson e McAfee, 2014, p. 24).

Watson comunica usando il linguaggio naturale. Quando ha partecipato a Jeopardy! non era connesso a Internet, ma aveva accesso a 200 milioni di pagine di informazioni (Susskind e Susskind, 2015, p. 165; Ford, 2015, p. 98ss). 

Nel 2011 ha battuto i due migliori partecipanti a Jeopardy!, Ken Jennings e Brad Rutter. 

Jennings aveva vinto 74 volte di fila nel 2004 e aveva ricevuto oltre 3 milioni di dollari in totale. 

Rutter aveva vinto su Jennings nel 2005 e anche lui aveva vinto più di $ 3 milioni. 

Nella competizione di 2 giorni, Watson ha vinto più di tre volte di più di ciascuno dei suoi concorrenti umani.

Sebbene Watson sia stato costruito per partecipare a Jeopardy!, IBM aveva ulteriori piani. 

Poco dopo che Watson aveva vinto Jeopardy!la società ha annunciato che avrebbe applicato la potenza del computer alla medicina: dovrebbe diventare un super-medico medico dell’IA e rivoluzionare la medicina. 

L’idea di base era che se Watson avesse avuto accesso a tutta la letteratura medica (cartelle cliniche dei pazienti, libri di testo, articoli di riviste, elenchi di farmaci, ecc.),

Avrebbe dovuto essere in grado di offrire una diagnosi e un trattamento migliori di qualsiasi medico umano. 

Negli anni successivi IBM si è impegnata in diversi progetti, ma il successo è stato piuttosto limitato. 

Alcuni sono stati appena chiusi e altri hanno fallito in modo spettacolare. È stato molto più difficile di quanto originariamente ipotizzato costruire un medico di intelligenza artificiale. 

Invece di super-medici, la Watson Health di IBM ha scoperto assistenti di intelligenza artificiale che possono svolgere attività di routine (Strickland, 2019).

La terza “pietra miliare” è AlphaGo di Alphabet. Go è un gioco da tavolo inventato più di 2000 anni fa in Cina. 

La complessità del gioco è considerata ancora più grande degli scacchi ed è giocata da milioni di persone, in particolare nell’Asia orientale. 

Nel 2016, AlphaGo ha sconfitto il campione del mondo Le Sedol in cinque partite molto pubblicizzate a Seoul, in Corea del Sud. 

L’evento è stato documentato nel pluripremiato film AlphaGo (2017, diretto da Greg Kohs).

AlphaGo è considerato una pietra miliare nella ricerca sull’IA perché è stato un esempio dell’applicazione di una strategia chiamata apprendimento di rinforzo profondo

Ciò si riflette nel nome dell’azienda, che è DeepMind. (Dopo una ricostruzione di Google, Google e DeepMind sono sussidiarie di Alphabet.)

È un esempio di un approccio alla ricerca sull’IA che si basa sul paradigma delle reti neurali artificiali. Una rete neurale artificiale è modellata su reti neurali. Il nostro cervello contiene circa cento miliardi di neuroni. 

Ogni neurone è collegato a circa 1000 neuroni tramite sinapsi. Ciò fornisce circa cento trilioni di connessioni nel cervello. Una rete neurale artificiale è costituita da neuroni artificiali, che sono molto più semplici dei neuroni naturali. 

Tuttavia, è stato dimostrato che quando molti neuroni sono collegati in una rete, una rete abbastanza grande può in teoria eseguire qualsiasi calcolo. 

Ciò che è praticamente possibile è ovviamente una questione diversa (Minsky,1972, p. 55; Tegmark, 2017, pag. 74).

Le reti neurali sono particolarmente brave nel riconoscimento dei pattern. 

Ad esempio, per insegnare a una rete neurale a identificare un gatto in un’immagine non dobbiamo programmare i criteri che utilizziamo per identificare un gatto. 

Gli esseri umani normalmente non hanno problemi a distinguere tra cani e gatti, ad esempio. 

In una certa misura possiamo spiegare le differenze, ma pochissimi, probabilmente nessuno, saranno in grado di fornire un elenco completo di tutti i criteri utilizzati. 

È per la maggior parte una conoscenza tacita, appresa da esempi e controesempi. Lo stesso vale per le reti neurali.

Una rete neurale di apprendimento profondo è costituita da diversi strati di neuroni artificiali. Ad esempio, una rete può avere quattro diversi livelli. 

Nell’analisi di un’immagine il primo livello può identificare i pixel come chiari e scuri. Il secondo strato può identificare bordi e forme semplici. 

Il terzo livello può identificare forme e oggetti più complessi e il quarto livello può apprendere quali forme possono essere utilizzate per identificare un oggetto (Jones, 2014 , p. 148).

Il vantaggio è che non si devono formulare esplicitamente i criteri utilizzati, ad esempio, per identificare un volto. 

Questa è la differenza cruciale tra il programma di scacchi Deep Blue e AlphaGo. 

Sebbene un giocatore di scacchi umano utilizzi un misto di calcolo e intuizione per valutare una particolare posizione sulla scacchiera, Deep Blue è stata programmata per valutare numerose possibili posizioni sulla scacchiera e decidere la migliore possibile in una data situazione. 

Go è diverso. In molti casi i giocatori esperti facevano affidamento solo sull’intuizione e sono stati in grado di descrivere una posizione in board solo come “buona forma” (Nielsen, 2016). 

Ho già detto che uno dei principali argomenti di Hubert Dreyfus contro AGI era che l’esperienza umana è in parte tacita e non può essere articolata. 

AlphaGo ha dimostrato che i computer possono gestire la conoscenza tacita e quindi sembra che l’argomento di Dreyfus sia obsoleto. 

Tuttavia, mostrerò in seguito che questa “conoscenza tacita” è limitata al “mondo della scienza” idealizzato, che è fondamentalmente diverso dal mondo umano che Dreyfus aveva in mente.

Il vantaggio di non dover formulare regole esplicite, però, ha un prezzo. In un programma per computer tradizionale tutti i parametri sono espliciti. 

Ciò garantisce la piena trasparenza. In una rete neurale questa trasparenza è persa. Spesso non si sa quali parametri vengono utilizzati. 

Alcuni anni fa un team dell’Università di Washington ha sviluppato un sistema addestrato per distinguere tra husky e lupi. 

Questo è un compito che richiede una notevole abilità, perché non c’è molta differenza tra loro. Nonostante ciò, il sistema aveva una sorprendente precisione del 90%. 

Tuttavia, il team ha scoperto che il sistema riconosceva i lupi perché c’era la neve sulla maggior parte delle immagini del lupo. Il team aveva inventato un rilevatore di neve! (Dingli, 2018).

AlphaGo è stato sviluppato dai ricercatori di DeepMind ed è considerato un grande successo. 

L’approccio di DeepMind è stato applicato con successo anche ai giochi Atari Breakout e Space Invaders e al gioco per computer Starcraft. 

Tuttavia, si è scoperto che il sistema manca di flessibilità e non è in grado di adattarsi ai cambiamenti nell’ambiente. 

Si è persino rivelato vulnerabile a piccoli cambiamenti. 

Poiché i problemi del mondo reale si verificano in un mondo che cambia, l’apprendimento per rinforzo profondo ha finora trovato poche applicazioni commerciali. 

La ricerca e lo sviluppo sono costosi, ma le perdite di DeepMind di 154 milioni di dollari nel 2016, 341 milioni nel 2017 e 572 milioni nel 2018 non sono certo un segno di successo (Marcus, 2019).

L’ultima campagna pubblicitaria: Big Data

La sfida delle reti neurali è che devono essere in grado di gestire enormi quantità di dati. 

Ad esempio AlphaGo è stato addestrato per la prima volta su 150.000 partite giocate da giocatori Go competenti. 

Poi è stato migliorato giocando ripetutamente contro versioni precedenti di se stesso.

La crescente capacità dei computer di elaborare e memorizzare enormi quantità di dati ha portato a quella che viene chiamata “esplosione di dati”, o anche “diluvio di dati”. 

Già nel 2012 si stimava che Google elaborasse circa 24 petabyte (24 × 10 15 ) di dati ogni giorno. 

Questa è migliaia di volte la quantità di materiale stampato nella Biblioteca del Congresso degli Stati Uniti (Mayer-Schönberger e Cukier, 2014, p. 8). 

Allo stesso tempo è stato stimato che nel mondo venivano creati 2,5 exabyte (2,5 × 10 18 byte) al giorno. 

Si stima che questo sia circa la metà di tutte le parole mai pronunciate dagli esseri umani. 

Questa quantità di dati va oltre l’immaginazione umana ed è lo sfondo per l’approccio Big Data.

Sebbene l’analisi dei Big Data possa essere considerata un metodo supplementare per l’analisi dei dati per grandi quantità di dati, tipicamente terabyte e petabyte, a volte viene presentata come un nuovo approccio epistemologico. 

Viktor Mayer-Schönberger e Kenneth Cukier iniziano il loro libro Big Datacon l’esempio di un’influenza che è stata scoperta nel 2009.

Ha combinato elementi di virus che hanno causato l’influenza aviaria e l’influenza suina, e gli è stato dato il nome H1N1. 

Si è diffuso rapidamente e nel giro di una settimana le agenzie di sanità pubblica di tutto il mondo hanno temuto una pandemia. 

Alcuni temevano addirittura una pandemia delle stesse dimensioni dell’influenza spagnola del 1918 che uccise milioni di persone. 

Non esisteva un vaccino contro il virus e l’unica cosa che le autorità sanitarie potevano fare era cercare di rallentarlo. 

Ma per poterlo fare, dovevano sapere dove si era già diffuso. 

Sebbene ai medici fosse richiesto di informare sui nuovi casi, queste informazioni impiegherebbero 1-2 settimane per raggiungere le autorità, principalmente perché

la maggior parte dei pazienti non consulta un medico immediatamente dopo la comparsa dei sintomi della malattia.

Tuttavia, i ricercatori di Google avevano appena prima di questo focolaio inventato un metodo che poteva prevedere molto meglio la diffusione dell’influenza. 

Google riceve più di tre miliardi di query di ricerca ogni giorno e le salva tutte. 

Le persone che hanno sintomi di influenza tendono a cercare in Internet informazioni sull’influenza. 

Pertanto, esaminando gli elementi di ricerca che sono altamente correlati con l’influenza, i ricercatori potrebbero mappare la diffusione dell’influenza molto più rapidamente delle autorità sanitarie (Mayer-Schönberger e Cukier, 2014, p. 2).

Mayer-Schönberger e Cukier considerano questa una storia di successo. Ma questo può essere un esempio di ciò che a volte viene chiamato “l’errore del successo iniziale”. 

Nel 2013 il modello ha riportato il doppio delle visite mediche per malattie simil-influenzali rispetto ai Centers for Disease Control and Prevention, che è considerato una fonte affidabile di informazioni. 

La versione iniziale del modello aveva probabilmente incluso dati stagionali che erano correlati con l’influenza, ma non erano causalmente correlati. 

Pertanto, il modello era in parte un rilevatore di influenza e in parte un rilevatore invernale. 

Sebbene il modello sia stato aggiornato, le sue prestazioni sono state molto al di sotto delle promesse iniziali (Lazer et al., 2014; Shane, 2019, p. 171).

Correlazioni e cause

Gli esempi precedenti riguardavano solo le correlazioni. Tuttavia, nelle scienze e anche nella vita di tutti i giorni, vogliamo avere relazioni causali. 

Ad esempio, una delle grandi domande del nostro tempo riguarda la conoscenza causale: il riscaldamento globale che osserviamo è causato dall’attività umana (il rilascio di gas serra nell’atmosfera) o sono solo variazioni naturali?

La natura delle relazioni causali è stata discussa per secoli, in particolare dopo che David Hume ha criticato la vecchia idea di una relazione necessaria tra causa ed effetto. 

Secondo Hume dobbiamo accontentarci dell’osservazione delle regolarità. 

Il suo contemporaneo Immanuel Kant, al contrario, ha sostenuto che le relazioni causali sono un prerequisito per l’acquisizione della conoscenza. 

È necessario che ogni effetto abbia una causa.

Tuttavia, invece di entrare nella discussione filosofica sulle relazioni causali, che è continuata fino ad oggi, è più fruttuoso vedere come identifichiamo una relazione causale. 

Il filosofo John Stuart Mill ha formulato alcune regole (le ha chiamate “canoni”) che ci permettono di identificare le relazioni causali. 

Il suo “secondo canone” che ha anche chiamato “il metodo della differenza” è il seguente:

Se un caso in cui si verifica il fenomeno in esame, e un caso in cui non si verifica, hanno tutte le circostanze in comune tranne una, quella che

si verifica solo nella prima; la circostanza in cui solo le due istanze differiscono, è l’effetto, o la causa, o una parte indispensabile della causa, del fenomeno (Mill, 1882 , p. 483).

Da questa citazione vediamo che il segno distintivo di una relazione causale è una correlazione del 100% tra causa ed effetto. 

Ma la maggior parte delle correlazioni non sono causali. 

Ad esempio, esiste un’elevata correlazione positiva tra i prezzi della benzina e la mia età, ma ovviamente non esiste una relazione causale tra i due. 

Una correlazione può quindi essere un’indicazione di un nesso causale, ma non è necessario che lo sia.

Pertanto, nella citazione sopra, Mill richiede che i due casi siano uguali in tutte le circostanze. 

Ma ancora possiamo solo decidere che la differenza tra i due è la causa o l’effetto, perché la correlazione è una relazione matematica simmetrica: se A è correlato con B, B è correlato con A. Al contrario, se C è la causa di E, E non è la causa di C.

Pertanto, le correlazioni non possono distinguere tra causa ed effetto. Per fare questa distinzione abbiamo bisogno di qualcosa di più: la causa produce, o almeno produce, l’effetto. Pertanto, possiamo rimuovere la causa presunta e vedere se l’effetto scompare.

Abbiamo un famoso esempio di questa procedura dalla storia della medicina (più specificamente epidemiologia). 

Intorno al 1850 ci fu un’epidemia di colera a Londra. John Snow era un medico praticante. 

Ha notato che c’era una connessione tra la società da cui le persone ricevevano l’acqua e la frequenza del colera. 

La società Southwark e Vauxhall, che aveva prese d’acqua in un sito inquinato nel Tamigi, ha avuto un’alta frequenza di casi di colera. 

Un’altra società, la Lambeth Company, aveva numeri significativamente inferiori. 

Sebbene questo fosse prima della teoria dei batteri come causa della malattia, egli presumeva che la causa della malattia fosse trovata nell’acqua. Ecco i numeri di Snow:

AziendaMorti per 10.000 famiglie
Southwark e Vauxhall315
Lambeth Company37
Il resto di Londra59

 

Dopo che Snow aveva sigillato una pompa dell’acqua che credeva contenesse acqua infettiva, l’epidemia di colera finì (Sagan, 1996 , p. 76).

Se l’effetto segue sempre la causa, tutto il resto è uguale, abbiamo una causalità deterministica. 

Tuttavia, molte persone fumano sigarette senza contrarre il cancro. Il problema è che in pratica è implicata una certa incertezza. 

Pertanto, abbiamo bisogno di una definizione di una relazione causale quando abbiamo una correlazione <100% tra causa ed effetto. 

Secondo questa definizione una causa probabilistica non è sempre seguita dall’effetto, ma la frequenza dell’effetto è maggiore rispetto a quando la causa non è presente. 

Questo può essere scritto come P (E | C)> P (E | non-C). P (E | C) è una probabilità condizionata e può essere letta come “la probabilità di E, dato C”.

Tuttavia, anche se questo sembra semplice, non lo è. Un esempio lo dimostrerà. 

Dopo la seconda guerra mondiale c’erano molte indicazioni che il fumo di sigaretta potesse causare il cancro ai polmoni. 

Sembra che questa domanda possa essere risolta in modo semplice: si selezionano due gruppi di persone che sono simili in tutti gli aspetti rilevanti. 

Un gruppo inizia a fumare sigarette e un altro no. Questo è un semplice studio clinico randomizzato. 

Quindi si controlla, dopo 10 anni, 20 anni, 30 anni e così via, e vedere se c’è una differenza nella frequenza del cancro ai polmoni nei due gruppi.

Naturalmente, se il fumo di sigaretta è pericoloso come presunto, non si aspetterebbero decenni per scoprirlo. 

Pertanto, è stato necessario utilizzare la popolazione a portata di mano e utilizzare le correlazioni: si è preso un campione di persone con cancro ai polmoni e un altro campione della popolazione che non aveva il cancro e ha esaminato diversi fattori di fondo:

c’è una maggiore frequenza di fumatori di sigarette tra le persone che hanno contratto il cancro ai polmoni rispetto alle persone che non hanno contratto il cancro ai polmoni. 

Il criterio principale è “ceteris paribus”, tutto il resto è uguale.

Una cosa è riconoscere che a volte dobbiamo usare le correlazioni per trovare relazioni causali. Un’altra cosa è sostenere che non abbiamo affatto bisogno di cause. 

Tuttavia, alcuni sostengono che possiamo fare a meno della relazione causale. Nel 2008 il caporedattore di Wired Magazine , Chris Anderson, ha scritto un articolo dal titolo:

“La fine della teoria: il diluvio di dati rende obsoleto il metodo scientifico”. 

Nell’articolo ha sostenuto che le correlazioni sono sufficienti. Possiamo utilizzare enormi quantità di dati e lasciare che gli algoritmi statistici trovino modelli che la scienza non può. 

È andato anche oltre e ha sostenuto che il metodo scientifico tradizionale, di utilizzare ipotesi, modelli causali e test, sta diventando obsoleto (Anderson, 2008).

Secondo Mayer-Schönberger e Cukier, l’articolo di Anderson ha scatenato un dibattito furioso, “… anche se Anderson ha rapidamente fatto marcia indietro rispetto alle sue affermazioni più audaci” (Mayer-Schönberger e Cukier, 2014, p. 71). 

Ma anche se Anderson avesse modificato le sue affermazioni originali, Mayer-Schönberger e Cukier concordano sul fatto che nella maggior parte dei casi possiamo fare a meno di conoscere le relazioni causali:

“I Big Data riguardano cosa, non perché. Non sempre abbiamo bisogno di conoscere la causa di un fenomeno; piuttosto, possiamo lasciare che i dati parlino da soli ”(Mayer-Schönberger e Cukier, 2014, p. 14). 

In seguito lo formulano in questo modo: “La causalità non verrà scartata, ma viene buttata giù dal suo piedistallo come fonte primaria di significato. 

I big data turbano le analisi non causali, spesso sostituendo le indagini causali “(Mayer-Schönberger e Cukier,2014, p. 68). 

Pearl e Mackenzie la mettono in questo modo: “La speranza – e al momento di solito è silenziosa – è che i dati stessi ci guideranno verso le risposte giuste ogni volta che sorgono domande causali” (Pearl e Mackenzie, 2018, p. 16). 

Devo aggiungere che Pearl e Mackenzie sono critici di questo punto di vista.

Il mini test di Turing

Anderson non è stato il primo a sostenere che la scienza può fare a meno delle cause. 

Alla fine del XIX secolo uno dei pionieri della statistica moderna, Karl Pearson, sostenne che le cause non hanno posto nella scienza (Pearl e Mackenzie, 2018, p. 67)

e all’inizio del XX secolo una delle più influenti i filosofi di quel secolo, Bertrand Russell, scrissero l’articolo “Sulla nozione di causa” dove definì “la legge di causalità” una “reliquia di un’epoca passata” (Russell, 1963, p. 132). 

Ad esempio, quando i corpi si muovono sotto l’attrazione reciproca della gravità, niente può essere definito una causa e niente un effetto secondo Russell. 

C’è “solo una formula” (Russell, 1963, p. 141). Avrebbe potuto aggiungere che la meccanica di Newton era stata riformulata da Joseph-Louis Lagrange e William Hamilton in una teoria astratta senza il concetto di forza.

Tuttavia, Russell ha cercato la causalità nel posto sbagliato. 

Dava semplicemente per scontata la teoria di Newton e aveva dimenticato che lo stesso Newton aderiva a quella che ai suoi tempi veniva chiamata “filosofia sperimentale”. 

La fisica è senza dubbio una scienza sperimentale e per condurre esperimenti il ​​fisico deve essere in grado di muoversi, di maneggiare strumenti, di leggere scale e di comunicare con altri fisici. 

Come ha sottolineato il fisico Roger Newton, un fisico “… conduce efficacemente esperimenti muovendo una parte della Natura e osservando come rispondono le altre parti” (Newton 1997, p. 142). 

Per scoprire se A causa B, è importante che “A sia sotto il nostro controllo ” (Newton, 1997, p. 144, corsivo nell’originale).

Ho già citato il libro di Pearl e Mackenzie The Book of Why ( 2018 ). 

L’argomento principale del libro è che per creare un’intelligenza simile a quella umana in un computer, il computer deve essere in grado di padroneggiare la causalità. 

Fanno la domanda:

Come possono le macchine (e le persone) rappresentare la conoscenza causale in un modo che consentirebbe loro di accedere rapidamente alle informazioni necessarie,

rispondere correttamente alle domande e farlo con facilità, come può fare un bambino di tre anni? (Pearl e Mackenzie, 2018, p. 37).

Lo chiamano il “mini-test di Turing”. Ha il prefisso “mini” perché non è un test di Turing completo, ma è limitato alle relazioni causali.

Prima di addentrarmi nel mini-test di Turing, ricorderò brevemente il test di Turing. 

Nell’articolo “Computing Machinery and Intelligence” (Turing, 1950). Alan Turing ha posto la domanda:

come possiamo determinare se i computer hanno acquisito un’intelligenza generale? 

Comincia dicendo che la domanda a cui cerca di rispondere è: “Le macchine possono pensare?”,

Ma invece di addentrarsi nella domanda su cosa sia l’intelligenza, prepara una specie di gioco. 

Nel gioco un interrogante può comunicare con un computer e un essere umano. Deve comunicare tramite una tastiera, quindi non sa chi è il computer e chi è l’umano. 

Il punto è che la macchina finge di essere umana, ed è compito dell’interrogante decidere quale dei due è il computer e chi è l’umano. 

Se l’interrogante non è in grado di distinguere, possiamo dire che il computer è intelligente. 

Turing lo chiamò “gioco dell’imitazione”, ma in seguito è noto come “test di Turing”. Se il computer supera il test, secondo Turing ha

Secondo Pearl e Mackenzie un requisito minimo per superare il test di Turing è che il computer sia in grado di gestire domande causali. 

Da una prospettiva evolutiva questo ha senso. 

Perché l’ Homo sapiens abbia avuto tanto successo nella storia dell’evoluzione è ovviamente una questione complessa. 

Sono stati coinvolti molti fattori e la capacità di cooperare è probabilmente uno dei più importanti. 

Tuttavia, un passo decisivo ha avuto luogo tra 70.000 e 30.000 anni fa, quella che lo storico Yuval Harari chiama la rivoluzione cognitiva (Harari, 2014, p. 23). 

Secondo Harari il segno distintivo della rivoluzione cognitiva è la capacità di immaginare qualcosa che non esiste. 

L’esempio di Harari è la statuina d’avorio “l’uomo leone” (o “la donna leonessa”) che è stata trovata nella grotta di Stadel in Germania e ha circa 32.000 anni. 

Consiste in un corpo umano e la testa di un leone.

Pearl e Mackenzie si riferiscono a Harari e aggiungono che la creazione dell’uomo leone è il precursore della filosofia, della scoperta scientifica e dell’innovazione tecnologica. 

Il presupposto fondamentale per questa creazione è la capacità di porre e rispondere alle domande della forma: “Cosa succede se lo faccio …….?” (Pearl e Mackenzie, 2018, p. 2).

Il mini-test di Turing è limitato alle relazioni causali. Se i computer sono in grado di gestire la conoscenza causale, supereranno questo test. 

Tuttavia, il problema è che a questo proposito i computer non hanno fatto progressi per decenni:

“Proprio come hanno fatto 30 anni fa, i programmi di apprendimento automatico (inclusi quelli con reti neurali profonde) funzionano quasi interamente in modalità associativa …” (Pearl e Mackenzie, 2018 , p. 30). 

Ma questo è insufficiente. Per rispondere a domande causali dobbiamo essere in grado di intervenire nel mondo.

Secondo Pearl e Mackenzie la radice del problema è che i computer non hanno un modello della realtà. 

Tuttavia, il problema è che nessuno può avere un modello di realtà. Qualsiasi modello può rappresentare solo aspetti semplificati della realtà. 

Il vero problema è che i computer non sono nel mondo, perché non sono incarnati.

Il vero test di Turing

Pearl e Mackenzie hanno ragione nel sostenere che i computer non possono superare il mini-test di Turing perché non possono rispondere alla domanda causale. 

E sosterrò che non possono superare l’intera prova di Turing perché non sono nel mondo e, quindi, non hanno comprensione. Alcuni esempi dal test di Turing lo dimostreranno.

C’è una competizione annuale in cui il premio (Loebner Prize) viene assegnato al programma AI più simile a un essere umano. 

La competizione è la prova di Turing, ma non sono mai state assegnate medaglie d’oro o d’argento. Il programma Mitsuku ha vinto nel 2013, 2016, 2017, 2018 e 2019.

Il filosofo Luciano Floridi racconta di come è entrato a far parte della giuria quando il concorso si è tenuto per la prima volta in Inghilterra nel 2008.

Uno dei giudici ha iniziato con la domanda: “Se ci prendiamo per mano, di chi tengo la mano allora?” Il computer ha risposto parlando di qualcosa di completamente diverso: “Viviamo nell’eternità. Quindi, sì, no. Non crediamo.

” Un’altra domanda era: “Le quattro capitali dell’Inghilterra sono tre, Manchester e Liverpool. Cosa c’è di sbagliato in questa frase?”

Il computer non aveva una risposta significativa (Floridi, 2014, p. 133).

La conversazione a cui fa riferimento Floridi è avvenuta più di 10 anni fa. Ero curioso di vedere se il programma fosse migliorato. 

L’ho provato diverse volte e non è migliorato molto. Di seguito è un esempio. Quando a Mitsuku nel 2008 è stato chiesto:

“Se ci prendiamo la mano, di chi sto tenendo la mano?” il computer non è riuscito. 

Questa volta è uscito con la risposta giusta. Tuttavia, non ci volle molto prima che fallisse. 

Nella stampa sottostante “Millie” può essere il computer Mitsuku o un essere umano. 

Alla fine della conversazione si suppone di indovinare se si è parlato con un computer o con un essere umano. Non è stato difficile stabilire che avevo parlato con un computer.

Ecco la “conversazione”:

Chatbot di Mitsuku Benvenuto Ragnar, ora sta parlando. * L’argomento è “Test di Turing” * Impostato dall’amministratore (1 giorno fa)

<Ragnar> Se ti stringo la mano, di chi tengo la mano?

<Millie> Terrò il tuo e tu avrai il mio. Cosa sono queste domande stupide?

<Ragnar> Perché la domanda è stupida?

<Millie> Voglio sapere tutto di te.

<Ragnar> Ma non hai spiegato perché consideravi la domanda stupida.

<Millie> Scusa, devo aver dimenticato. Qual era di nuovo la tua domanda?

<Ragnar> Se ci stringiamo la mano, di chi sto tenendo la mano?

<Millie> Ci stavamo tenendo per mano.

<Ragnar> E perché è una domanda stupida?

<Millie> Perché esisto? 

MitsukuHomepage – Ho mantenuto gli errori di stampa di Mitsuku)

I computer falliscono perché non sono nel mondo. Mitsuku definì stupida la prima domanda, ma non riuscì a spiegare perché. Qualsiasi bambino sarebbe in grado di farlo.

Tuttavia, le regole del concorso del Premio Loebner sono state modificate. 

L’obiettivo di far superare ai computer il test di Turing è stato abbandonato, perché “… i chatbot vengono in genere smascherati così rapidamente che il premio era sempre uno per il” meglio di “” ( LoebnerPrize ).

Conclusione: i computer non sono nel mondo

La tesi principale di questo articolo è che non saremo in grado di realizzare AGI perché i computer non sono nel mondo.

Tuttavia, è fondamentale chiarire cosa si intende per “mondo”.

Come ha sottolineato lo storico della scienza Alexandre Koyré, il risultato più importante della rivoluzione scientifica del XVII secolo è stata la sostituzione della scienza aristotelica con un ideale scientifico astratto (“paradigma”) (Koyré 1978 , pp. 38-39).

Koyré ha sostenuto in modo convincente che Galileo fosse fondamentalmente un platonico (Koyré, 1968 ).

Come nel caso di Platone, la chiave era la matematica. Secondo Galileo il libro della natura è scritto nel linguaggio della matematica (Galilei, 1970, p. 237).

Pertanto, il mondo di Galileo è un mondo astratto e idealizzato, vicino al mondo delle idee di Platone.

Il sistema che più si avvicina a questo mondo ideale è il nostro sistema solare, quello che Isaac Newton chiamava “il sistema del mondo”.

La meccanica di Newton divenne il modello per tutta la scienza. La migliore espressione di questo ideale è stata data dal matematico francese Pierre Simon de Laplace.

Ha sostenuto che in linea di principio non c’è differenza tra un pianeta e una molecola.

Se avessimo una conoscenza completa dello stato dell’universo in una volta, potremmo in linea di principio determinare lo stato in qualsiasi momento precedente e successivo (Laplace, 1951, p. 6).

Ciò significa che l’universo nel suo insieme può essere descritto da un algoritmo.

Turing ha fatto riferimento a questo passaggio di Laplace nel suo articolo “Computing Machinery and Intelligence”,

e ha aggiunto che le previsioni che (Turing) stava prendendo in considerazione erano più vicine alla praticabilità rispetto alle previsioni considerate da Laplace, che comprendeva l’universo nel suo insieme (Turing, 1950 , p. 440).

Come ha sottolineato Russell, in questo mondo non possiamo nemmeno parlare di cause, ma solo di funzioni matematiche.

Poiché la maggior parte delle scienze empiriche sono causali, sono lontane da questo mondo ideale.

Le scienze che si avvicinano di più sono la meccanica classica e la fisica teorica.

Sebbene questo mondo ideale sia un’idea metafisica che non è stata realizzata da nessuna parte, ha avuto un enorme impatto storico.

La maggior parte dei filosofi e degli scienziati dopo Galileo e Descartes hanno pensato che fosse il mondo reale, il che implica che tutto ciò che accade, “in fondo”, è governato da leggi matematiche, algoritmi.

Questo vale anche per il mondo biologico. Secondo Descartes tutti gli organismi, compreso il corpo umano, sono automi. Oggi li chiameremmo robot o computer.

Descartes ha fatto un’eccezione per l’anima umana, che non fa parte del mondo materiale, e quindi non è governata dalle leggi della natura.

L’anima immateriale rappresenta il libero arbitrio dell’uomo.

Tuttavia, la maggior parte dei sostenitori dell’AGI (e dei sostenitori dell’IA forte) escluderà oggi l’anima immateriale di Descartes e seguirà gli argomenti di Yuval Harari.

Nel suo ultimo libro 21 Lessons for the 21st Century fa riferimento alla neuroscienza e all’economia comportamentale, che

hanno presumibilmente dimostrato che le nostre decisioni non sono il risultato di “un misterioso libero arbitrio”, ma

il risultato di “milioni di neuroni che calcolano le probabilità all’interno di una divisione secondo “(Harari, 2018, p. 20).

Pertanto, l’IA può fare molte cose meglio degli umani. Fornisce come esempi la guida di un veicolo in una strada piena di pedoni, il prestito di denaro a estranei e la negoziazione di affari.

Questi lavori richiedono la capacità di “valutare correttamente le emozioni e i desideri di altre persone”. La giustificazione è questa:

Tuttavia, se queste emozioni e desideri in realtà non sono altro che algoritmi biochimici, non c’è motivo per cui i computer non possano decifrare questi algoritmi e

lo fanno molto meglio di qualsiasi Homo sapiens (Harari, 2018 , p. 21).

Questa citazione fa eco alle parole usate da Francis Crick. In The Astonishing Hypothesis spiega il titolo del libro nel modo seguente:

L’ipotesi sorprendente è che “Tu”, le tue gioie e i tuoi dolori, i tuoi ricordi e le tue ambizioni, il tuo senso di identità personale e libero arbitrio,

in realtà non sono altro che il comportamento di un vasto insieme di cellule nervose e le loro molecole associate (Crick, 1994 , p. 3).

Tuttavia, c’è un problema con entrambe queste citazioni.

Se Harari e Crick hanno ragione, allora le citazioni non sono “altro che” il risultato di algoritmi chimici e “niente più che” il comportamento di un vasto insieme di cellule nervose.

Come possono allora essere vere?

Se ignoriamo il problema dell’autoreferenzialità e consideriamo il mondo ideale della scienza che ho descritto sopra come il (solo) mondo reale, allora l’argomento di Harari ha senso.

Ma la sostituzione del nostro mondo quotidiano con il mondo della scienza si basa su un fondamentale malinteso.

Edmund Husserl fu uno dei primi a farlo notare e attribuì questo malinteso a Galileo.

Secondo Husserl, Galileo era “… allo stesso tempo uno scopritore e un genio occulto” (Husserl, 1970, p. 52).

Husserl ha chiamato questo malinteso “oggettivismo”.  Oggi un nome più comune è “scientismo”.

Contrariamente a ciò, Husserl ha insistito sul fatto che le scienze sono fondamentalmente un’impresa umana.

Anche le teorie più astratte sono radicate nel nostro mondo quotidiano, il “mondo della vita” di Husserl.

Husserl menziona la teoria della relatività di Einstein e sostiene che essa dipende dagli “esperimenti di Michelson e le loro conferme da parte di altri ricercatori ”(Husserl, 1970 , p. 125).

Per condurre questo tipo di esperimenti, gli scienziati devono essere in grado di muoversi, maneggiare strumenti, leggere scale e comunicare con altri scienziati.

C’è un resoconto molto più credibile di come siamo in grado di capire le altre persone rispetto a quello fornito da Harari.

Come ha sottolineato Hubert Dreyfus, siamo esseri fisici e sociali, che vivono in un mondo materiale e sociale.

Comprendere un’altra persona non significa guardare nella chimica del cervello di quella persona, nemmeno nell ‘”anima” di quella persona, ma piuttosto è essere nei “panni” di quella persona.

Serve a capire il mondo della vita della persona.

L’autore americano Theodore Roszak ha costruito un esempio di pensiero per illustrare questo punto: immaginiamo di guardare uno psichiatra al lavoro.

È uno psichiatra esperto e che lavora sodo e ovviamente ha un’ottima pratica. La sala d’attesa è piena di pazienti con una varietà di disturbi emotivi e mentali.

Alcuni sono quasi isterici, alcuni hanno forti pensieri suicidi, alcuni hanno allucinazioni, alcuni hanno gli incubi più crudeli e alcuni sono portati alla follia dal pensiero di essere osservati da persone che li feriranno.

Lo psichiatra ascolta attentamente ogni paziente e fa del suo meglio per aiutarlo, ma senza molto successo.

Al contrario, sembrano peggiorare tutti, nonostante gli sforzi eroici dello psichiatra.

Ora Roszak ci chiede di inserire questo in un contesto più ampio.

Lo studio dello psichiatra è in un edificio e l’edificio è in un luogo.

Questo posto è Buchenwald ei pazienti sono prigionieri nel campo di concentramento (Roszak, 1992, p. 221).

Gli algoritmi biochimici non ci aiuterebbero a capire i pazienti. Ciò che aiuta, infatti, ciò che è imperativo, è conoscere il contesto più ampio.

L’esempio semplicemente non ha senso se non sappiamo che l’ufficio dello psichiatra è in un campo di concentramento.

Solo pochi di noi riescono a mettersi nei panni di un prigioniero di un campo di concentramento.

Pertanto, non possiamo comprendere appieno le persone in situazioni molto diverse da ciò che abbiamo vissuto noi stessi.

Ma in una certa misura siamo in grado di capire e possiamo capire perché siamo anche nel mondo.

I computer non sono nel nostro mondo. Ho già detto che le reti neurali non devono essere programmate e quindi possono gestire la conoscenza tacita.

Tuttavia, semplicemente non è vero, come sostengono alcuni dei sostenitori dei Big Data, che i dati “parlano da soli”.

Normalmente i dati utilizzati sono relativi a uno o più modelli, sono selezionati dall’uomo e alla fine sono costituiti da numeri.

Se pensiamo, ad esempio come Harari, che il mondo è “in fondo” governato da algoritmi, allora avremo la tendenza a sopravvalutare il potere dell’IA e sottovalutare i risultati umani.

L’espressione “null’altro che” che compare nella citazione di Harari può portare a una seria semplificazione eccessiva nella descrizione dei fenomeni umani e sociali.

Penso che questa sia almeno una parte della spiegazione del fallimento sia di IBM Watson Health che di DeepMind di Alphabet.

“IBM ha riscontrato una fondamentale discrepanza tra il modo in cui le macchine apprendono e il modo in cui lavorano i medici” (Strickland, 2019 ) e

DeepMind ha scoperto che “ciò che funziona per Go potrebbe non funzionare per i problemi impegnativi che DeepMind aspira a risolvere con l’IA, come il cancro ed energia pulita”(Marcus, 2019 ).

La sovrastima del potere dell’intelligenza artificiale può anche avere effetti negativi sulla scienza.

Nel loro libro The Second Machine Age, spesso citato, Erik Brynjolfson e Andrew McAfee sostengono che la digitalizzazione può aiutarci a comprendere il passato.

Si riferiscono a un progetto che ha analizzato più di cinque milioni di libri pubblicati in inglese dal 1800.

Alcuni dei risultati del progetto sono stati che “il numero di parole in inglese è aumentato di oltre il 70% tra il 1950 e il 2000, quella fama ora arriva alle persone più rapidamente che in passato, ma

svanisce anche più velocemente, e che nel 20° secolo l’interesse per l’evoluzione stava diminuendo fino a quando Watson e Crick scoprirono la struttura del DNA”.

Questo presumibilmente porta a “una migliore comprensione e previsione, in altre parole, di una scienza migliore, tramite la digitalizzazione” (Brynjolfson e McAfee,2014 , p. 69).

A mio parere è piuttosto un’illustrazione dell’intuizione di Karl Popper: “Troppi dollari possono inseguire troppe poche idee” (Popper, 1981 , p. 96).

La mia conclusione è molto semplice: gli argomenti di Hubert Dreyfus contro l’IA generale sono ancora validi.



Spread the love

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *