L’intelligenza artificiale  
 
 
 



Un documentario riguardo all'intelligenza artificiale in TV l'altro giorno mi ha ricordato che, molti anni fa, eravamo invitati a una festa a casa di alcuni amici a Birmingham. Uno degli altri ospiti era un ricercatore d’intelligenza artificiale a Birmingham. Mi ha spiegato che erano a una impasse. L’IA in linea di principio sarebbe un beneficio molto grande nel futuro, ma era difficile vedere come progredire. Gli ho chiesto se in quel momento l’intelligenza artificiale fosse capace d'imparare. Ha detto di no. Infatti era necessariamente la situazione con la tecnologia attuale e l’approccio preso fino a quel punto. Per illustrare la situazione, si può guardare il ‘trionfo’ di quell’epoca – l'abilità per un computer di giocare a scacchi. Infatti era basata inizialmente su un processo euristico sviluppato da Alan Turing molti anni prima. Ovviamente c'è un numero limitato di mosse possibili per iniziare una partita. Se, però, tenti di prendere in conto tutte le possibilità anche per le prime poche mosse, arrivi a una quantità di variazioni su un tema che non possono essere gestiti senza l’intuizione che viene solo dall’esperienza. Per questa ragione, Alan Turing ha proposto 10 euristici, linee guida, per dare al computer una serie di scorciatoie – per esempio, se puoi catturare il pezzo del tuo avversario (senza metterti in pericolo immediato), fallo. Alla luce dell’esperienza, i ricercatori hanno aggiunto molti altri euristici e, con il miglioramento nella potenza di calcolo disponibile, un computer ha finalmente raggiunto il livello di Grandmaster. Ma era solo un computer tradizionale e dunque senza la flessibilità d’un cervello. Non era il computer che ha imparato dall'esperienza, ma i ricercatori.

Ovviamente, ora, abbiamo lasciato l'impasse, perché gli scienziati hanno preso il passo successivo – la rete neurale. Hanno simulato la struttura neurale del cervello per permettere a un computer d'imparare dai primi principi come funziona qualcosa o l'essenza di una collezione di cose. Dalle informazioni fornite, le reti sono capaci di derivare i fattori che hanno in comune, come noi e i nostri cervelli. Possono poi applicarli alle cose che non facevano parte degli esempi. Ad esempio, date alcune migliaia di foto di molte varietà di cani e gatti, etichettati correttamente, la rete può distinguere cani e gatti in altre foto non etichettate, e questo con un tasso di successo molto alto. Abbiamo visto che possono essere usate per moltissime cose molto utili. Adesso possono identificare le cellule cancerogene, o l’inizio d’una malattia che produce la cecità se non diagnosticata in tempo. Spesso non è ovvio come la rete sia arrivata alla sua conclusione. Quindi, queste reti danno l'impressione di una vera intelligenza, invece del computer tradizionale, incapace di liberarsi dai limiti del suo software prescrittivo. Siamo solo all’inizio di questo approccio nuovo e anche ora vediamo dei risultati notevoli.

Ma visto che la rete è basata sul cervello umano e la sua rete di neuroni, suppongo che ci sia la possibilità che, un giorno, ci sarà un’intelligenza artificiale capace non solo d’identificare ciò che hanno in comune i cani del mondo, ma anche copiare i nostri processi mentali nel senso più ampio. Abbiamo già ricevuto un avvertimento su ciò che potrebbe comportare. “2001, A Space Odyssey”, di Arthur C Clarke, è probabilmente il film più noto per questo. Sappiamo che HAL 9000, il computer, era incapace di riconciliare il suo dovere di presentare le informazioni corrette ai suoi interlocutori, e anche il suo dovere di assicurare il successo della missione, qualcosa che implicava mantenere un segreto. Ora abbiamo Robocop inviato dal futuro per assassinare qualcuno per cambiare il futuro. Non è ovvio, però, che lasciare moltiplicare i neuroni artificiali per creare un cervello artificiale, equivalante al numero delle sinapsi nel nostro cervello, produrrebbe qualcosa che funzionerebbe come un cervello umano. Come ho detto in altri saggi, la capacità di pensare razionalmente in sé non ci dà niente. Il signor Spock, una figura senza emozioni, non sarebbe stato in grado anche di decidere d’agire - non avrebbe avuto nessun scopo nella sua vita. Avere un obiettivo nella vita è ciò che incita all’azione. Per darci la gamma di obiettivi che abbiamo, ci sono le nostre emozioni, i nostri impulsi. E questi sono il prodotto, ultimamente, di almeno quattro miliardi di anni di evoluzione.


Quindi, quali sono gli impulsi che dobbiamo dare alle nostre reti neurali super-intelligenti? Dovrebbero avere la gamma intera di emozioni umane? I proponenti dell’alternativa alla selezione naturale, quelli che credono nel ‘Disegno Intelligente’ hanno sempre la stessa difficoltà – sembra che il designer non fosse molto intelligente. Abbiamo una psicologia piena di problemi. Non vediamo le cose in modo neutro, ma attraverso il filtro delle nostre credenze precedenti. Dovremmo dare al computer la stessa cecità? Che cosa dovremmo fare con l’emozione molto forte di odio? Presumibilmente per qualcuno sotto attacco era un vantaggio di odiare il suo aggressore. Produrrebbe un contrattacco più violento. Ma come tradurre qualcosa di utile in una società tribale per una intelligenza artificiale? E poi c'è la tristezza. È utile per noi, nel senso che ci incoraggia a evitare circostanze simili nel futuro. È un po’ difficile però vedere come potrebbe essere utile per un computer. Visto che la tristezza arriva principalmente dopo una perdita, non sarebbe molto utile, a meno che non ci fosse un ambiente sociale per i nostri HAL. In effetti, è il nostro ambiente sociale che spiega probabilmente la stragrande maggioranza delle nostre emozioni e dunque la nostra complessità psicologica. Un tale ambiente ci permette di raggiungere insieme ciò che non possiamo fare da soli. È un lavoro in progresso, ma ci dà una maggiore possibilità di nutrirci, difenderci contro un mondo pericoloso e, vista la necessità di riproduzione sessuale per il cambiamento attraverso l’evoluzione, di procreare. Un computer non ha bisogno di nutrirsi, difendersi o procreare (in nessun modo) a meno che non decidiamo di creare esseri indipendenti da noi. E le emozioni presumono anche l’autoconsapevolezza. Non possiamo spiegare come questa funziona in noi stessi, o essere sicuri della sua esistenza (o no) in altri animali. Sarebbe un po’ presuntuoso, quindi, immaginare che siamo pronti o capaci di darla alla nostra creazione.

Vediamo molti progressi verso i computer con un’abilità super-umana per il riconoscimento specializzato dei fattori chiave nei dati. Siamo però molto lontani da un computer che può rivaleggiare con un essere umano per l'intelligenza polivalente. Ogni umano assorbe una vasta quantità d’informazione come un bambino e un ragazzo (e talvolta quando è adulto) che, a turno, gli permette di esercitare quest’intelligenza generale. Dare ad una rete artificiale grandissima la stessa informazione, per permetterle di capire il mondo dai primi principi, non sarebbe un lavoro minore. Anche la scelta di tali informazioni sarebbe soggetta al pregiudizio del selezionatore. E darle la stessa informazione, ma con un’interpretazione, sarebbe imporre ancora di più i nostri pregiudizi, e non approfittare di quella che potrebbe essere una nuova comprensione del mondo. E andare oltre e darle le emozioni che usiamo o il sottoinsieme che, a nostro avviso, sia appropriato per un'intelligenza che non capiamo realmente, sarebbe l’apice della follia. Quando, se mai, capiamo davvero noi stessi, allora, forse, sarà il momento d’iniziare a dare delle emozioni animali ai computer. HAL può aspettare.


Paul Buckingham

10 settembre 2018

 
 
 Home     Caro Diario      Chi sono?       Guestbook