Intelligenza Artificiale - ‘une folie de grandeur’?  
 
 
 



Forse non è ovvio che esista un legame diretto tra l'effetto serra e l'intelligenza artificiale. La scorsa settimana, tuttavia, "Le Monde" ha pubblicato un’analisi sulla crescita esponenziale dell'energia utilizzata per far funzionare i computer del mondo. In passato se ne è parlato in relazione al mining di criptovalute. Recentemente è stato stimato che questo tipo di attività estrattiva utilizza la stessa quantità di energia della Norvegia.

Ma l'articolo chiarisce che il mining di criptovalute è solo un sottoinsieme della domanda totale di energia dei computer, con il suo effetto sulla produzione di gas serra. La promessa è sempre stata che l'uso dei computer avrebbe diminuito l'energia utilizzata in generale: avrebbe fornito efficienze che avrebbero più che compensato l'energia utilizzata dai computer stessi. I reporter di Le Monde citano ricerche che dimostrano che ciò non è vero.

Perciò, nell'ambito dei nostri tentativi di limitare il riscaldamento globale, dobbiamo considerare il modo in cui utilizziamo i nostri computer allo stesso modo in cui decidiamo quale tipo di trasporto utilizzare.

L'intelligenza artificiale è, per sua natura, un grande utilizzatore di potenza informatica. In effetti, solo ora siamo in grado di utilizzare sistemi informatici sufficientemente grandi (e affamati di energia) per eseguire il gran numero di calcoli richiesti dall'intelligenza artificiale. Il che significa, a sua volta, che se vogliamo progredire su questa strada, dovremo essere molto sicuri di non causare a noi stessi problemi ancora più gravi.


Un webinar organizzato dall'Università di Warwick la scorsa settimana ha posto la domanda "AI - chi vincerà la gara?". Tuttavia, non ci ha portato molto lontano verso una risposta. Non sono sicuro che ci sia stato detto dove si sarebbe svolta la gara o chi fossero i concorrenti e di certo non si è parlato di riscaldamento globale.

La ChatGPT, tuttavia, è stata menzionata nonostante la riluttanza di uno dei relatori a parlarne. In realtà, capisco il motivo di tale riluttanza. Come tutti sappiamo, si tratta di un Large Language Model (LLM). Prende come spunto la stringa di parole che gli viene fornita e poi, dal suo immenso database, decide, su base statistica, quale parola dovrebbe normalmente venire dopo e quale dovrebbe seguire e così via. Non è progettato per produrre un testo accurato, ma un testo "plausibile". Non c'è alcuna risoluzione dei problemi al di là della valutazione statistica della parola più probabile che viene dopo.

Non sono quindi convinto che ChatGPT sia ciò che definirei IA. E l'accuratezza dei risultati è tutt'altro che affidabile. In effetti, direi che la migliore descrizione di ChatGPT è GIGO (Garbage in, Garbage out). Poiché il suo output è derivato probabilisticamente da ciò che sembra essere l'internet in generale, i suoi dati di input varieranno da affermazioni accurate di fatti a vere e proprie bugie; sarà soggetto a tutti i pregiudizi a cui siamo soggetti noi.

ChatGPT non ha modo di convalidare tali dati. Pertanto, produrrà necessariamente affermazioni altrettanto affidabili di quelle emesse da The Donald o Boris.

Ovviamente, per caso, ChatGPT potrebbe darci la risposta giusta. Potrebbe anche darci la risposta giusta il più delle volte, ma non sapremo (senza verificare) su quali delle sue affermazioni possiamo effettivamente fare affidamento. Quindi GIGO.


Come si può ottenere la conferma? Per alcune cose non controverse questo può essere possibile, ma quando entriamo nel regno delle opinioni contrastanti, allora tutto ciò che un LLM come ChatGPT può fare è parafrasare (in modo piuttosto banale) le varie opinioni espresse dai protagonisti.

Impiegare esseri umani per dirgli quando sta sbagliando, come stanno facendo alcuni sviluppatori, sembra un lavoro infinito e molto controverso. E limitare il suo accesso a parti di Internet presumibilmente affidabili è un'altra ricetta per una controversia senza fine.

L'intelligenza che sta alla base della scienza e dell'ingegneria (e di molte altre cose) dipende dalla possibilità di vedere collegamenti non fatti in precedenza e di apprezzarne l'importanza - lo "stare sulle spalle dei giganti" di Newton. Questo però non fa parte del suo mandato. Dovremmo quindi setacciare la sua produzione nella speranza di trovare qualcosa di nuovo, magari una nuova teoria sul significato della vita?

Allora, in che senso è intelligente? Qual è il suo significato? Può parafrasare ciò che altri hanno detto. È anche un salutare avvertimento sulla necessità di verificare ciò che ci viene detto. Il che significa che la ChatGPT, in virtù delle sue stesse lacune, è in grado di essere pericolosa: semplicemente a causa dell'accettazione sconsiderata di ciò che ci dice.


L'IA, nella sua forma generalmente accettata, è piuttosto diversa da un LLM, essendo tipicamente un algoritmo di riconoscimento di modelli che opera con un obiettivo strettamente definito. I medici possono diagnosticare il cancro dalle radiografie. L'intelligenza artificiale può fare lo stesso, con un'accuratezza pari o superiore. Tuttavia, non "guardano" la radiografia come facciamo noi, ma esaminano tutti i punti dati che compongono le immagini di apprendimento e cercano di correlare tali dati con i risultati già ottenuti dai medici umani. A volte l'intelligenza artificiale trova collegamenti che noi non vediamo e quindi può essere più accurata dell'esperto umano quando esamina successivamente le radiografie di pazienti in attesa di una diagnosi.

In questo senso, hanno una forma di intelligenza e la capacità di verificare la validità dei loro risultati. Alcune IA possono riprogrammare se stesse per ottenere risultati migliori e più accurati in qualsiasi nicchia in cui operano.


Ma attualmente non disponiamo di IA con quella che gli esperti chiamano "intelligenza generale", ovvero la nostra capacità di risolvere problemi in un'ampia gamma di contesti partendo da principi primi.

La mia domanda per il webinar (senza risposta) sottolineava che la nostra intelligenza generale umana deriva da milioni di anni di pressione evolutiva per trovare soluzioni ai problemi che esistono nel mondo con cui interagiamo. E tutto questo è guidato dalle nostre emozioni e dai nostri obiettivi, compreso il desiderio di sopravvivere.

Affinché l'IA faccia i primi passi nel suo cammino verso l'intelligenza generale, avrebbe bisogno di un insieme di scopi e di pulsioni ("emozioni"): l'intelligenza è del tutto incapace di fare niente ‘d’intelligente’ o raggiungere qualsiasi obiettivo senza avere uno scopo effettivo.

Ma se volessimo che fosse in grado di risolvere i problemi in modo utile per noi, dovremmo sicuramente fornirle una conoscenza del mondo e la possibilità di interagire con esso (cosa alquanto difficile), insieme alla comprensione delle nostre emozioni e pulsioni - una comprensione che nemmeno noi abbiamo, e che in ogni caso varia da persona a persona. E dato che usiamo la nostra limitata conoscenza della psicologia degli altri per manipolarli, l'intelligenza artificiale potrebbe fare lo stesso, anche accidentalmente?


Quindi, cosa ci rimane?

Abbiamo dei LLM che, su scala limitata, possono impegnarsi utilmente in una semplice redazione, come quella ora utilizzata (con successo) da Octopus Energy per aiutare il suo personale a rispondere alle domande dei consumatori. Per il resto, però, è altrettanto probabile che producano bugie che verità.

Con l'IA vediamo qualcosa che occupa una quantità crescente di energia in vasti magazzini, con il conseguente bisogno di ancora più energia per raffreddare i computer. Ciò significa che dobbiamo fare scelte intelligenti su come utilizzarla al meglio.

Potremmo investire le risorse necessarie per percorrere la strada dell'intelligenza generale, ma per ottenerla occorrerebbe una tale velocità di calcolo, l'accesso alla conoscenza e la progettazione (molto) accurata di emozioni basate sul computer, che semplicemente non siamo in grado di farlo in modo adeguato.

Ci sono state richieste di regolamentazione e credo che siano giustificate. Quello che non vogliamo è che i singoli individui o le loro aziende, ricche come Creso, mettano risorse in versioni concorrenti di modelli di intelligenza generale che, nella migliore delle ipotesi, sarebbero solo fatti a metà.

Ciò di cui abbiamo bisogno è l'incoraggiamento di IA specializzate, algoritmi progettati per risolvere i singoli problemi che richiedono la loro particolare abilità, ma sotto l'occhio vigile di regolatori ben dotati.

Quello che non vogliamo è una continuazione dell'attuale wild-west nello sviluppo di algoritmi informatici. Non è forse meglio continuare a utilizzare l'IA come strumento specializzato nel riconoscimento dei modelli, piuttosto che cercare di permetterle di emulare l'intelligenza umana - in una sorta di mania di grandezza?


Paul Buckingham

9 maggio 2023

 
 
 Home     Caro Diario      Chi sono?       Guestbook