Intelligenza Artificiale - ‘une folie de grandeur’? | ||
Forse
non è ovvio che esista un legame diretto tra
l'effetto serra e l'intelligenza artificiale.
La scorsa settimana, tuttavia, "Le Monde" ha
pubblicato un’analisi sulla crescita
esponenziale dell'energia utilizzata per far
funzionare i computer del mondo. In passato se
ne è parlato in relazione al mining di
criptovalute. Recentemente è stato stimato che
questo tipo di attività estrattiva utilizza la
stessa quantità di energia della Norvegia.
Ma l'articolo chiarisce che il mining di criptovalute è solo un sottoinsieme della domanda totale di energia dei computer, con il suo effetto sulla produzione di gas serra. La promessa è sempre stata che l'uso dei computer avrebbe diminuito l'energia utilizzata in generale: avrebbe fornito efficienze che avrebbero più che compensato l'energia utilizzata dai computer stessi. I reporter di Le Monde citano ricerche che dimostrano che ciò non è vero. Perciò, nell'ambito dei nostri tentativi di limitare il riscaldamento globale, dobbiamo considerare il modo in cui utilizziamo i nostri computer allo stesso modo in cui decidiamo quale tipo di trasporto utilizzare. L'intelligenza artificiale è, per sua natura, un grande utilizzatore di potenza informatica. In effetti, solo ora siamo in grado di utilizzare sistemi informatici sufficientemente grandi (e affamati di energia) per eseguire il gran numero di calcoli richiesti dall'intelligenza artificiale. Il che significa, a sua volta, che se vogliamo progredire su questa strada, dovremo essere molto sicuri di non causare a noi stessi problemi ancora più gravi. Un
webinar organizzato dall'Università di Warwick
la scorsa settimana ha posto la domanda "AI -
chi vincerà la gara?". Tuttavia, non ci ha
portato molto lontano verso una risposta. Non
sono sicuro che ci sia stato detto dove si
sarebbe svolta la gara o chi fossero i
concorrenti e di certo non si è parlato di
riscaldamento globale.
La ChatGPT, tuttavia, è stata menzionata nonostante la riluttanza di uno dei relatori a parlarne. In realtà, capisco il motivo di tale riluttanza. Come tutti sappiamo, si tratta di un Large Language Model (LLM). Prende come spunto la stringa di parole che gli viene fornita e poi, dal suo immenso database, decide, su base statistica, quale parola dovrebbe normalmente venire dopo e quale dovrebbe seguire e così via. Non è progettato per produrre un testo accurato, ma un testo "plausibile". Non c'è alcuna risoluzione dei problemi al di là della valutazione statistica della parola più probabile che viene dopo. Non sono quindi convinto che ChatGPT sia ciò che definirei IA. E l'accuratezza dei risultati è tutt'altro che affidabile. In effetti, direi che la migliore descrizione di ChatGPT è GIGO (Garbage in, Garbage out). Poiché il suo output è derivato probabilisticamente da ciò che sembra essere l'internet in generale, i suoi dati di input varieranno da affermazioni accurate di fatti a vere e proprie bugie; sarà soggetto a tutti i pregiudizi a cui siamo soggetti noi. ChatGPT non ha modo di convalidare tali dati. Pertanto, produrrà necessariamente affermazioni altrettanto affidabili di quelle emesse da The Donald o Boris. Ovviamente, per caso, ChatGPT potrebbe darci la risposta giusta. Potrebbe anche darci la risposta giusta il più delle volte, ma non sapremo (senza verificare) su quali delle sue affermazioni possiamo effettivamente fare affidamento. Quindi GIGO. Come
si può ottenere la conferma? Per alcune cose
non controverse questo può essere possibile,
ma quando entriamo nel regno delle opinioni
contrastanti, allora tutto ciò che un LLM come
ChatGPT può fare è parafrasare (in modo
piuttosto banale) le varie opinioni espresse
dai protagonisti.
Impiegare esseri umani per dirgli quando sta sbagliando, come stanno facendo alcuni sviluppatori, sembra un lavoro infinito e molto controverso. E limitare il suo accesso a parti di Internet presumibilmente affidabili è un'altra ricetta per una controversia senza fine. L'intelligenza che sta alla base della scienza e dell'ingegneria (e di molte altre cose) dipende dalla possibilità di vedere collegamenti non fatti in precedenza e di apprezzarne l'importanza - lo "stare sulle spalle dei giganti" di Newton. Questo però non fa parte del suo mandato. Dovremmo quindi setacciare la sua produzione nella speranza di trovare qualcosa di nuovo, magari una nuova teoria sul significato della vita? Allora, in che senso è intelligente? Qual è il suo significato? Può parafrasare ciò che altri hanno detto. È anche un salutare avvertimento sulla necessità di verificare ciò che ci viene detto. Il che significa che la ChatGPT, in virtù delle sue stesse lacune, è in grado di essere pericolosa: semplicemente a causa dell'accettazione sconsiderata di ciò che ci dice. L'IA,
nella sua forma generalmente accettata, è
piuttosto diversa da un LLM, essendo
tipicamente un algoritmo di riconoscimento di
modelli che opera con un obiettivo
strettamente definito. I medici possono
diagnosticare il cancro dalle radiografie.
L'intelligenza artificiale può fare lo stesso,
con un'accuratezza pari o superiore. Tuttavia,
non "guardano" la radiografia come facciamo
noi, ma esaminano tutti i punti dati che
compongono le immagini di apprendimento e
cercano di correlare tali dati con i risultati
già ottenuti dai medici umani. A volte
l'intelligenza artificiale trova collegamenti
che noi non vediamo e quindi può essere più
accurata dell'esperto umano quando esamina
successivamente le radiografie di pazienti in
attesa di una diagnosi.
In questo senso, hanno una forma di intelligenza e la capacità di verificare la validità dei loro risultati. Alcune IA possono riprogrammare se stesse per ottenere risultati migliori e più accurati in qualsiasi nicchia in cui operano. Ma
attualmente non disponiamo di IA con quella
che gli esperti chiamano "intelligenza
generale", ovvero la nostra capacità di
risolvere problemi in un'ampia gamma di
contesti partendo da principi primi.
La mia domanda per il webinar (senza risposta) sottolineava che la nostra intelligenza generale umana deriva da milioni di anni di pressione evolutiva per trovare soluzioni ai problemi che esistono nel mondo con cui interagiamo. E tutto questo è guidato dalle nostre emozioni e dai nostri obiettivi, compreso il desiderio di sopravvivere. Affinché l'IA faccia i primi passi nel suo cammino verso l'intelligenza generale, avrebbe bisogno di un insieme di scopi e di pulsioni ("emozioni"): l'intelligenza è del tutto incapace di fare niente ‘d’intelligente’ o raggiungere qualsiasi obiettivo senza avere uno scopo effettivo. Ma se volessimo che fosse in grado di risolvere i problemi in modo utile per noi, dovremmo sicuramente fornirle una conoscenza del mondo e la possibilità di interagire con esso (cosa alquanto difficile), insieme alla comprensione delle nostre emozioni e pulsioni - una comprensione che nemmeno noi abbiamo, e che in ogni caso varia da persona a persona. E dato che usiamo la nostra limitata conoscenza della psicologia degli altri per manipolarli, l'intelligenza artificiale potrebbe fare lo stesso, anche accidentalmente? Quindi,
cosa ci rimane?
Abbiamo dei LLM che, su scala limitata, possono impegnarsi utilmente in una semplice redazione, come quella ora utilizzata (con successo) da Octopus Energy per aiutare il suo personale a rispondere alle domande dei consumatori. Per il resto, però, è altrettanto probabile che producano bugie che verità. Con l'IA vediamo qualcosa che occupa una quantità crescente di energia in vasti magazzini, con il conseguente bisogno di ancora più energia per raffreddare i computer. Ciò significa che dobbiamo fare scelte intelligenti su come utilizzarla al meglio. Potremmo investire le risorse necessarie per percorrere la strada dell'intelligenza generale, ma per ottenerla occorrerebbe una tale velocità di calcolo, l'accesso alla conoscenza e la progettazione (molto) accurata di emozioni basate sul computer, che semplicemente non siamo in grado di farlo in modo adeguato. Ci sono state richieste di regolamentazione e credo che siano giustificate. Quello che non vogliamo è che i singoli individui o le loro aziende, ricche come Creso, mettano risorse in versioni concorrenti di modelli di intelligenza generale che, nella migliore delle ipotesi, sarebbero solo fatti a metà. Ciò di cui abbiamo bisogno è l'incoraggiamento di IA specializzate, algoritmi progettati per risolvere i singoli problemi che richiedono la loro particolare abilità, ma sotto l'occhio vigile di regolatori ben dotati. Quello che non vogliamo è una continuazione dell'attuale wild-west nello sviluppo di algoritmi informatici. Non è forse meglio continuare a utilizzare l'IA come strumento specializzato nel riconoscimento dei modelli, piuttosto che cercare di permetterle di emulare l'intelligenza umana - in una sorta di mania di grandezza? Paul Buckingham 9 maggio 2023
|
||
|