La pianificazione, come per il comunismo è il fine dell’economia politica, per l’intelligenza artificiale come scienza è il fine per raggiungere la fatidica AGI, l’intelligenza artificiale generale.
Studiando le ultime novità in termini di intelligenza artificiale, mi sono imbattuto in una analogia che è molto più di una semplice analogia. È una convergenza tra temi che va ad aggiungersi alle molte altre affinità elettive tra il comunismo e l’intelligenza artificiale.
L’intelligenza artificiale come scienza si pone, tra tanti obiettivi, il fine di raggiungere una intelligenza artificiale generale, ovvero una intelligenza che sia capace di svolgere tutti i compiti che un essere umano sviluppato è capace di svolgere. In questo senso l’uomo è un ente intelligente in maniera generale, nel senso in cui i vari tipi di intelligenze artificiali, che sono algoritmi come reti neurali, non riescono a svolgere compiti diversi da quelli per cui sono state addestrate, e non possono che svolgere i compiti per cui sono state addestrate, sebbene in maniera eccellente e superiore a qualsiasi uomo. Per esempio, una rete neurale addestrata per giocare a scacchi, non potrà mai produrre proposizioni in linguaggio naturale, non perché non sia una potentissima macchina, in grado di distruggere il migliore maestro di scacchi umano, ma perché se gioca a scacchi gioca solo a scacchi, e basta. La sua intelligenza non è “generale”, ma solo specifica, specializzata in quel compito. L’uomo, se impara, può giocare, male o bene, a scacchi, ma non per questo non ha la capacità di parlare in linguaggio naturale. La generalità dell’intelligenza umana sta in questo.
Nel caso delle IA più potenti e miracolose che oggi sono sulla bocca di tutti, esempio su tutti, ChatGpt, nonostante mostrino livelli di intelligenza, reattività, creatività e persino simpatia mai pensati e pensabili prima, non sono nient’altro che intelligenze veramente specifiche che fanno una e una sola cosa: predire la prossima parola più probabile.
I LLM, i large language model, i modelli di linguaggio, i ChatGpt, funzionano così: dato un input, che può essere una parola o una frase, sulla base di tutto il materiale che hanno imparato, che è un database di miliardi di testi, producono un output che è la serie di parole più probabili secondo il modo in cui gli esseri umani hanno messo in fila tali testi. Detto in altro modo, i modelli di linguaggio analizzano le probabilità con cui le parole si susseguono alle altre nei testi di fattura umana che sono stati messi nel suo addestramento, e rispondono alle parole che l’utente le scrive nel prompt con le parole che sono più probabili.
Quindi, le imponenti e apparentemente magiche LLM non fanno altro che calcolare la probabilità della prossima parola, parola per parola, e nient’altro. Una LLM non prevede ciò che risponderà alla fine dell’output, prevede solo la prossima parola, o meglio token. Vede, quindi, solo a un palmo dal suo naso, e niente più. E per di più ogni risultato che dà è diverso, è stocastico, non dà mai la stessa risposta alla stessa domanda perché alla base delle sue scelte c’è sempre un calcolo di probabilità. Infatti una LLM non è capace di svolgere calcoli matematici che hanno una e una sola soluzione. Ecco allora il limite delle LLM che ad oggi ci sembrano quanto di più vicino a una intelligenza umana: non sono in grado di pianificare una risposta. Non sono in grado di progettare la soluzione di un problema complesso, perché non sono in grado di analizzare un task complesso in sottotask più semplici. Il task di una LLM è uno, e uno soltanto: trovare la prossima parola più probabile.
In questo senso il prossimo grande passo per la scienza dell’IA, per sviluppare qualcosa che si avvicini a una intelligenza generale, è dotarla di una capacità di pianificazione della produzione dei propri output. E… non è questo forse l’obiettivo che si pone il comunismo? Pianificare la produzione degli output sociali, per ridurre gli sprechi, diminuire le crisi, migliorare la previsione del futuro e aumentare la ricchezza generale della società. Si tratta di pura e semplice ottimizzazione, razionalizzazione della produzione. Fare di più lavorando meno e meglio.
Il mercato è stato definito come un dispositivo di calcolo automatico che produce soluzioni in maniera spontanea ai suoi problemi di produzione, allocazione delle risorse, definizione dei prezzi e dei salari ecc ecc. In questo senso, anche le reti neurali sono dispositivi di calcolo automatico di pesi che producono soluzioni a problemi determinati. Ma, come le reti neurali di tipo deep, questi calcoli avvengono nel segreto di una black box dove ciò che vediamo sono soltanto gli output che sì, magicamente funzionano, ma non sappiamo perché.
Il mercato produce i suoi prezzi, ma l’economia, secondo i liberisti, non è altro che lasciar fare questa enorme black box, e raccogliere i dati che sputa fuori e cercare di allinearli alla meglio, analizzandoli con funzioni, previsioni, curve ecc ecc.
Il limite di tutto questo è che non produce una vera conoscenza del fenomeno economico. O meglio, produce una conoscenza che non è pratica: non c’è possibilità di intervento né di aggiustamento, e questa cecità che vede soltanto al suo output immediato non permette di comprendere o prevenire l’improvviso scoppio di crisi, né fornisce un utilizzo ottimale o migliore delle risorse. Perché, tornando all’esempio delle LLM, il limite di queste è squisitamente computazionale. La potenza di calcolo che usano per produrre il token successivo è fissa e immutabile: è come un colpo di pistola. Non è capace di utilizzare la potenza di calcolo che gli potrebbe essere fornita, per esempio… dal rifletterci due minuti. Aspetta un attimo che ci penso… Questa è una risposta che un uomo razionale potrebbe dare se vuole risolvere un problema che non riuscirebbe a risolvere come sparando un colpo di pistola. E per fare questo ci vuole pianificazione, organizzazione degli step, degli anelli della catena di ragionamento, anche solo per un piccolo ragionamento di pochi secondi. Ma la potenza istantanea con cui risponde una rete neurale potrebbe essere moltiplicata potenzialmente all’infinito se avesse la capacità di dilazionare nel tempo il suo processo inferenziale.
Ecco perché proseguo questa analogia tra mercato e reti neurali: perché sono uno spreco del potenziale energetico che potrebbero fruttare se solo ci fosse una pianificazione razionale.
Questa è la frontiera condivisa dell’intelligenza artificiale così come del comunismo: la pianificazione.