Nel corso del XX secolo nessuno avrebbe pensato di definire un camionista come un lavoratore cognitivo. Matteo Pasquinelli, nel libro Nell’occhio dell’algoritmo. Storia e critica dell’intelligenza artificiale, sostiene che con l’avvento dell’intelligenza artificiale applicata ai veicoli a guida autonoma questa percezione è radicalmente cambiata perché l’automazione ha rivelato che la componente più preziosa del lavoro non è mai stata solo quella manuale, ci sono anche le dimensioni cognitiva e cooperativa. L’IA ha paradossalmente elevato i camionisti al “pantheon dell’intellighenzia”, dimostrando che attività ritenute manuali e non qualificate richiedono in realtà una grande quantità di intelligenza, un aspetto spesso trascurato sia dall’organizzazione del lavoro che dalla teoria critica. La negazione di questa intelligenza del lavoro manuale è oggi un sintomo della crescita eccessiva della sfera digitale e della smaterializzazione delle attività umane che hanno contribuito a creare un’aura di mistero attorno all’IA.
Contro l’idea dominante che definisce l’IA come la ricerca per “risolvere l’intelligenza” imitando la logica della mente o le reti neurali del cervello, Pasquinelli sostiene che il codice interno dell’IA imita l’intelligenza del lavoro e delle relazioni sociali. Si tratta di un progetto che cattura la conoscenza espressa attraverso comportamenti individuali e collettivi e la codifica in modelli algoritmici per automatizzare compiti come il riconoscimento di immagini, la manipolazione di oggetti, la traduzione e il processo decisionale. Prendendo l’esempio del veicolo a guida autonoma, afferma che guidare richiede elevate capacità cognitive, problem-solving rapido basato su abitudine e training non del tutto consci ed è un’attività sociale e cooperativa che segue regole codificate e un codice culturale tacito diverso in ogni località. Se questa abilità può essere tradotta in un modello algoritmico è perché guidare è un’attività logica e in ultima analisi tutto il lavoro è logica.
Il rapporto tra lavoro, regole e automazione è il problema centrale del libro. La storica della scienza Lorraine Daston ha mostrato come nel tardo Settecento, per produrre le tavole logaritmiche necessarie alla Francia rivoluzionaria, il matematico Gaspard de Prony applicò il metodo industriale della divisione del lavoro, organizzando un algoritmo sociale gerarchico di tre gruppi di impiegati. Poco dopo, nell’Inghilterra industriale, Charles Babbage adottò la divisione del lavoro come principio interno del suo Difference Engine, progettando il primo prototipo del computer moderno e comprendendo che la divisione del lavoro era sia un principio per progettare macchine che per calcolare i costi di produzione.
Nell’età industriale la supervisione della divisione del lavoro era compito dell'occhio del padrone che disciplinava i lavoratori disegnando linee di assemblaggio e turni di lavoro forzato. Come illustrato da Michel Foucault, l’imposizione di tecniche disciplinari basate sulla segmentazione di tempo, spazio e relazioni preparò il terreno per lo sfruttamento capitalistico. Lo storico Sigfried Giedion, in Mechanisation Takes Command, dettagliò questo processo: la meccanizzazione inizia con il concetto di movimento, sostituisce l’artigianato e culmina nella catena di montaggio. Questa mentalità meccanica raggiunse il suo apice con il Taylorismo, un sistema di gestione scientifica che cercava di ottimizzare i minimi movimenti dei lavoratori. Harry Braverman notò che Taylor comprese il principio di Babbage meglio di chiunque altro. Il sistema taylorista acquisì “occhi cinematografici”, filmando i lavoratori per misurare e ottimizzare la produttività, realizzando ciò che Jon Beller ha chiamato il modo di produzione cinematografico.
Il libro segue questi studi analitici del processo lavorativo, fino all’ascesa dell’IA, mostrando come l'intelligenza dell’innovazione tecnologica abbia spesso origine dall’imitazione di diagrammi astratti della prassi umana e dei comportamenti collettivi. L’invenzione di macchinari come telai e torni deve molto all’imitazione del diagramma collettivo del lavoro che cattura i modelli dei movimenti delle mani e il know-how dei lavoratori trasformandoli in artefatti meccanici. Seguendo questa teoria dell’invenzione, condivisa da Smith, Babbage e Marx, Pasquinelli sostiene che anche le macchine intelligenti più sofisticate siano emerse imitando la divisione collettiva del lavoro. Questo processo viene chiamato teoria dell’automazione per poi essere generalizzato come teoria dell’intelligenza incentrata sul lavoro. Già per Marx il padrone era diventato un potere integrato fatto di scienza, forze naturali e lavoro sociale incorporato nel sistema di macchinari. Dopo l’espansione della divisione del lavoro registrata da Émile Durkheim, l’occhio del padrone si è evoluto in tecnologie di controllo come la statistica. Dalla fine del Novecento la gestione del lavoro ha trasformato l’intera società in una fabbrica digitale, prendendo la forma del software dei motori di ricerca, delle piattaforme della gig economy e degli algoritmi dell’IA.
L’obiettivo di Pasquinelli è illuminare la genealogia sociale dell’IA e le classi sociali da cui è stata perseguita come visione del mondo. Diversi gruppi sociali hanno plasmato le tecnologie dell’informazione. Si potrebbe dire che i primi paradigmi del pensiero meccanico siano stati sviluppati “sulle spalle” di mercanti, soldati, burocrati, industriali e lavoratori. In tutte queste genealogie l’automazione del lavoro è stata il fattore chiave ma spesso trascurata da una storiografia che privilegia il punto di vista dall’alto. Un approccio comune lega deterministicamente l’ascesa dell’IA ai finanziamenti militari statunitensi della Guerra Fredda anche se l’influenza degli apparati statali è iniziata prima, almeno dal censimento statunitense del 1890 che introdusse la macchina Hollerith per elaborare le schede perforate. Da più di cento anni è stata l’accumulazione di big data sulla società a spingere lo sviluppo delle tecnologie dell’informazione. Questa lettura, tuttavia, è ancora una storia dall’alto che descrive i soggetti controllati come passivi, trascurando il ruolo della conoscenza collettiva e del lavoro come fonte primaria dell’intelligenza che l’IA estrae e commodifica. Per questo Pasquinelli mira a riscoprire la centralità dell’intelligenza sociale che plasma la stessa progettazione degli algoritmi dell’IA dall’interno.
1. Dalle origini all’età industriale
Pasquinelli costruisce un’archeologia dell’algoritmo a partire dal rituale vedico dell’Agnicayana in cui la ricostruzione del corpo smembrato del dio Prajapati attraverso la disposizione geometrica di mille mattoni in cinque strati, ciascuno con identica area e forma ma configurazione diversa, orientati verso est per il volo simbolico verso il sole, rivela una forma di conoscenza procedurale profondamente materiale e sociale. Descritto negli Shulba Sutra, composti intorno all’800 a.C. ma radicati in una tradizione orale ben più antica, questo rituale trasmetteva tecniche costruttive come la pianificazione di edifici e il loro ampliamento a proporzioni invariate, mostrando come la matematica nascesse da esigenze pratiche e da gerarchie di casta che separavano il lavoro manuale dei costruttori dalle regole possedute solo da una ristretta cerchia di maestri. L’Agnicayana viene interpretato come un algoritmo primordiale perché i suoi mantra ricorsivi e la distribuzione vincolata dei mattoni realizzano un procedimento finito di istruzioni passo-passo che produce un risultato determinato indipendentemente dal contesto, incarnando quella che il matematico Paolo Zellini ha identificato come una sofisticata tecnica di approssimazione incrementale, la stessa che ritroviamo nel calcolo infinitesimale di Leibniz e Newton e, oggi, negli algoritmi di correzione degli errori delle reti neurali artificiali. La matematica vedica, del resto, aveva già familiarità con numeri infinitamente grandi e con irrazionali come la radice quadrata di due che richiedono necessariamente procedure approssimative. Usando l’archeologo Peter Damerow, sostiene che il concetto stesso di numero è il risultato di un processo storico di apprendimento fatto di astrazioni riflessive: i modelli mentali si costruiscono interiorizzando azioni materiali sugli oggetti mentre gli strumenti proiettano possibilità che eccedono il sapere investito nella loro invenzione. Lo dimostra l’etimologia stessa del termine algoritmo che deriva dal latino algorismus, a sua volta latinizzazione del nome del matematico persiano al-Khwarizmi, e che in Europa segnò il passaggio dal sistema additivo romano a quello posizionale indo-arabo, un cambiamento tecnico imposto dall’accelerazione degli scambi commerciali e dalla necessità di semplificare la contabilità mercantile. Ogni sistema di numerazione, in questa prospettiva, è già un algoritmo. Scrivere un numero significa applicare una procedura tacita che assegna valore alla posizione delle cifre. La storia successiva dell’algoritmo è la storia della sua progressiva meccanizzazione: dagli strumenti manuali di Pascal e Leibniz al metodo delle differenze di Gaspard de Prony implementato nella Difference Engine di Charles Babbage, fino al primo programma per computer di Ada Lovelace per il calcolo dei numeri di Bernoulli. Il salto decisivo avviene con l’adozione del sistema binario che realizza l’unificazione tra algoritmo di numerazione e algoritmo di calcolo nella stessa architettura elettrica dei logic gate, rendendo possibile l’automazione su larga scala. Pasquinelli individua un’ulteriore svolta nel machine learning contemporaneo, dove gli algoritmi modificano i propri parametri in funzione dei dati stessi, recuperando così, in una forma nuova e tecnologicamente mediata, quell’adattività e quell’origine sociale e materiale che caratterizzavano già le antiche pratiche algoritmiche nate dall’imitazione di configurazioni di spazio, tempo, lavoro e relazioni sociali.
L’origine storica della computazione automatica risiede nell’organizzazione del lavoro tipica della prima rivoluzione industriale inglese. Agli inizi dell’Ottocento il termine computer designava una figura umana, un impiegato d’ufficio, spesso una donna, impiegato in calcoli ripetitivi per istituzioni pubbliche come il governo, la Marina o l’Astronomical Society di Londra. Questa attività costituiva già una forma di rete di calcolo distribuita, con molti computer che lavoravano a domicilio, ricevendo e restituendo dati per posta, in quella che Pasquinelli definisce la prima occorrenza storica di una rete di computazione configurata come lavoro domestico.
È proprio dalla volontà di razionalizzare questo processo, lento e soggetto a errori, che Charles Babbage sviluppò l’idea di un motore a vapore in grado di automatizzare il lavoro ripetitivo dei computer umani. Il suo Difference Engine, presentato nel 1823 e celebrato come antesignano del computer moderno, nacque come risposta a un problema di organizzazione del lavoro e di produzione industriale su scala. L’obiettivo era la produzione di tabelle logaritmiche prive di errori, essenziali per la navigazione marittima e per il mantenimento dell’egemonia commerciale britannica. Il progetto di Babbage trasforma il calcolo da attività artigianale in un’industria meccanizzata, utilizzando il termine engine per evocare l’idea di potenza, continuità operativa e crescita economica illimitata.
Pasquinelli ricorda che Babbage intendeva meccanizzare una forma specifica di lavoro mentale, ovvero il calcolo manuale. Questa distinzione è fondamentale per comprendere il successivo sviluppo dell’informatica. Persino il modello della macchina di Turing sarà pensato come un dattilografo umano che legge e scrive simboli su un nastro. Una genealogia diversa, come quella delle reti neurali artificiali, avrebbe invece mirato ad automatizzare il lavoro di percezione e supervisione, non il calcolo.
Il Difference Engine si discosta profondamente dall’idea contemporanea di computer. Innanzitutto non distingueva tra hardware e software: l’algoritmo (il metodo delle differenze del matematico francese Gaspard de Prony) era fisicamente incorporato nei suoi ingranaggi e cilindri rotanti. In secondo luogo non era programmabile. Il primo esempio di macchina industriale con un vero e proprio input separato di informazioni fu il telaio Jacquard che utilizzava schede perforate e avrebbe influenzato profondamente la storia dell’informatica, dalla memorizzazione dei dati fino al primo esempio di immagine digitale (un ritratto dello stesso Jacquard realizzato nel 1839 con 24.000 schede). Babbage stesso adottò le schede perforate per il suo successivo, mai realizzato, Analytical Engine.
Il contributo teorico fondamentale di Babbage, forse più rilevante della sua stessa macchina, risiede nei suoi due principi di analisi del lavoro, esposti nel manuale Sull’economia delle macchine e delle manifatture del 1832. Il primo è la teoria del lavoro della macchina. Una nuova macchina emerge dall’imitazione e dalla meccanizzazione di una precedente divisione del lavoro già sperimentata e consolidata. Il secondo, noto come principio di Babbage, afferma che la divisione del lavoro in compiti elementari consente di calcolare e acquistare con precisione la quantità esatta di lavoro necessaria per ciascuna fase, evitando di pagare competenze elevate per operazioni semplici. La combinazione di questi due principi definisce la macchina industriale come strumento di produzione e come vero e proprio strumento di misura e controllo del lavoro, una sorta di teoria del valore meccanica finalizzata all’estrazione ottimale del plusvalore.
Pasquinelli ridimensiona la figura del “genio solitario” di Babbage. Storici come Simon Schaffer hanno mostrato come la sua intelligenza macchinica fosse profondamente radicata negli spazi di intelligenza dell’epoca (le officine meccaniche e i contesti produttivi) piuttosto che nelle accademie. Babbage sviluppò una vera e propria semiologia della macchina per rappresentare dinamicamente gli stati delle macchine, un precursore dei moderni linguaggi di programmazione e dei diagrammi di flusso che nasceva dall’esigenza di ottimizzare e razionalizzare il processo di progettazione come già si faceva con il lavoro in fabbrica.
Durante l’età industriale le macchine, oltre a sostituire alcuni lavoratori, li riorganizzarono gerarchicamente, separando lavoro qualificato e non qualificato, e frantumando l’unità tra lavoro manuale e lavoro mentale. I lavoratori reagirono a questa frammentazione con ribellioni, distruzione di macchinari e richieste di istruzione pubblica. Da questo conflitto nacque la cosiddetta questione delle macchine, un dibattito pubblico oggi in gran parte dimenticato, che rappresentò la prima grande messa in discussione sociale dell’automazione.
Secondo la storica Maxine Berg la macchina divenne il terreno immediato del rapporto conflittuale tra capitale e lavoro, definendo l’organizzazione del lavoro e l’equilibrio di potere nella distribuzione dei redditi. La questione delle macchine fu principalmente una reazione operaia, una richiesta di controllo e proprietà collettiva sul progresso tecnologico. I lavoratori non chiedevano solo di compensare la disoccupazione tecnologica, volevano ridiscutere gli usi e le proprietà della tecnologia, distribuire equamente i guadagni dell’innovazione e persino orientare il progresso tecnico verso obiettivi sociali come l’alleggerimento del lavoro femminile e la liberazione dalle mansioni domestiche. David Ricardo cristallizzò il dibattito nel 1821, aggiungendo un capitolo Sulle macchine ai suoi Principi di economia politica, con una tesi pessimistica: le macchine abbassano i prezzi ma non giovano ai lavoratori perché la disoccupazione tecnologica aumenta la competizione tra salariati e riduce i salari. Il dibattito coinvolse ogni strato della società e investì anche la cultura popolare, la propaganda, la letteratura, la poesia e persino l’intrattenimento pubblico, con automi danzanti e macchine esposte nelle piazze come attrazioni turistiche.
Un aspetto centrale, spesso trascurato, è la dimensione epistemica della rivoluzione industriale. Accanto alla ben nota dimensione energetica e termodinamica, esiste un intero campo di produzione di conoscenza intorno alle macchine: conoscenza sulle macchine, conoscenza incorporata nelle macchine, conoscenza prodotta e proiettata dalle macchine. Questa dimensione è meno studiata e appare secondaria nella letteratura dell’economia politica, inclusa quella marxista. Fu proprio intorno a questa dimensione che si svilupparono iniziative come gli Istituti di meccanica di Londra, la Society for the Diffusion of Useful Knowledge e la fondazione della London University. Una parte significativa del paesaggio accademico britannico affonda le sue radici proprio in questa accelerazione epistemica indotta dalla rivoluzione industriale.
Pasquinelli introduce poi due concetti teorici fondamentali. Il primo è la teoria del lavoro-conoscenza, sviluppata da socialisti ricardiani come William Thompson e Thomas Hodgskin già nei primi decenni dell’Ottocento. Thompson, in suo saggio del 1824, sosteneva che ogni lavoro include sempre la quantità di conoscenza necessaria per dirigerlo: senza conoscenza, il lavoro sarebbe mera forza bruta. La conoscenza, a differenza dei beni materiali scarsi, è illimitata e si moltiplica quanto più viene diffusa. Thompson denunciava anche l’ambivalenza della conoscenza strumentale. La fabbrica veniva definita come un apparato che manteneva i lavoratori ignoranti rispetto ai meccanismi che regolano la macchina mentre la conoscenza veniva trasformata in uno strumento staccato dal lavoro e contrapposto ad esso. Hodgskin, da parte sua, criticava Adam Smith per non aver trattato adeguatamente l’influenza della conoscenza sulla potenza produttiva e rovesciava l’argomentazione malthusiana: è la crescita della popolazione a creare necessità e quindi a stimolare l’invenzione e il progresso della conoscenza. Sosteneva che le leggi dell’economia della conoscenza sono completamente diverse da quelle dell’accumulazione capitalistica e che non dovrebbero esistere gerarchie intellettuali né divisione tra testa e mano poiché quasi ogni individuo pratica sia lavoro mentale che manuale.
Il secondo concetto è la demonizzazione del lavoro mentale, un processo paradossale che Pasquinelli ricostruisce in termini di tattica politica. La celebrazione dell’artigianato qualificato negli Istituti di meccanica era funzionale a creare un’aristocrazia operaia separata dal lavoro comune, disciplinando la forza lavoro e imponendo gerarchie. Di fronte a questa strategia il movimento operaio scelse per ragioni tattiche di presentare un fronte unito, dichiarando che tutto il lavoro è manuale e nascondendo al proprio interno le differenze del lavoro mentale. Questa neutralizzazione, però, portò a un’involontaria adozione della stessa segmentazione borghese. Il risultato fu che il lavoro mentale venne ostracizzato dal dibattito sulla questione della macchina e l’interpretazione del lavoro si ridusse a pura performance energetica (persino il concetto marxiano di Arbeitskraft derivava originariamente dalla termodinamica). Marx stesso giocò un ruolo nell’organizzare questa amnesia politica. Pur conoscendo Thompson e Hodgskin, nel Capitale rimosse ogni riferimento al lavoro mentale e al general intellect, sostituendoli con la figura del lavoratore complessivo (Gesamtarbeiter) e con la capacità inventiva della divisione del lavoro. La separazione tra testa e mano, in realtà, è molto più antica dell’età industriale. Risale almeno all’opposizione aristotelica tra episteme e techne e forse anche oltre, alla necessità delle prime civiltà di contare popolazioni e amministrare risorse. Storici come Edgar Zilsel hanno documentato che persino eroi della Rivoluzione Scientifica come Galileo imparavano più nei laboratori clandestini che nelle università. La proposta storiografica della mindful hand cerca proprio di ricomporre l’unità tra ingegno manuale e sperimentazione scientifica, senza cadere in una romantica celebrazione dell’artigianato.
Il terzo concetto è la teoria della scienza-macchina che rovescia il senso comune secondo cui la scienza applicata genera tecnologia. Sono spesso le nuove macchine a promuovere scoperte scientifiche e cambi di paradigma: la macchina a vapore non è un’applicazione della termodinamica ma è stata la termodinamica a nascere per migliorare la macchina a vapore. La scienza è vincolata dagli strumenti materiali a sua disposizione che definiscono l’ambito delle possibilità oggettive. La percezione della natura è spesso mediata dalle macchine. Ancora oggi la teoria standard del tempo si basa sulla freccia irreversibile dell’entropia, concettualizzata per la prima volta nelle camere della macchina a vapore prima di essere canonizzata nel secondo principio della termodinamica. Boris Hessen nel 1931, con la sua lettura materialistica dei Principia di Newton, mostrò come le imprese newtoniane fossero debitrici delle tecniche di trasporto per canali, delle pompe idrauliche, dei paranchi dell’industria mineraria e dei nuovi archibugi. Più di recente, Peter Galison ha collegato la differenza tra fisica newtoniana e fisica einsteiniana alla diversa percezione tecnica del tempo e della sincronizzazione nelle rispettive epoche.
Da tutto ciò ne consegue una definizione estesa di intelligenza della macchina che assume almeno quattro significati: la conoscenza umana della macchina, la conoscenza incorporata nel suo design, i compiti umani da essa automatizzati e la nuova conoscenza del mondo resa possibile dal suo utilizzo. Nell’età dell’IA questa complessa eredità della questione della macchina torna con forza. L’IA è la continuazione dello stesso processo di meccanizzazione e capitalizzazione della conoscenza collettiva e non è difficile immaginarla come un avatar contemporaneo del lavoratore complessivo marxiano.
Il movimento del March of Intellect nacque in Inghilterra durante la Rivoluzione Industriale come campagna per l’istruzione pubblica delle classi inferiori, al fine di rimediare ai mali sociali. L’espressione fu coniata nel 1824 da Robert Owen, che in una lettera al Times notava i rapidi e estesi progressi della mente umana nella conoscenza della natura umana e in generale. La campagna suscitò tuttavia una risposta reazionaria. Lo stesso Times iniziò a deridere le ambizioni della classe operaia con titoli sarcastici come The March of Intellect in Africa. Nel 1828 la rivista London Magazine sostenne il movimento a beneficio dell’intelletto generale del paese, ritenendo che l’istruzione di massa avrebbe permesso di comprendere la necessità di riformare un sistema legislativo decadente. Quando Marx utilizzò l’espressione general intellect nel celebre Frammento sulle macchine dei Grundrisse del 1858 stava proprio riecheggiando questo clima politico ma interpretando il potere della conoscenza sociale generale come strumento per indebolire e sovvertire le catene del capitalismo, non quelle delle vecchie istituzioni.
Il primo incontro di Marx con l’idea di general intellect avvenne però nell’opera di William Thompson del 1824, An Inquiry into the Principles of the Distribution of Wealth, dove si sosteneva che la conoscenza, una volta alienata dalle macchine, potesse diventare una forza ostile ai lavoratori. Thompson offrì probabilmente il primo resoconto sistematico del lavoro mentale, seguito poi da Thomas Hodgskin e da Charles Babbage. Marx non adottò il concetto di lavoro mentale, sia perché la conoscenza e l’istruzione sono per loro natura convocabili solo per battaglie universalistiche e non per lotte di parte a favore del proletariato, sia perché, riprendendo la critica a Hegel, sosteneva che la vita non è determinata dalla coscienza ma viceversa e quindi il lavoro non è determinato dalla conoscenza ma la conoscenza dal lavoro. Nel Capitale Marx sostituì intenzionalmente il lavoratore mentale con il lavoratore complessivo.
Nel Frammento sulle macchine Marx ipotizzò che l’accumulazione del general intellect, in particolare della conoscenza scientifica e tecnica incorporata nelle macchine, avrebbe reso il lavoro secondario rispetto all’accumulazione capitalistica, causando una crisi della teoria del valore-lavoro e facendo saltare le fondamenta del capitalismo. Questo frammento rimase inedito fino al XX secolo (pubblicato a Mosca nel 1939 e a Berlino nel 1953) e divenne canonico grazie all’edizione di Raniero Panzieri sui Quaderni Rossi nel 1964. Dopo il 1989 il post-operaismo italiano lo riscoprì come critica della transizione al post-fordismo e della società della conoscenza.
Per Marx la macchina è un regolatore per disciplinare il lavoro e un calcolatore per misurare il plusvalore relativo. Contrariamente a una lettura tecnodeterminista, Marx sostenne che lo sviluppo della divisione del lavoro e delle macchine utensili richiede una fonte di energia più potente che poi fu trovata nel vapore.
Descrisse poi il processo di alienazione della conoscenza. Quando la macchina subentra al lavoro, gli strumenti e con essi l’abilità e la conoscenza del lavoratore passano alla macchina. La scienza viene separata dal lavoro come agente produttivo e si presenta al lavoratore come una potenza estranea e dominante. Marx citò Thompson, secondo cui "l’uomo di scienza e l’operaio produttivo sono divisi da un gran tratto" e la scienza "gli è quasi dovunque messa contro".
Nel Frammento Marx considerò la conoscenza come forza produttiva diretta, come forze sociali della produzione e come pratica sociale, e riconobbe nel general intellect un agente trasformativo della società. Il Frammento, però, contiene una tensione irrisolta tra conoscenza oggettivata nelle macchine (come sviluppo del capitale fisso) e conoscenza espressa dalla produzione sociale (come sviluppo dell’individuo sociale). Per valutare l’accumulazione della conoscenza Marx si rifecé a Hodgskin, secondo cui il capitale fisso (macchinari, infrastrutture, conoscenza collettiva e scienza) è accumulazione di lavoro passato, conoscenza e abilità, e rappresenta la forma più adeguata del capitale. La tesi più visionaria dei Grundrisse è che il capitale stesso è una contraddizione in movimento che cerca di ridurre il tempo di lavoro al minimo mentre lo pone come unica misura e fonte della ricchezza. Quando le forze produttive create dalla scienza e dalla cooperazione sociale diventano troppo grandi, le condizioni materiali per far saltare in aria il capitalismo sono mature.
Nel Capitale, conclude Pasquinelli, Marx rispose alla questione delle macchine sostituendo al general intellect il lavoratore complessivo (Gesamtarbeiter) che diviene il vero inventore politico della tecnologia e una personificazione della meccanizzazione. Il lavoratore complessivo viene descritto come un meccanismo sociale, un organismo lavorativo collettivo e in esso l’individuo stesso viene diviso e trasformato in un motore automatico di un’operazione di dettaglio. Marx abbandonò l’ipotesi visionaria del Frammento perché comprese come la conoscenza aiutasse nuovi apparati a migliorare l’estrazione del plusvalore. Applicando il principio di Babbage elaborò la teoria del plusvalore relativo, riconoscendo la capacità del capitalismo di mantenere lo sfruttamento in equilibrio aumentando la produttività del lavoro attraverso la riprogettazione della divisione del lavoro e delle macchine. La macchina diventa così un motore di calcolo, uno strumento per la misurazione del plusvalore relativo. Per Marx, quindi, la macchina è una relazione sociale mentre l’intelligenza emerge dall’assemblaggio astratto dei gesti semplici e delle micro-decisioni dei lavoratori, anche quelli inconsci. La distinzione tra lavoro manuale e mentale svanisce di fronte al capitale perché dal punto di vista astratto del capitale tutto il lavoro salariato produce plusvalore ed è lavoro astratto, misurato però da uno strumento specifico: l’orologio. Nuove macchine proiettano nuove metriche di spazio, tempo e relazioni sociali e la sfida aperta rimane quella di una metrica della conoscenza che Marx non risolse ma che andava esplorata nell’articolazione del progetto della macchina e nel principio di Babbage.
Il filosofo francese Gilbert Simondon, con notevole acutezza, ha sfidato la comprensione comune dell’era industriale sostenendo che la modalità industriale emerge quando la fonte di informazione e la fonte di energia si separano: l’essere umano diventa la sola fonte di informazione mentre la natura è chiamata a fornire l’energia. Secondo Simondon la macchina si differenzia dall’attrezzo perché funge da relè con due punti di ingresso distinti, quello dell’energia e quello dell’informazione, laddove l’attrezzo tradizionale (come il martello dell’artigiano preindustriale) manteneva invece uniti energia e informazione in un unico gesto che dava forma e movimento simultaneamente. Questa unità premoderna di mano e mente venne sistematicamente distrutta dalla divisione industriale del lavoro e Simondon dimostrò come l’automazione fosse capace di spostare il lavoro e lo bifurca in lignaggi e gerarchie opposte di abilità manuali e mentali. Scrivendo alla fine degli anni ‘50 nella Francia del boom economico, Simondon leggeva l’era industriale sotto l’influenza della cibernetica mentre lo studioso svedese Andreas Malm ha più di recente inquadrato l’era industriale dall’angolazione dell’economia dell’energia e del cambiamento climatico. Malm ha sostenuto che l’ascesa del modo di produzione industriale fu spinta da una forma di energia stabile e versatile, trovata nel carbone dopo l’uso dell’energia idraulica, ma il carbone contribuì all’accelerazione del capitalismo industriale perché le sue proprietà fisiche corrispondevano perfettamente alle nuove dimensioni astratte del capitale. Le macchine a vapore sostituirono i mulini ad acqua perché fornivano un flusso di potenza più stabile delle piogge e permettevano alle fabbriche di spostarsi vicino alle aree urbane dove risiedeva la classe operaia. Malm ha così registrato la logica energetica per la lenta emergenza del capitalismo fossile dall’età manifatturiera, notando che ci vollero circa quarant’anni perché il motore a vapore fosse adottato al posto del mulino ad acqua e che fu proprio grazie al motore a vapore che il carbone divenne un componente chiave del capitalismo industriale poiché questa innovazione tecnologica poté trasformare il suo potenziale energetico in un movimento stabile e continuo, in particolare in un moto rotatorio. L’ascesa del motore a vapore e l’adozione del carbone non furono comunque driver autonomi dello sviluppo industriale, risposero a dinamiche economiche più profonde come un nuovo regime di sfruttamento del lavoro che richiedeva l’uso dell’orologio per misurare accuratamente il tempo di lavoro e una precisa divisione dello spazio lavorativo. Estendendo l’analisi di Malm all’intuizione di Simondon, si può aggiungere che le proprietà astratte dell’informazione emersero insieme a queste astrazioni spazio-temporali e alle nuove caratteristiche dell’energia fossile, cioè le sue catene di carbonio omogenee che rendevano il carbone più facile da quantificare e computare rispetto a fonti tradizionali come l’acqua e la forza animale. Ciò che va riconosciuto negli ingranaggi della macchina industriale è quindi la biforcazione e al contempo l’accoppiamento di energia astratta (moto standardizzato) e forma astratta (informazione), entrambe intese come operazioni quantificabili e mezzi di produzione. Se il lavoro umano fu separato in energia astratta e forme astratte, ciò avvenne anche grazie a due nuove tecnologie di controllo: i dispositivi di feedback come il regolatore a sfere di James Watt del 1788, che manteneva costante l’output di un motore regolando in tempo reale l’input di carburante, e i controller come la scheda perforata del telaio Jacquard del 1801 che immagazzinava istruzioni per i motivi tessili. Questi due dispositivi possono essere considerati retrospettivamente come i primi dispositivi cibernetici. Il regolatore di Watt fu il primo esempio di sistema di feedback informativo esatto mentre la scheda perforata Jacquard sarebbe stata adottata da IBM come formato di archiviazione standard quasi invariato per tutto il Novecento.
Pasquinelli ricorda poi che fu Hegel a vedere il lavoro come un’astrazione che forma macchine e soggettività, definendo per primo il lavoro astratto nelle sue lezioni di Jena del 1805-06, dove scrisse che il lavoro umano diventa interamente meccanico e che più diventa astratto, più l’uomo stesso è mera attività astratta, così da potersi ritirare dal lavoro e sostituire la propria attività con quella della natura esterna, trovando in essa il puro movimento che è la relazione delle forme astratte di spazio e tempo, cioè la macchina. Successivamente, nella Filosofia del diritto del 1820, Hegel mantenne questa definizione sostenendo che l’astrazione della produzione rende il lavoro sempre più meccanico, così che l’essere umano può infine farsi da parte e lasciare che una macchina prenda il suo posto. Marx successivamente riprese l’interpretazione di Hegel e dichiarò che l’astrazione sociale in questione era anche il lavoro salariato, cioè il dominio del capitale sul lavoro. Il capitalismo trasformò il lavoro umano in un’astrazione, ovvero la forma merce, mentre sotto il capitalismo industriale il lavoro fu quantificato in unità di tempo astratte, reso un equivalente generale in tutta la società e scambiato come una merce come qualsiasi altra, anzi come la sostanza stessa di tutte le merci. Marx vide l’astrazione del lavoro principalmente come una funzione del capitale, come rapporto salariale.
2. L’era dell’informazione nell’analisi di Pasquinelli
Lo storico James Beniger sostiene che tra la fine dell’Ottocento e la metà del Novecento le tecnologie dell’informazione emersero a causa del boom economico dei paesi occidentali e della necessità di governare la produzione e distribuzione industriale. Fu l’accelerazione economica a promuovere la trasformazione dei media analogici in informazione numerica. La genesi dei paradigmi della cibernetica e della teoria dell’informazione rispose a una crisi di controllo del capitalismo occidentale che doveva gestire un surplus di merci e nuove grandi infrastrutture di distribuzione. Beniger definì questo sviluppo come rivoluzione del controllo. Questo processo storico può essere inquadrato anche dal punto di vista dell’organizzazione del lavoro e le letture marxiste dell’era post-industriale hanno sottolineato il ruolo dei conflitti di lavoro e delle lotte sociali, piuttosto che del surplus economico, nel promuovere lo sviluppo tecnologico, contestando la neutralità politica della nozione tecnica di informazione. Romano Alquati, nella sua inchiesta sulle condizioni di lavoro alla fabbrica di computer Olivetti nei primi anni ‘60, scoprì che l’apparato cibernetico della fabbrica era prima di tutto un’estensione della sua burocrazia interna che monitorava i lavoratori sulla linea di montaggio mediante informazione di controllo. Alquati rovesciò la prospettiva top-down implicita nell’idea di informazione di controllo e coniò il termine informazione valorizzante per descrivere il flusso di informazioni generato dai lavoratori che, risalendo a monte, alimenta i circuiti della fabbrica e dà forma ai prodotti finali. Secondo Alquati l’informazione è essenziale per la forza lavoro ed è ciò che il lavoratore, attraverso il capitale costante, trasmette ai mezzi di produzione sulla base di valutazioni, misurazioni ed elaborazioni per operare sull’oggetto di lavoro tutte quelle modificazioni della sua forma che gli danno il valore d’uso richiesto. Alquati notò che la parte più importante del lavoro è costituita dalla serie di atti creativi, misurazioni e decisioni che i lavoratori devono costantemente eseguire davanti alla macchina e sulla linea di montaggio e chiamò informazione proprio tutte le innovative microdecisioni che i lavoratori prendono lungo il processo produttivo. Secondo Alquati è specificamente la dimensione numerica della cibernetica che può codificare la conoscenza dei lavoratori in bit digitali e, conseguentemente, trasformare i bit digitali in numeri per la pianificazione economica.
A partire dal 2012, con la vittoria di AlexNet alla competizione ImageNet, le reti neurali artificiali profonde (deep learning) hanno ridefinito il panorama dell’intelligenza artificiale, imponendosi come la tecnica più efficace nel riconoscimento delle immagini e, più in generale, nella rivoluzione del machine learning. Questo successo ha riacceso un’aspirazione antica, già presente agli albori dei computer digitali: quella di trovare la chiave dell’IA nella logica profonda delle strutture cerebrali. Pasquinelli propone una lettura radicalmente diversa, sostenendo che le reti neurali non vadano intese come semplici imitazioni della biologia (biomorfismo) bensì come tecniche di auto-organizzazione dell’informazione, la cui vera genealogia è sociale prima ancora che fisiologica.
L’origine di questa idea risale al 1943, quando Warren McCulloch e Walter Pitts pubblicarono un articolo in cui formalizzavano il cervello umano come una rete nervosa capace di eseguire operazioni logiche binarie (AND, OR, NOT), basandosi sul comportamento “tutto o niente” dei neuroni biologici. La loro intuizione riguardava l’uso di una logica di soglia per impersonare i connettivi booleani. McCulloch e Pitts proiettarono sulla biologia le tecnologie di comunicazione del loro tempo arrivando a concepire i neuroni come relè telegrafici. Questa analogia affondava le radici nell’Ottocento, quando inventori come Samuel Morse e fisiologi come Hermann von Helmholtz avevano già paragonato il sistema nervoso alle reti elettriche.
Pasquinelli sostiene che il principio di auto-organizzazione, divenuto centrale nella cibernetica del Novecento, sia un riflesso delle trasformazioni sociali e produttive dell’epoca. La filosofia politica moderna aveva usato l’auto-organizzazione per pensare il contratto sociale e la libertà individuale ma a metà Novecento questo concetto migrò in ambiti extra-sociali (teorie vitaliste, ipotesi Gaia, termodinamica) e infine tecnologici. Fu la cibernetica, un ramo dell’ingegneria elettromeccanica, a rilanciare il dibattito scientifico sull’auto-organizzazione, ribaltando la prospettiva: invece di costruire macchine che imitano gli organismi, i cibernetici finirono per vedere gli organismi come macchine (tecnomorfismo), specchio dell’ordine sociale e tecnologico a loro contemporaneo.
Un esempio paradigmatico è Ross Ashby che negli anni ‘40 dimostrò come una macchina “strettamente determinata” (un computer) potesse mostrare auto-organizzazione, costruendo l'omeostato, un dispositivo il cui scopo era semplicemente diventare quiescente, cambiando stato solo se disturbato dall’esterno. Ashby stesso prefigurò che il termine organizzazione sarebbe diventato meno frequente nel linguaggio mentre le sue operazioni sarebbero diventate di importanza quotidiana nei computer e nei meccanismi cerebrali. Parallelamente Donald Hebb nel 1949 formulò la celebre regola (neuroni che si attivano insieme si connettono insieme) che divenne sia il primo principio codificato della neuroplasticità sia la prima regola di auto-organizzazione per gli algoritmi di machine learning.
Anche i pionieri del computer digitale esplorarono l’auto-organizzazione. John von Neumann, lavorando per l’esercito statunitense, progettò il costruttore universale in grado di riprodursi e ripararsi da solo, ispirandosi ai processi di riproduzione degli organismi viventi e gettando le basi degli automi cellulari. Konrad Zuse, inventore del primo computer elettrico programmabile, estese questa logica all’intero universo, proponendo una fisica computazionale in cui lo spazio stesso è composto da unità discrete che si auto-organizzano come automi cellulari. Alan Turing, nel suo saggio sulla base chimica della morfogenesi, modellò i pattern della natura come forme di computazione auto-organizzante, usando uno dei primi mainframe.
Un aspetto spesso trascurato nella questione è il ruolo della committenza militare nella ricerca sull’auto-organizzazione. Alla fine degli anni ‘50 l’Ufficio della Marina statunitense per la Ricerca Navale sponsorizzò una serie di simposi sull’auto-organizzazione che documentano l’ampia ricezione delle reti neurali artificiali ben oltre la più nota conferenza di Dartmouth del 1956. Nel simposio del 1959 Marshall Yovits sostenne che problemi come la lettura automatica di caratteri, il riconoscimento vocale e la traduzione automatica richiedevano macchine con capacità di apprendimento. Belmont Farley, che durante la guerra aveva lavorato su radar per contrastare i missili V-1, aprì il convegno con una rassegna di sistemi visivi in grado di auto-organizzarsi per classificare input ambientali. Gordon Pask propose addirittura una storia naturale delle reti, includendovi paludi, colonie di microrganismi, gruppi di ricerca e esseri umani.
Fu in questo contesto che Frank Rosenblatt sviluppò il percettrone, la prima rete neurale statistica, che presentò come un sistema capace di arrivare alla propria organizzazione spontaneamente. Il percettrone era un tentativo di implementare la regola hebbiana e la neuroplasticità in un dispositivo concreto, una retina di fotocellule collegata a strati di neuroni artificiali che apprendevano a riconoscere pattern come lettere e triangoli. Rosenblatt sottolineò che il sistema era in grado di “astrarre” le trasformazioni più comuni in un dato ambiente e di generalizzare a nuovi stimoli, imparando persino “a imparare”. Pasquinelli interpreta il percettrone come l’inizio di una svolta topologica nella computazione: dall’informazione lineare (tipica dei computer numerici e dell’IA simbolica) si passava all’informazione auto-organizzante, in cui la disposizione spaziale dei dati veniva elaborata in parallelo e dal basso verso l’alto.
La cibernetica era un metodo analogico e speculativo che proiettava sulla natura le forme tecniche e sociali del proprio tempo. L’affermazione di McCulloch secondo cui “ogni robot suggerisce un’ipotesi meccanicistica sull’uomo” viene rovesciata in ogni forma di automazione del lavoro dice qualcosa sui modelli cognitivi e sull’organizzazione sociale di un’epoca. Il successo delle reti neurali sull’IA simbolica dipende dalla loro maggiore efficienza nel catturare la logica della cooperazione sociale perché sono algoritmi induttivi e statistici, non deduttivi.
La controversia sulla percezione della Gestalt, che infiammò il dibattito scientifico negli anni ‘40 durante le conferenze Macy, rappresenta un nodo cruciale per comprendere l'origine delle moderne reti neurali artificiali e dell'intelligenza artificiale. I cibernetici come Warren McCulloch e Walter Pitts sostenevano che l'intero campo percettivo potesse essere calcolato da macchine, come semplici relè elettrici, riducendo l'atto della percezione a una semplice classificazione binaria. La scuola della Gestalt, con esponenti come Max Wertheimer, Kurt Koffka e Wolfgang Köhler, fuggiti dalla Germania nazista e rifugiatisi negli Stati Uniti, riteneva che una macchina non avrebbe mai potuto emulare la complessa facoltà sintetica della mente umana. Fu in seguito a questo confronto che l'espressione percezione Gestalt si trasformò gradualmente, nei rapporti militari e nelle pubblicazioni accademiche, nel più familiare termine riconoscimento di pattern, dando slancio agli esperimenti con le reti neurali artificiali. La teoria della Gestalt, notoriamente, affermava che si percepisce il tutto prima delle sue parti e si formalizzava nei principi di Prägnanz (prossimità, somiglianza, continuità, connessione), riassunti nel celebre motto "il tutto non è la semplice somma delle sue parti". I cibernetici, al contrario, proposero una drastica semplificazione sostenendo che il riconoscimento di un'immagine fosse equivalente a un ragionamento logico e potesse essere risolto da un algoritmo che calcola la relazione degli elementi all'interno del campo visivo, producendo un semplice output binario che risponde alla domanda se l'immagine appartenga o meno a una data classe.
Il culmine di questa disputa fu raggiunto al simposio Hixon su meccanismi cerebrali e comportamento tenutosi al California Institute of Technology di Pasadena nel 1948, al quale parteciparono McCulloch, von Neumann, Köhler, insieme a psicologi come Heinrich Klüver e Karl Lashley. Fu un evento spartiacque, lo stesso John McCarthy ammise che il suo celebre termine intelligenza artificiale, coniato per la conferenza di Dartmouth nel 1956, fu ispirato dalla sua partecipazione a questo simposio come studente laureato in matematica. In quell'occasione Köhler presentò misurazioni fisiche dell'attività cerebrale durante la percezione visiva, basandosi sul modello dei campi di forza derivato dalla fisica, e attaccò l'approccio riduzionista di McCulloch, sostenendo che gli impulsi nervosi, visti da un neurofisiologo, non assomigliano a proposizioni logiche ma semplicemente a impulsi. Köhler propose la teoria dell'isomorfismo, secondo cui esiste una continuità strutturale tra lo stimolo percettivo, i suoi correlati neurali e le facoltà superiori della cognizione. Norbert Wiener, il più virulento anti-Gestaltista, definì l'olismo un fantasma pseudoscientifico. Alla fine nessuna delle due fazioni vinse la controversia. Come notò lo storico della scienza Steve Heims, entrambe erano romantiche, Köhler nel suo olismo e McCulloch nel suo meccanicismo. Fu John von Neumann a proporre una sintesi tra le teorie della Gestalt e la logica computazionale che avrebbe poi ispirato il percettrone di Rosenblatt, introducendo il calcolo statistico in luogo della logica rigida di McCulloch e Pitts.
Un contributo fondamentale arrivò dalla neurofisiologia con il celebre studio del 1959 What the Frog's Eye Tells the Frog's Brain di Lettvin, Maturana, McCulloch e Pitts. Misurando gli stimoli nel nervo ottico delle rane mentre venivano presentate forme ad alto contrasto, registrarono quattro tipi di comportamenti neurali, tra cui il cosiddetto rilevatore di insetti, ovvero la percezione di un piccolo oggetto che si muove nel campo visivo. Contro la teoria della Gestalt che dava primato alle funzioni cerebrali, gli autori dimostrarono che l'occhio stesso compie già compiti basilari di cognizione e riconoscimento di pattern, inviando al cervello segnali che sono già concetti ben formati e non semplici percetti. Conclusero che "l'occhio comunica con il cervello in un linguaggio già altamente organizzato e interpretato", trasformando l'immagine da uno spazio di punti discreti a uno spazio congruente in cui ogni punto è descritto dall'intersezione di qualità particolari nel suo intorno. Questo studio rappresentò per molti il chiodo finale sulla bara della controversia della Gestalt.
Von Neumann, pur condividendo con McCulloch e Pitts che tutto ciò che si può descrivere a parole può essere fatto con il metodo dei neuroni, dissentiva sul fatto che qualsiasi circuito progettato in questo modo si trovi effettivamente in natura. Sosteneva che la semplice logica aritmetica è una metalinguaggio efficiente ma non efficace nel descrivere il linguaggio probabilistico sottostante del cervello che opera con una tolleranza all'errore tale da far fermare qualsiasi macchina deterministica. Notò che nel sistema nervoso un deterioramento della precisione aritmetica può effettivamente portare a un miglioramento nella logica, grazie all'elevata flessibilità e capacità di auto-organizzazione e auto-riparazione, come dimostrato dagli studi sulla neuroplasticità di Karl Lashley e Kurt Goldstein che studiò la capacità dei veterani della Prima Guerra Mondiale di riorganizzare i ricordi dopo traumi cerebrali. Von Neumann riprese la tesi chiave di Constantin von Monakow secondo cui la memoria è distribuita piuttosto che localizzata, suggerendo la delocalizzazione della memoria nelle macchine. Nelle sue ultime lezioni Silliman del 1956, pubblicate come The Computer and the brain, von Neumann giunse a una conclusione sorprendente: il linguaggio del cervello non è il linguaggio della matematica. Invertendo il rapporto tra logica e natura, suggerì che lo studio più approfondito del sistema nervoso potrebbe alterare il modo stesso in cui guardiamo alla matematica e alla logica, riconoscendo che la matematica e la logica sono forme di espressione storiche e accidentali, non necessità assolute. La controversia sulla Gestalt, conclude Pasquinelli, è oggi un fossile cognitivo di problemi irrisolti sepolto nel cuore del deep learning ma il suo studio può aiutarci a comprendere la forma logica e i limiti che l'IA del XXI secolo ha ereditato.
Non fu un cibernetico ma un economista neoliberale, Friedrich von Hayek, a fornire il trattato più sistematico sul connessionismo, poi noto come paradigma delle reti neurali artificiali. Già nel suo libro del 1952, The Sensory Order, Hayek propose una teoria connessionista della mente molto più avanzata della teoria dell'IA simbolica, la cui nascita viene celebrata solo nel 1956. Hayek offrì una sintesi dei principi della Gestalt e delle idee di Warren McCulloch e Walter Pitts sulle reti neurali per descrivere "il sistema nervoso come uno strumento di classificazione", arrivando a ipotizzare un dispositivo che svolgesse una funzione simile, descrivendo di fatto un algoritmo classificatore. Nel 1958, Frank Rosenblatt, definendo il percettrone come la prima rete neurale artificiale operativa per il riconoscimento di pattern, riconobbe che i lavori di Donald Hebb e dello stesso Hayek erano stati i più suggestivi per il suo lavoro. Per Pasquinelli l'attribuzione a Hayek dell'invenzione del connessionismo è una semplificazione che trascura il suo debito verso la neurologia e la cibernetica dell'epoca, suggerendo anzi che Hayek "rubò" il riconoscimento di pattern per trasformarlo in un principio neoliberale di regolazione del mercato.
Hayek iniziò a lavorare alla sua teoria della mente nel 1920, mentre era assistente nel laboratorio del neuropatologo Constantin Monakow a Zurigo, sviluppandola per tutta la carriera. Fornì una sintesi impressionante di idee provenienti da neurofisiologia, neurologia olistica, psicologia della Gestalt, teoria dei sistemi e cibernetica con lo scopo preciso di far apparire i principi neoliberali come naturali e universali. Un esempio lampante è come Hayek descrivesse la decentralizzazione della conoscenza nel mercato allo stesso modo in cui le teorie di Monakow e Kurt Goldstein descrivevano la decentralizzazione delle funzioni cognitive nel cervello. Tra gli anni ‘40 e ‘60 la teoria dell'auto-organizzazione nei mercati ha contribuito alle teorie dell'auto-organizzazione nelle reti di computer e viceversa. Questa teoria hayekiana faceva parte di un colpo di Stato ideologico nella Guerra Fredda, una risposta sia al calcolo socialista che alle politiche keynesiane. Così come la topologia decentralizzata di Arpanet fu una reazione alla minaccia militare sovietica, il connessionismo di Hayek fu concepito come risposta alla pianificazione centralizzata socialista. La sua teoria della mente non era altro che una variante del connessionismo mercantile.
Pasquinelli ricostruisce schematicamente l'argomentazione di Hayek a ritroso, dal suo paradigma economico alla sua teoria della cognizione. Nel suo saggio del 1945 The Use of Knowledge in Society Hayek intervenne nel dibattito sul calcolo socialista affermando che l'ordine economico è un problema di conoscenza spontanea, non di esattezza matematica. La conoscenza delle circostanze non esiste mai in forma concentrata o integrata ma solo come frammenti sparsi di conoscenza incompleta e spesso contraddittoria posseduti da singoli individui. Il problema economico della società è quindi l'utilizzo di una conoscenza che non è data a nessuno nella sua totalità. Curiosamente questa idea deriva dalla teoria non localizzativa delle funzioni cerebrali di Monakow, con cui aveva lavorato, il quale coniò il termine diaschisi per descrivere come un cervello danneggiato possa recuperare funzioni attraverso la riorganizzazione neurale. Hayek applicò quindi al mercato un modello di neuroplasticità derivato dalla neurologia olistica.
Oltre alla decentralizzazione, Hayek operò un'altra importante operazione: la mobilitazione della conoscenza tacita. Ispirandosi a Gilbert Ryle, Hayek scrisse che il saper fare consiste nella capacità di agire secondo regole che possiamo scoprire ma che non siamo in grado di enunciare per obbedirvi, regole che governano anche le nostre percezioni. Suggerì che la conoscenza tacita è supra-cosciente o meta-cosciente, esistendo regole meta-coscienti astratte quanto quelle coscienti. A differenza di Marx che vedeva la razionalità spontanea del lavoro poter essere catturata dal sistema di fabbrica, Hayek assunse che la cattura della razionalità del mercato da parte di un apparato tecnico o istituzionale sarebbe stata impossibile e, se possibile, illiberale.
Il nucleo della teoria di Hayek è la classificazione, definita come la principale facoltà della mente. In un suo libro del 1952 fornisce una definizione che anticipa gli algoritmi classificatori del machine learning: per classificazione si intende un processo in cui ogni volta che un certo evento ricorrente accade, produce lo stesso specifico effetto e tutti gli eventi diversi che producono lo stesso effetto sono detti appartenere alla stessa classe. Ipotizzò macchine per eseguire questi processi, come una macchina che separa palline di diverse dimensioni o un centralino telefonico semplificato. Per Hayek la mente definisce le classi riconoscendo somiglianze e spesso stabilendo tali somiglianze anche tra elementi arbitrari, rendendo la definizione di una classe un gesto pragmatico. All'interno della nozione di classe includeva categorie percettive ed estetiche come la Gestalt e il pattern ma anche categorie etiche e politiche come l'abitudine e la norma. Dal 1961 Hayek iniziò a usare l'espressione riconoscimento di pattern per definire la classificazione, arrivando a scrivere che molte equazioni algebriche definiscono una classe di pattern e che la grande forza della matematica è descrivere pattern astratti che non possono essere percepiti dai sensi.
Per quanto riguarda il modello mentale delle reti neurali, Hayek, influenzato da McCulloch e Pitts, semplificò la cognizione come un semplice atto di decisione. La sua teoria può essere definita connessionismo gestaltico per distinguerla da quella logica di McCulloch e Pitts e da quella statistica di Rosenblatt. Hayek sosteneva che la mente (un ordine mentale, una rete auto-organizzata di neuroni) può solo fornire un modello, non una rappresentazione del mondo, un ordine sensoriale che è una riproduzione parziale e imperfetta, spesso molto distorta, delle relazioni esistenti nel mondo fisico. Pasquinelli sottolinea come, dopo Babbage, un altro economista politico si trovi a uno spartiacque nella storia dell'informatica: Babbage propose il calcolo come automazione del lavoro mentale mentre Hayek sostenne che il calcolo delle transazioni di mercato sarebbe stato impossibile e dannoso per l'autonomia del mercato stesso, una differenza che rispecchia quella tra IA simbolica e connessionista.
Hayek ha descritto il mercato come un computer o un sistema telegrafico distribuito. Sosteneva che la complessità del mercato superasse i limiti hardware di qualsiasi apparato di calcolo e quindi fosse impossibile la piena automazione. L'economista Oskar Lange ribatté che l'innovazione aveva superato questi limiti, proponendo l'uso di computer elettronici. Lange descrisse il meccanismo di mercato come un dispositivo di calcolo che risolve equazioni simultanee attraverso un processo di iterazione basato su un principio di feedback, anticipando i processi di addestramento delle reti neurali artificiali come la backpropagation e la discesa del gradiente. Pasquinelli introduce una riflessione sull'epistemologia politica delle reti neurali citando la teoria dell'astrazione reale di Alfred Sohn-Rethel, secondo cui la forma merce è all'origine del pensiero astratto stesso. Se Hayek ha sublimato la razionalità del mercato, Pasquinelli si chiede quale potrebbe essere un'epistemologia alternativa delle reti neurali. Contrariamente a Hayek, che vedeva la creazione di nuove idee come un esercizio di libertà individuale, Marx la vedeva influenzata dai rapporti sociali di produzione. Qualsiasi astrazione o classificazione è il risultato di una divisione sociale del lavoro. Anche le reti neurali di Hayek, come quelle artificiali in generale, rimangono un'estensione di questa stessa divisione sociale del lavoro astratto.
3. Il precettrone
Nel 1958, due anni dopo la celebre conferenza di Dartmouth sull’intelligenza artificiale, il New York Times dedicò titoli enfatici a un nuovo progetto di “macchina pensante”: il percettrone, una rete neurale artificiale inventata dallo psicologo Frank Rosenblatt. Sostenuto dall’Ufficio della Ricerca Navale degli Stati Uniti, il progetto cercava visibilità per giustificare la spesa di denaro pubblico e il giornale riportò in modo caricaturale che la marina aveva rivelato l’embrione di un computer elettronico in grado di camminare, parlare, vedere, scrivere, riprodursi e essere cosciente della propria esistenza. Nonostante l’enfasi militare, l’articolo si rivelò sorprendentemente profetico riguardo al riconoscimento facciale e all’elaborazione del linguaggio naturale, prevedendo che i percettroni futuri sarebbero stati in grado di riconoscere le persone, chiamarle per nome e tradurre istantaneamente il parlato in un’altra lingua. Nello stesso anno il New Yorker offrì una copertura più sobria, intervistando Rosenblatt, il quale chiarì che il percettrone non era un “cervello meccanico” ma una macchina auto-organizzante in grado di fornire “un’organizzazione dell’ambiente esterno dotata di senso”. A differenza dei computer tradizionali, il percettrone interagisce con l’ambiente formando concetti non preimpostati da un agente umano. La sua memoria è un’area libera e indeterminata di unità di associazione che collegano casualmente un input sensoriale a un gran numero di unità di risposta. Se si mostra un triangolo all’occhio del percettrone, le unità di associazione ne catturano l’immagine e la trasmettono lungo linee casuali fino alle unità di risposta. La volta successiva l’immagine viaggerà lungo lo stesso percorso e le connessioni che portano a quella risposta vengono rafforzate, permettendo al percettrone di generalizzare anche a triangoli di dimensioni e forme diverse.
Il percettrone, sviluppato al Cornell Aeronautical Laboratory di Buffalo come progetto PARA, era finanziato dalla Marina principalmente per l’automazione della classificazione di bersagli, come il riconoscimento di navi nemiche tramite radar, sonar o dati visivi. Rosenblatt progettò anche fonopercettroni (per riconoscere parole in comunicazioni audio) e radiopercettroni (per segnali radar e sonar). Tecnicamente era una rete neurale statistica per il riconoscimento di pattern, in grado di classificare stimoli in modo binario. La prima implementazione fu una simulazione al computer nel 1957 su un IBM 704 che dopo cinquanta prove imparò da solo a distinguere schede perforate marcate a sinistra da quelle marcate a destra. Questa prova convinse Rosenblatt che architetture più complesse avrebbero potuto riconoscere pattern più complessi. Nel 1960 venne completato il Mark I, un ibrido hardware-software che utilizzava lo stesso computer del Progetto Manhattan, esteso con un modulo analogico. Questo dispositivo, ora allo Smithsonian, era mille volte più lento dell’IBM 704 ma permetteva di riconfigurare la rete manualmente. Il manuale dell’operatore lo descriveva come un dispositivo di apprendimento e riconoscimento di pattern in grado di classificarli in base a somiglianze geometriche, posizione, forma, frequenza e dimensione. Il Mark I implementava una rete semplice a tre strati: 400 unità sensoriali (una fotocamera 20x20 pixel), 512 unità associative e 8 unità di risposta, con pesi regolabili automaticamente tramite potenziometri analogici. In totale i parametri addestrabili erano 4096 (512x8). Rosenblatt era entusiasta, sottolineando che con un numero sorprendentemente piccolo di unità, rispetto ai 10 miliardi di neuroni del cervello umano, il percettrone era capace di attività molto sofisticate. L’algoritmo di addestramento seguiva una procedura di approssimazione passo-passo: si partiva con pesi casuali, si calcolava l’output per un esempio e, se l’output era errato, si aumentavano o diminuivano i pesi che avevano contribuito all’errore, ripetendo il ciclo finché non venivano commessi più errori.
Nonostante la sua fama, il Mark I era capace di distinguere solo forme semplici, come un quadrato nero a sinistra o a destra, o lettere allineate al centro. Rosenblatt era consapevole dei limiti ma intuì che architetture con più strati (come poi dimostrato dal deep learning) avrebbero potuto svolgere compiti più complessi, anticipando le reti neurali convoluzionali. Rosenblatt vedeva il percettrone prima di tutto come un modello del cervello utile per determinare le condizioni fisiche per l’emergere di proprietà psicologiche. Sosteneva che i percettroni fossero reti semplificate, esagerazioni di alcuni tratti biologici, e difendeva il metodo sperimentale contro l’approccio razionalista dell’IA simbolica. In un simposio del 1958 Rosenblatt spiegò che la matematica del percettrone era affine alla statistica, non alla logica booleana, seguendo le intuizioni di John von Neumann secondo cui il sistema nervoso centrale usa un linguaggio diverso dalla matematica formale. L’innovazione fondamentale del percettrone fu tecnica e matematica: i suoi parametri regolabili rappresentavano coordinate in uno spazio vettoriale multidimensionale. Ogni immagine di 20x20 pixel diventava un punto in uno spazio a 400 dimensioni. Punti vicini indicano immagini simili. Il riconoscimento di pattern consisteva nel tracciare un iperpiano che separasse linearmente i punti di una classe da quelli di un’altra e i pesi della rete definivano l’inclinazione di questo iperpiano. In questo modo la facoltà umana del riconoscimento di immagini veniva tradotta in un problema di ottimizzazione matematica. Rosenblatt importò queste tecniche di analisi multidimensionale dalla psicometria che negli anni ‘50 dominava la psicologia statunitense. Durante il suo dottorato aveva già usato l’analisi fattoriale per esaminare profili di personalità. Applicò le stesse tecniche al riconoscimento visivo. Il percettrone, quindi, trasformava gli strumenti statistici di misura in una teoria della mente.
Il libro Perceptrons di Marvin Minsky e Seymour Papert dimostrò matematicamente che il percettrone semplice non era in grado di riconoscere certi pattern (come figure connesse vs disconnesse o la funzione logica XOR), mettendone in discussione la capacità di generalizzazione. Nonostante Rosenblatt avesse già proposto percettroni multistrato che potevano superare questi limiti, le conclusioni di Minsky e Papert ebbero un effetto devastante, causando il primo “inverno dell’IA” e dirottando i fondi militari altrove. Minsky e Papert contribuirono anche a una critica del paradigma di conoscenza delle reti neurali, evidenziando che esse non distinguono bene tra figura e sfondo, essendo basate su una distribuzione statistica di correlazioni. Infine Pasquinelli sottolinea che il percettrone va compreso nella genealogia dell’automazione del lavoro, non solo manuale o mentale, ma anche del lavoro di supervisione e percezione. Classificare un’immagine è un atto sociale, situato, che mobilita tassonomie culturali e conoscenze contestuali. L’eredità del percettrone, attraverso il deep learning, è la modellizzazione algoritmica di vaste riserve di conoscenza collettiva, un calcolo sociale che ha portato a un regime monopolistico di estrazione della conoscenza su scala globale.
Conclusioni
Per Marx i manufatti tecnici rivelano la forma della società che li produce, così come le ossa fossili svelano la natura di antiche specie ed ecosistemi.
La divisione del lavoro comporta sempre una metrica, una misura della performatività e un giudizio sulle classi di abilità, implicando una gerarchia sociale. Alla fine dell'Ottocento la metrologia del lavoro trovò un alleato nella psicometria, la misurazione delle abilità cognitive della popolazione. La trasformazione della metrica del lavoro in psicometria del lavoro è un passaggio chiave per il management e lo sviluppo tecnologico. Progettando il primo percettrone, Frank Rosenblatt si ispirò alla neuroplasticità e agli strumenti di analisi multivariata importati dalla psicometria. Da questa prospettiva Pasquinelli chiarisce come il progetto dell'IA sia emerso dall'automazione della psicometria del lavoro e dei comportamenti sociali, più che dalla ricerca del "segreto" dell'intelligenza. La meccanizzazione del general intellect dell'era industriale nell’intelligenza artificiale del XXI secolo è stata resa possibile dalla misurazione statistica dell'abilità, come il fattore di intelligenza generale di Spearman, e dalla sua successiva automazione nelle reti neurali. L'IA attuale (machine learning) è l'automazione delle metriche statistiche introdotte per quantificare le abilità cognitive, sociali e lavorative. La razionalità dell'IA implica anche il rafforzamento indiretto di gerarchie sociali di conoscenza e abilità. Come ogni forma di automazione, l'IA non si limita a sostituire i lavoratori, li sposta e li ristruttura in un nuovo ordine sociale. Lo studio della metrologia del lavoro rivela che l'automazione emerge talvolta dalla trasformazione degli stessi strumenti di misura in tecnologie cinetiche: l'orologio usato per misurare il tempo di lavoro fu poi implementato da Babbage per l'automazione del lavoro mentale nella Difference Engine.
L'IA è il culmine della lunga evoluzione dell'automazione del lavoro e della quantificazione della società. I modelli statistici del machine learning sono omologhi al progetto delle macchine industriali, basati sull'imitazione di una configurazione esterna di spazio, tempo e operazioni. Mentre la macchina industriale incarna il diagramma della divisione del lavoro in modo determinato, gli algoritmi di machine learning (specialmente i grandi modelli come GPT) possono imitare attività umane complesse e diverse, dimostrando come l'automazione di singoli compiti, la codifica del patrimonio culturale e l'analisi dei comportamenti sociali possano essere eseguite da uno stesso processo di modellazione statistica. Il machine learning può essere visto come il progetto di automatizzare il processo stesso di progettazione della macchina e di creazione del modello, ovvero l'automazione dell'automazione, portando questo processo alla scala della conoscenza collettiva e del patrimonio culturale, integrando l'automazione del lavoro con la governance sociale.
La convergenza tecnica di diversi apparati di governance verso lo stesso hardware e software segnala una tendenza al monopolio: i mezzi del lavoro sono diventati gli stessi della sua misurazione. La pandemia di COVID-19 ha visto la costruzione di un'infrastruttura per tracciare e prevedere i comportamenti sociali, costruita su piattaforme digitali esistenti. L'automazione contemporanea riguarda in particolare l'automazione dei manager e dei padroni, come nelle piattaforme della gig economy. Il capitalismo delle piattaforme è una forma di automazione che non sostituisce i lavoratori ma li moltiplica e li governa, sostituendo il management con algoritmi e moltiplicando i lavori precari. Il potere del nuovo "padrone" è la gestione della divisione sociale del lavoro. Di fronte a monopoli di dati e conoscenza la chiamata a "riprogettare l'IA" deve rispondere alla domanda su come sia possibile farlo. La teoria dell'automazione suggerisce che ogni tecnologia è una cristallizzazione di un processo sociale produttivo. Per smontare i monopoli dell'IA è necessario un lavoro meticoloso di "deconnessionismo" che disfi il tessuto sociale ed economico che li costituisce. Una nuova generazione di studiosi sta già sezionando la pipeline produttiva globale dell'IA. La teoria dell'automazione del lavoro è un principio analitico per studiare il nuovo occhio del padrone ma anche un principio sociogenico dato che al suo cuore c'è una pratica di autonomia sociale. Le tecnologie possono essere giudicate e reinventate solo muovendosi all'interno delle relazioni sociali che le hanno costituite. Non serve né tecno-soluzionismo né tecno-pauperismo ma una cultura dell'invenzione che si prenda cura delle comunità e non abbandoni mai completamente l'agency e l'intelligenza all'automazione. Un'epistemologia politica per trascendere l'IA dovrà tramutare le forme storiche del pensiero astratto (matematico, algoritmico, statistico) e integrarle come parte della cassetta degli attrezzi del pensiero critico stesso, imparando una diversa mentalità tecnica, una contraintelligenza collettiva.
