Rileggendo "Cybernetics; or, Control and Communication in the Animal and the Machine" di Norbert Wiener

Norbert Wiener è il padre dell'odierna IA o il suo curatore fallimentare? La cibernetica da una prospettiva moderna, anzi futura.

Più attuale che mai, la cibernetica è madre di tutto il bene e tutto il male dell'IA dei nostri tempi

Domanda: a oltre tre quarti di secolo dalla sua pubblicazione, oggi, possiamo ancora considerare Cybernetics di Norbert Wiener un riferimento importante o dobbiamo semplicemente buttarlo giù dalla torre?

Certo, molte di quelle intuizioni sono diventate di stretta attualità, ma la proposta di Wiener, nel definire una grammatica fondamentale dei concetti come informazione, feedback, controllo, omeostasi, risulta ancora utile ai tecnologi e agli scienziati, o è inadeguata a fondarvi sopra la sostituzione dell’intelligenza umana, come fanno i moderni approcci dell'IA? [1]

I sistemi generativi odierni sono surrogati poveri dell’intelligenza: operano su regolarità statistiche prive di intenzionalità e responsabilità, quindi il modo corretto di impiegarli è adattarli nei processi di aumento cognitivo (altrimenti detta Intelligence Augmentation [2]) ma non nell’automazione sostitutiva.

Quest'angolo di visuale consente di collegare il lavoro di Norbert Wiener a quelli Licklider ed Engelbart sull’interazione uomo-macchina e a Winograd e Flores sulla cognizione, ma anche alle considerazioni filosofiche di Searle e Dreyfuss, sui limiti della mera analisi sintattica e sullo sviluppo di abilità astratte e non incarnate.

Il libro Cybernetics viene pubblicato nel 1948 e fa tesoro dei lavori sulla radaristica fatti da Wiener nella seconda guerra mondiale, proponendo, nella prospettiva della guerra fredda, idee fondamentali sulla teoria dei segnali e la meccanica statistica. In quello stesso periodo emerge la teoria matematica della comunicazione di Shannon e Weaver [3] e il dibattito sulle analogie cervello/calcolatore sviluppato da von Neumann [4]. La seconda edizione del libro, quella definitiva del 1961, aggiunge due capitoli e rivede in modo sostanziale il resto, correggendo alcuni passaggi tecnici.

Il volume è costruito come un percorso in tre fasi: parte da una soglia filosofica, attraversa un nucleo tecnico-matematico e approda a un’estensione nel campo biologico e sociale.

L’Introduzione ricostruisce la genesi interdisciplinare del progetto nelle conferenze Macy a New York, e la collaborazione con Rosenblueth presso l'Harvard Medical School con il saggio del 1943 “Behavior, Purpose and Teleology” [5]. Propone quindi il nome “cibernetica” come termine-ombrello per fenomeni di comunicazione e controllo osservabili tanto negli organismi quanto nelle macchine.

Nel primo capitolo, “Tempo newtoniano e tempo bergsoniano” , Wiener contrappone un modello reversibile del tempo a quello irreversibile della seconda legge della termodinamica e con ciò motiva l’uso di strumenti probabilistici quando si descrivono sistemi reali, viventi o artificiali. Il capitolo successivo su “I gruppi e la meccanica statistica” salda questa intuizione a un quadro formale. Da qui si passa al cuore tecnico del libro: “Serie temporali, informazione e comunicazione” introduce la misura dell’informazione e la dinamica segnale/rumore, aprendo la strada al tema del filtraggio e della predizione; “«Feedback» e oscillazione” generalizza l'idea del feedback come principio di stabilizzazione, preparando il terreno all’analogia organico-artificiale. Questo è il motore concettuale dell’opera ed è la parte più utile per chi progetta sistemi complessi soggetti a incertezza e disturbi. Dalla metà del libro in poi il registro tecnico convive con un’esplorazione delle implicazioni dell'idea cibernetica per la mente e la società: “Macchine calcolatrici e sistema nervoso” tratta il parallelismo tra architetture di calcolo e processi neurofisiologici; “«Gestalt» e universali” e “Cibernetica e psicopatologia” sondano i limiti del riduzionismo mantenendo sempre un ancoraggio quantitativo; “Informazione, linguaggio e società” amplia il quadro alle istituzioni e al coordinamento sociale.

La seconda parte del libro, aggiunta nel 1961, completa l’argomentazione: “Macchine ad apprendimento e ad autoriproduzione” integra l’orizzonte evolutivo e meta-progettuale; “Onde cerebrali e sistemi autoorganizzati” estende la cibernetica ai segnali neurali e alle dinamiche collettive. Questi ultimi capitoli seguono un approccio teoretico e ingegneristico che è tipico di Wiener quando usa formule matematiche, anche notevolmente complesse, dove pensa che servano, calandole poi in estese descrizioni dei relativi fenomeni materiali, fisiologici e istituzionali. Questa doppio registro rende l’opera ancor oggi feconda per l’analisi e la progettazione di sistemi complessi uomo–macchina.

1. Informazione, entropia, comunicazione

Wiener intreccia due nozioni che condividono la stessa forma matematica ma appartengono a tradizioni diverse: l’entropia termodinamica (Gibbs–Boltzmann) e la misura d’informazione (Shannon). In termini semplici, l’entropia termodinamica S misura la “disponibilità” di microstati compatibili con un macro–stato (S = kB ln W); l’entropia di Shannon H(X) = −∑i pi log2 pi misura l’incertezza media su un insieme di simboli. Questa somiglianza formale però non autorizzerebbe una sovrapposizione concettuale: in Shannon la misura è deliberatamente sintattica, agnostica al significato e ai fini; in termodinamica invece è una grandezza fisica con vincoli materiali. La forza del libro sta nel provare a costruire un ponte operativo fra i due domini altrimenti distanti, la cui correlazione è tutt'altro che scontata: i sistemi biologici e le macchine sono visti da Wiener come processori di informazione che devono controllare il degrado verso il disordine attraverso cicli di retroazione e scambio informativo. Una tesi forzata, a dir poco.

L’affinità con Shannon è reale ma limitata. Per Shannon, capacità di canale, entropia e mutua informazione quantificano quanto “si può” trasmettere affidabilmente ma non che cosa “vale” ciò che si trasmette. Il significato, cioé, resta fuori dal quadro intenzionale. Wiener accetta questa distinzione ma poi prova a rendersi utile sia ai fisiologi che agli ingegneri: se l’informazione può essere trattata come “ordine nei confronti del rumore”, allora la fisiologia e il controllo automatico condividono strumenti matematici per disciplinare le proprie forme.

Qui nasce la celebre tentazione di saltare dalla mera “quantità d’informazione” alla “conoscenza”. La prima è una misura di incertezza ridotta; la seconda implica pratiche, contesto, fini, responsabilità. Confondere i piani porta a metafore suggestive e che sono ormai ampiamente tracimate nel linguaggio comune dell'intelligenza artificiale e dei modelli generativi, ma che sono anche totalmente fuorvianti.

Il libro Cybernetics è fortemente legato ai lavori di Wiener su stima e predizione di serie temporali stazionarie. Il cosiddetto “filtro di Wiener” emerge come soluzione ottima (in media quadratica) al problema di recuperare un segnale s(t) da una osservazione rumorosa y(t) = s(t) + n(t), sfruttando le densità spettrali di potenza del segnale e del rumore e la loro correlazione.

L’idea è chiara: per Wiener conoscere equivale a filtrare, cioè separare regolarità da disturbi.

Questa teoria, formalizzata nel volume Extrapolation, Interpolation, and Smoothing of Stationary Time Series [6], è alla base di pratiche moderne di denoising e stima in ambiti eterogenei, dalla sensoristica biomedica (ECG, EEG) all’elaborazione di immagini, fino al pre–processing che rende più robusti i sistemi d’allerta o i controlli industriali.

Il punto critico è che questi strumenti eccellono quando il problema è modellabile come rapporto segnale/rumore; ma vacillano quando entrano in gioco l’interpretazione dei fini, la negoziazione del contesto e la normatività dell’azione.

Il confronto con la teoria matematica della comunicazione serve dunque a marcare una linea: Shannon fornisce il vocabolario quantitativo per canali e codici, Wiener estende quel vocabolario a processi fisici e biologici in cui il controllo richiede informazione. Cosa autorizza a confondere misura d’informazione con comprensione?

Il tentativo di far chiarezza porta alla nostra proposta: l’informazione va usata per progettare cicli di retroazione umano–macchina che aumentino la capacità d’indagine e di correzione, senza mitizzare un “sapere” che il formalismo, da solo, non fornisce. Anzi, senza la parte "uomo" nella retroazione "uomo-macchina", il sapere può solo essere progressivamente perduto.

2. Feedback, controllo, omeostasi

Il fulcro della cibernetica wieneriana è il circuito di retroazione negativa: una misura dell’errore tra stato desiderato e stato attuale che guida l’azione correttiva del regolatore. Questa architettura chiude il ciclo fra percezione (sensori), decisione (comparatore e legge di controllo) ed effettori, mantenendo il sistema in prossimità di un equilibrio operativo. La retroazione positiva, al contrario, amplificherebbe le deviazioni e condurrebbe a instabilità o oscillazioni non controllate; perciò l’omeostasi, tanto nei viventi quanto nelle macchine, richiede che i guadagni e i ritardi del circuito siano progettati entro margini di stabilità.

Wiener generalizza l'elemento ingegneristico che risale all'organo di controllo centrifugo della macchina a vapore (uno schema classico per il controllo della velocità dei sistemi a vapore studiato da Maxwell in “On Governors” [7]). Wiener sposta quest'idea sul terreno neuro-fisiologico: i riflessi animali e le relative vie fisiologiche discendenti formano anelli di retroazione che stabilizzano postura, ritmo cardiaco, termoregolazione. La stessa logica, sostiene Wiener, si ritrova in organizzazioni sociali in cui misurazioni periodiche (indicatori, sondaggi, reporting) attivano correttivi di politica e gestione.

Il merito teorico è quello di individuare un principio comune nell'“errore-correzione” su più scale; il rischio concettuale è quello di sovra-estendere queste metafore ingegneristiche ai domini normativi dove fini, valori e potere non sono parametri ma oggetti di contesa o di accordo inter-soggettivo.

Qui l’integrazione con Ashby è decisiva. In An Introduction to Cybernetics (1956) [8] e in Design for a Brain (1952) [9], Ashby correla l'idea del controllo con quella della varietà: un regolatore può annullare le perturbazioni solo se possiede almeno la stessa “varietà” del sistema da controllare (legge della requisite variety). In termini operativi, la stabilizzazione non dipende solo dal guadagno del feedback, ma anche dalla ricchezza di stati e di mosse che il regolatore può mettere in campo. Da qui deriva la distinzione tra livelli di organizzazione: quando la varietà ambientale supera quella del controllore è necessario introdurre meccanismi meta-regolativi (adattamento, apprendimento, ridisegno dell’architettura). È il passo che va oltre la mera retroazione: non basta “correggere l’errore”, occorre modificare il modo in cui si corregge.

Questo quadro chiarisce bene i limiti dell’automazione che pretende di sostituire l'uomo e il valore di quei tentativi che vorrebbero invece aumentarne le capacità. Nei sistemi clinici o industriali, un LLM può fungere da modulo di riduzione del rumore (sintesi, triage, recupero di contesto), ma la “varietà” situazionale — vincoli, eccezioni, ambiguità semantiche, responsabilità — eccede sistematicamente lo spazio degli stati modellati. Solo un ciclo in cui lo human-in-the-loop abbia sensori informativi adeguati, che abbia leve di controllo realmente disponibili e possibilità di ridefinire i fini, può raggiungere una omeostasi robusta. In altri termini: il progetto corretto non è sostituire l’anello umano, ma far sì che l’anello umano disponga della varietà necessaria per assorbire quella del mondo.

3. Serie temporali, predizione e il problema del rumore

In Cybernetics (soprattutto nella prima edizione del 1949), Wiener formalizza un’idea operativa tanto semplice quanto feconda: conoscere equivale a filtrare, cioè a separare regolarità dal rumore in osservazioni affette da disturbo. Il punto non è “pulire” i dati in astratto, ma ricostruire la componente informativa di un processo sulla base della sua struttura statistica. Da qui la centralità delle operazioni di correlazione, di densità spettrali di potenza e delle funzioni di trasferimento: strumenti che permettono di stimare quale parte del segnale sia prevedibile e quale sia aleatoria (teorema di Wiener–Khintchine, equazioni di Wiener–Hopf). Il quadro è lineare e stazionario, ma apre la via all’intera famiglia dei filtri ottimi in media quadratica.

La cassetta degli attrezzi wieneriana ruota intorno a tre operazioni sui processi stocastici: l’estrapolazione per predire il futuro dato il passato; l’interpolazione per ricostruire punti mancanti; e lo smoothing per stimare la componente “lenta” riducendo il rumore ad alta frequenza. In tutti i casi la soluzione dipende dalle statistiche congiunte di segnale e rumore: quando sappiamo — o stimiamo — gli spettri di potenza, il filtro di Wiener fornisce il peso in frequenza che minimizza l’errore quadratico. È una visione sobria: non promette “comprensione”, ma una stima migliore sotto ipotesi esplicite sulla generazione del dato.

Gli esempi tecnici sono immediati. In sensoristica biomedica, l’ECG è spesso corrotto da “baseline wander” e rumore muscolare; un filtro alla Wiener, costruito sulla stima spettrale delle componenti, separa l’attività elettrica cardiaca dalle derive a bassa frequenza e dall’EMG, migliorando la localizzazione dei complessi QRS e riducendo i falsi allarmi. In EEG, l’attenuazione di interferenze (50/60 Hz) e artefatti oculari si ottiene con schemi di stima lineare e, quando servono, con varianti adattative che aggiornano le statistiche in tempo reale. Nelle reti di comunicazione, l’idea si manifesta nel filtro adattato (matched filter) e nell’eguagliamento di canale: massimizzare il rapporto segnale/rumore all’istante di decisione e compensare l’interferenza intersimbolica sono problemi prototipici di stima LMMSE (stimatore lineare a errore quadratico medio minimo) che discendono dal formalismo di Wiener; a valle poi si possono innestare i rami della detection e dell’analisi di decisione.

Nel 1960, Kalman [10] mostra che il problema wieneriano — ottimale ma essenzialmente “fuori linea” e ancorato a stazionarietà — può essere risolto ricorsivamente in un modello dinamico di stato: il filtro di Kalman è lo stimatore lineare a errore quadratico medio minimo (LMMSE) in tempo reale per sistemi lineari con rumori gaussiani, mentre un’equazione di Riccati aggiorna la matrice di covarianza dell’errore. In termini concettuali, la stima passa dalla sola statistica spettrale, statica, alla modellazione esplicita della dinamica. Tutto ciò che oggi diamo per scontato — dal tracciamento di bersagli alla fusione di sensori inerziali — sta su questo confine tra la sintesi spettrale di Wiener e la predizione ricorsiva di Kalman.

Per non sovrastimare il paradigma wieneriano sono però necessari due chiarimenti.

Innanzitutto è necessario esplicitare meglio le ipotesi iniziali. Stazionarietà, linearità e gaussianità sono requisiti forti; appena decadono, il filtro, ottimo in teoria, può invece degradare nella pratica. Per questo entrano in gioco filtri adattativi (LMS/RLS), estensioni non lineari (Extended/Unscented Kalman) e approcci robusti. Queste modifiche non smentiscono il lavoro di Wiener, ma ne esplicitano i limiti di validità.

Poi va trattato il rischio di ridurre la conoscenza a filtraggio. Un buon filtro migliora la qualità della misura e, con essa, la qualità del controllo ma non sostituisce il lavoro di modellare i fini, negoziare il contesto e assumere responsabilità sulle decisioni. È proprio su questo punto che si aggrappa la nostra tesi sulla superiorità (e forse la necessità) di fare della cibernetica un sostegno per l'Intelligence Augmentation e non per la mera sostituzione dell'umano propugnata dalla cosiddetta intelligenza artificiale. I filtri sono amplificatori epistemici del sistema-uomo, non surrogati del suo giudizio.

4. La “saldatura” con le scienze della mente

Il successo culturale della cibernetica negli anni sessanta ha alimentato un uso troppo disinvolto delle analogie “cervello = calcolatore” e “mente = flusso d’informazione”. Queste immagini, pur feconde, con il tempo sono diventate controproducenti. In Wiener, l’informazione è una misura operativa d’ordine contro il rumore; non veicola alcun significato né intenzionalità, non stabilisce fini. La normatività – ciò che dovremmo fare, perché e con quale responsabilità – resta completamente fuori dal campo della sua indagine. La cibernetica fornisce strumenti per descrivere e controllare processi, ma assolutamente non ci mette a disposizione criteri per valutare o comprendere questi processi dal punto di vista dell’agente.

Il collegamento con le scienze della mente avviene lungo due direttrici storiche. La prima è logico-computazionale: il modello neuronale di McCulloch & Pitts [11] prevede elementi soglia che implementano funzioni booleane, e quindi compone reti che realizzano calcoli proposizionali ovvero meccanismi decidibili in linea di principio. Questa analogia chiarisce che “calcolo” e “circuito” possono essere visti come mondi collegati, ma non esprime niente sul contenuto semantico delle rappresentazioni o sull’esperienza vissuta dell’agente. La seconda direttrice è legata all’interrogativo di Alan Turing: “le macchine possono pensare?” La risposta di Turing però è una traslazione dall'interrogativo principale su “che cos’è pensare” a quello, in un certo modo secondario, “come si riconosce il comportamento intelligente”. Insomma Turing adotta un approccio comportamentista che limita l'intelligenza all’orizzonte della condotta osservabile, restando indifferente al panorama della coscienza e della responsabilità. [12]

In questo quadro l’apporto di Wiener è alquanto sobrio, anzi addirittura omissivo. Se, da un lato, segnala che sistemi nervosi e macchine condividono problemi di comunicazione, predizione e controllo, dall'altro si guarda bene dal concludere che condividano una mente con la stessa natura e struttura.

Turing salta troppo facilmente alle conclusioni, mentre Wiener, per evitare questo salto indebito distingue tre piani. Uno: fortifica la cibernetica dal punto di vista del calcolo come trasformazione di segnali; ma, due, considera la cognizione come pratica situata, finalizzata e socialmente regolata che quindi eccede il semplice formalismo del controllo; e infine, tre, è ben convinto che l’intenzionalità, cioè la tensione del pensiero verso qualcosa che abbia valore e scopo, non si ricava dalle sole misure d’informazione.

È qui che si vede, per esempio, anche la diversità con Gregory Bateson che, in Steps to an Ecology of Mind [13], considera la cibernetica un linguaggio per pensare la forma e il contesto, cioè un sistema di apprendimento a più livelli: apprendimento a livello 0, quello dei cambiamenti entro una cornice data; a livello 1 quello del cambiamento della cornice operativa; e a livello 2, ovvero il cambiamento dei criteri con cui si cambiano le cornici cognitive. Con questa stratificazione si rende evidente quella normatività che Wiener non esplicita, e che forse non avrebbe mai voluto si esplicitasse. L'informazione non viene considerata “neutra”, perché ogni aspetto che fa la differenza, la fa sempre rispetto a uno scopo e a un contesto.

Per chi progetta sistemi interattivi la lezione è chiara: i cicli di feedback vanno disegnati insieme alle pratiche che ne definiscono i fini, senza trascurare i meccanismi per rivedere gli obiettivi stessi quando l’esperienza lo richiede.

Il naturalismo logico della prima ondata – da McCulloch-Pitts al test di Turing – è stato contestato da più lati: gli si è contestato che la competenza pratica e tacita non è mai riducibile a regole esplicite; o che il linguaggio non è solo sintassi, ma è azione situata; o che l’intenzionalità non è un sottoprodotto della computazione e non è semplicemente emergente dalla mera complessità.

Senza cadere in un estremismo anti-tecnologico si può affermare che la giusta “saldatura” tra cibernetica e scienze della mente non consista nel considerare la mente simile a un canale di comunicazione, ma nel progettare sistemi uomo-macchina dove misure, controlli e pratiche di senso evolvono assieme. È qui che l’idea di Intelligence Augmentation trova fondamento: usare i modelli per potenziare percezione, memoria, confronto d’ipotesi, verifica del ragionamento, lasciando che l’umano definisca fini e responsabilità delle scelte.

5. Dalla cibernetica all’augmentation: perché l’automazione non basta

La grammatica formale di Wiener è fatta di informazione, retroazione, stabilità , ma la posta in gioco, per chi progetta o fa scienza, è scegliere dove posizionare l’umano nel circuito (human-in-the-loop). La risposta forte arriva con la linea di pensiero inaugurata da Licklider e Engelbart che non hanno mai inteso “sostituire” l’intelligenza umana, ma piuttosto accoppiarla agli artefatti tecnologici perché sia il sistema complessivo a raggiungere capacità cognitive superiori a quelle dei singoli componenti: sia dell'uomo che della macchina da soli.

Licklider descrive una “simbiosi uomo-calcolatore” in cui i compiti computazionali ad alta velocità e quelli umani di definizione dei fini, percezione della pertinenza, ristrutturazione dei problemi si intrecciano in tempo quasi reale. L’unità di analisi non è più il modello statistico isolato, ma la coppia interattiva, con protocolli, interfacce e memoria esterna che riducono l’attrito cognitivo. La previsione è chiara: sistemi conversazionali, schermi interattivi, reti che permettano revisione iterativa e decisioni assistite propongono una cibernetica applicata alle pratiche e non, banalmente, alle metafore [14].

Engelbart rende questa visione un programma di ricerca. L’“aumento dell’intelletto” prende sul serio il fatto che l’intelligenza è intreccio di linguaggio, metodi, artefatti e addestramento: il sistema H-LAM/T (Human using Language, Artefacts, Methodology, with Training) è un esplicito progetto socio-tecnico dove il punto non è produrre sempre più output, ma trasformare il modo in cui si pensa insieme. L'obiettivo è esternalizzare strutture di problema e tracce di ragionamento, rendere navigabili i riferimenti, progettare comandi e viste che permettano ristrutturazioni rapide, costruire cioè un’infrastruttura di miglioramento che renda il sistema capace di auto-evolversi con l’uso. Qui, invece, la cibernetica di Wiener si salda alla progettazione: il feedback non è solo una costante di guadagno, ma un ciclo di revisione concettuale e organizzativa [2].

Comprendendo questo si capisce come l’automazione sostitutiva sia non solo una scorciatoia banale ma anche un'enorme perdita, nient'affatto un guadagno, perché degrada le capacità di giudizio, sottrae l’esperienza, indebolisce la responsabilità, rende opaca la catena delle decisioni, riduce la verificabilità dei processi perché nasconde le tappe intermedie del ragionamento.

Un sistema di Intelligence Augmentation fa esattamente il contrario: esplicita le ipotesi, rende strumentali i passaggi, registra e storicizza le alternative scartate, facilita la falsificazione. In laboratorio o in ospedale, le interfacce "aumentate" mantengono sempre visibili le trasformazioni sui dati, consentono di forzare o impedire un passaggio, legano indissolubilmente risultati a fonti e parametri per ripercorrere la soluzione, corretta o sbagliata che sia; rendono semplice tornare indietro quando il feedback – umano o strumentale – segnala un errore o una mancanza. La qualità dell’indagine cresce perché cresce la capacità di correggersi.

Dal punto di vista teorico, la scelta dell’unità di analisi decide gli esiti. Se si prende come unità di analisi il mero modello tecnico allora la bontà del sistema è ridotta a metriche di predizione; se invece si adotta il sistema socio-tecnico uomo-macchina nel suo complesso, la bontà include tracciabilità, trasferibilità delle pratiche, sicurezza, resilienza agli imprevisti. È la stessa differenza che corre tra un filtro ottimo “sulla carta” e un dispositivo che, in presenza di rumori e vincoli reali, permette agli operatori di vedere, capire e intervenire in modo affidabile. La cibernetica dà i vincoli formali di stabilità; la simbiosi e l’Intelligence Augmentation danno l’etica e l’ergonomia della conoscenza condivisa.

Il banco di prova di una buona tecnologia non è quando rimpiazza l’umano, ma quanto lo rende capace di formulare domande migliori, tenere insieme più vincoli, rendere conto delle scelte. Questo criterio è oggi più urgente che mai: i sistemi generativi possono certamente accelerare operazione come triage informativi e sintesi, ma il loro uso corretto è quello di moduli in cicli di lavoro progettati per conservare il controllo umano sui fini e per massimizzare la visibilità dei mezzi.

6. Cosa non va nel programma cibernetico

La cibernetica estende in modo eccessivo e inopportuno il paradigma “controllo–-comunicazione” a fenomeni complessi che sono sostanzialmente normativi e sociali. Tratta fini, valori e potere come semplici “variabili di stato” che un regolatore potrebbe mantenere entro soglie. Ma istituzioni e pratiche, etica e volontà umane non sono termostati da regolare: i fini sono sempre oggetto di controversia, cambiano con l’esperienza, si ridefiniscono attraverso negoziazioni e conflitti. Ashby introduce il concetto di varietà e afferma che senza sufficiente varietà nel regolatore, nessun feedback stabilizza davvero un ambiente ricco di perturbazioni; quando la varietà del mondo supera quella del controllore, servono livelli organizzativi superiori (adattamento, apprendimento, ridefinizione dell’assetto), non solo guadagni di anello più “alti”. Il controllo non basta se non è accompagnato da una teoria dell’organizzazione e del cambiamento [8].

Inoltre bisogna stare attenti all'estensione metaforica tra “misura d’informazione” e “conoscenza”. In Cybernetics l’informazione è uno strumento operativo per ridurre l’incertezza e progettare filtri e controlli; in Shannon è una misura sintattica. La conoscenza, invece, è una pratica situata: implica fini, giustificazioni, responsabilità. Scambiare l’una per l’altra produce illusioni ingenue: più bit non significano più conoscenza; la compressione statistica non equivale a comprensione; una stima con errore quadratico minimo non sostituisce il giudizio. Questo è un errore concettuale che oggi riemerge pienamente con i modelli generativi: la capacità di emettere parole in modo fluente viene presa per padronanza semantica. Tenere ferma la distinzione evita di attribuire al formalismo compiti che non ha.

Infine, nella prima cibernetica è spesso sottovalutato il problema della semantica e dell’intenzionalità. La computazione, in quanto manipolazione di forme, non genera di per sé significato né prevede alcun impegno intenzionale. La critica filosofica posteriore a Turing e Wiener è chiara: senza una teoria di come stati fisici diventino stati cognitivi "su qualcosa" per un agente –cioè portare contenuto intenzionale con condizioni di correttezza– restiamo nel dominio del controllo ma non della comprensione. Il fisicalismo in versione puramente riduzionista, che si limita a correlare pensieri e configurazioni materiali, non spiega da solo come tali configurazioni acquisiscano significato per un agente.

Il filosofo Searle ha insistito sul fatto che la sintassi non è sufficiente per l’intenzionalità [15] e Hubert Dreyfus ha ricordato che la competenza umana include abilità incarnate e tacite che non si riducono a regole esplicite [16].

Il punto non è respingere la cibernetica, ovviamente, ma circoscriverne il raggio e considerarla utile nelle strutture di correlazione e feedback, ma muta sui criteri di senso e valore.

Per andare oltre questi limiti verso un rapporto maturo tra umano e computer, è possibile fare riferimento a Winograd & Flores che mostrano che il funzionamento delle organizzazioni e dei sistemi è dovuto in modo essenziale allo scambio di impegni, promesse, richieste. Progettare interfacce uomo-computer significa rendere visibili questi atti linguistici, mantenere tracciabile chi si è impegnato a fare che cosa e con quali condizioni di soddisfazione. È questo il ponte che porta la cibernetica alle pratiche umane: dal feedback come stabilizzazione, al linguaggio dell’azione come coordinamento responsabile [17].

7. Conclusioni

Dell'opera di Wiener, che rimane ancora oggi attuale, va tenuta in conto la grammatica dell'informazione, della retroazione e della stabilità come strumenti concettuali per progettare artefatti affidabili. La metafora feedback–controllo non va considerata però un’immagine avulsa dal suo contesto: è un criterio ingegneristico che obbliga a misurare, confrontare con un riferimento e correggere in modo tracciabile. È la stessa logica che sorregge filtri e stimatori, diagnosi di guasti e progettazione di interfacce che impediscono errori prevedibili.

Va però tenuta in debito conto la prudenza politica di Wiener e i suoi allarmi sulle derive sociali dell’automazione e sulla perdita di responsabilità, ciò che sviluppò soprattutto nelle sue opere mature come The Human Use of Human Beings, nate a seguito del successo della sua cibernetica. Wiener considerò sempre amaro questo successo perché i suoi successori trascinarono ben oltre i propri limiti la sua teoria. Inattese e criticate, nel suo tempo, possiamo ora invece considerare lucide ed efficaci le sue anticipazioni dei problemi che oggi chiameremmo di governance dei sistemi e accountability [18,19]

Ciò che va superato, che è poi ciò che sta più avendo successo oggi, è proprio l'approccio riduzionista: ovvero trattare i fenomeni normativi e le pratiche sociali come se fossero termostati.

L’informazione misura incertezza ma non stabilisce scopi; la teoria del controllo permette di stabilizzare ma non giustificare. Per passare dal “far funzionare bene” al “comprendere in modo affidabile” bisogna integrare la cibernetica con una teoria dell’azione e del significato “situato” in tre linee di ragionamento: la simbiosi e l’augmentazione (Licklider, Engelbart) per fissare l’unità di analisi nel sistema socio–tecnico uomo–macchina; la fenomenologia delle abilità incarnate (Dreyfus; Polanyi) per non scambiare regole con competenza; la progettazione centrata sulle pratiche (Suchman [20]; Winograd & Flores) per legare linguaggio, impegno e interfacce.

Tecnologi e scienziati, che perdono se stessi nei facili entusiasmi per la sostituzione dell’umano, dovrebbero piuttosto impegnarsi ad aumentare la capacità umana di vedere meglio i dati rilevanti, di formulare domande migliori, di tenere insieme vincoli, di tener tracciare del ragionamento e di correggersi in tempo. Ma un mondo che ha idolatrato esclusivamente le competenze “hard”, e l'illusione di poter “verificare” la realtà, avrà purtroppo grandi difficoltà ad ammettere che le competenze “soft” e la capacità di trovare accordi intersoggettivi, sono altrettanto fondamentali.

La cibernetica di Wiener è una base solida solo quando se ne accettano i confini e quando sarà possibile saldarla ad una progettazione che espliciti fini, responsabilità e condizioni di correttezza.

Solo così l'Intelligence Augmentation smette così di essere uno slogan e diventa un metodo di lavoro.


Nota bibliografica

  1. Wiener, Norbert. Cybernetics; or, Control and Communication in the Animal and the Machine. The Technology Press (MIT) & John Wiley, 1948; 2nd rev. ed. 1961; reissue, MIT Press, 2019. Scheda MIT Press (PDF: download). Ed. it.: La cibernetica. Controllo e comunicazione nell’animale e nella macchina. Il Saggiatore, 1968 e ristampe.
  2. Engelbart, Douglas C. Augmenting Human Intellect: A Conceptual Framework. Summary Report AFOSR-3233, Stanford Research Institute, 1962. (PDF: download).
  3. Shannon, Claude E., and Warren Weaver. The Mathematical Theory of Communication. University of Illinois Press, 1949.
  4. von Neumann, John. The Computer and the Brain. Yale University Press, 1958.
  5. Rosenblueth, Arturo, Norbert Wiener, and Julian Bigelow. “[Behavior, Purpose and Teleology].” Philosophy of Science, vol. 10, no. 1, 1943, pp. 18–24. JSTOR.
  6. Wiener, Norbert. Extrapolation, Interpolation, and Smoothing of Stationary Time Series. MIT Press, 1949 (rist. 1964 e successive).
  7. Maxwell, James Clerk. “On Governors.” Proceedings of the Royal Society of London, vol. 16, 1868, pp. 270–283. (Rist. in The Scientific Papers of J. C. Maxwell, vol. II, Cambridge University Press, 1890).
  8. Ashby, W. Ross. An Introduction to Cybernetics. Chapman & Hall, 1956; U.S. ed., J. Wiley, 1956. (PDF: Archive.org). Ed. it.: Introduzione alla cibernetica. Varie edizioni.
  9. Ashby, W. Ross. Design for a Brain: The Origin of Adaptive Behaviour. Chapman & Hall, 1952; 2nd ed., 1960.
  10. Kalman, Rudolf E. “A New Approach to Linear Filtering and Prediction Problems.” ASME Journal of Basic Engineering, vol. 82, 1960, pp. 35–45. DOI.
  11. McCulloch, Warren S., and Walter Pitts. “A Logical Calculus of the Ideas Immanent in Nervous Activity.” The Bulletin of Mathematical Biophysics, vol. 5, 1943, pp. 115–133. Springer.
  12. Turing, Alan M. “Computing Machinery and Intelligence.” Mind, vol. 59, 1950, pp. 433–460. Oxford Academic.
  13. Bateson, Gregory. Steps to an Ecology of Mind. University of Chicago Press, 2000 (ed. orig. Chandler, 1972). Ed. it.: Verso un’ecologia della mente. Adelphi, varie ristampe.
  14. Licklider, J. C. R. “Man-Computer Symbiosis.” IRE Transactions on Human Factors in Electronics, vol. HFE-1, 1960, pp. 4–11. (PDF: download).
  15. Searle, John R. The Rediscovery of the Mind. MIT Press, 1992. Ed. it.: La riscoperta della mente. Bollati Boringhieri.
  16. Dreyfus, Hubert L. What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press, 1992 (rev. and expanded). Ed. it.: Che cosa i computer non sanno. Mondadori / Anabasi (ediz. storiche).
  17. Winograd, Terry, and Fernando Flores. Understanding Computers and Cognition: A New Foundation for Design. Addison-Wesley, 1987. Ed. it.: traduzioni varie.
  18. Wiener, Norbert. The Human Use of Human Beings: Cybernetics and Society. Houghton Mifflin, 1950; rev. ed., 1954; anniversary ed., HarperCollins, Ed. it.: L’uso umano degli esseri umani. Varie edizioni.
  19. Wiener, Norbert. God & Golem, Inc.. MIT Press, 1964.
  20. Suchman, Lucy A. Plans and Situated Actions: The Problem of Human-Machine Communication. Cambridge University Press, 1987; 2nd ed. as Human-Machine Reconfigurations, 2007.