Tutto iniziò con una scatola nera

Tutto iniziò con una scatola nera LA STORIA DEL COMPUTER Tutto iniziò con una scatola nera Reti neuronali, imitazione del sistema nervoso FINO alla prima metà del secolo XX le macchine calcolatrici erano progettate e costruite per svolgere compiti specifici; ad esempio, il calcolo di un numero sempre maggiore di funzioni aritmetiche. Una data macchina poteva svolgere soltanto i compiti per i quali era stata pensata, e per potenziarne le capacità era necessario passare a macchine più complesse. La svolta rivoluzionaria avvenne nel 1936, con la tesi di laurea del ventiquattrenne Alan Turing. L'idea geniale di Turing fu che non era necessario costruire sempre nuove macchine: bastava costruire una sola macchina universale, che fosse in grado di obbedire ad ordini espressi sotto forma di programmi. Per eseguire un nuovo compito non era dunque più necessario costruire una nuova macchina: bastava scrivere un nuovo programma. Il lavoro di Turing era però essenzialmente teorico: egli descrisse il progetto di una macchina universale a partire da una scatola nera che fosse in grado di eseguire alcuni compiti elementari, quali scrivere e leggere simboli scritti su fogli quadrettati, e con una capacità rudimentale di memoria interna. La macchina universale sarebbe dunque rimasta sulla carta, fino a che non si fosse trovato il modo di realizzare fisicamente il suo nucleo di partenza. Il problema pratico della costruzione della scatola nera fu risolto nel 1943 dal neurofisiologo Warren McCulloch e dal matematico Walter Pitts, con le reti neuronali. Poiché si trattava di fornire alla macchina di Turing un «cervello» in grado di guidarla nell'esecuzione dei suoi compiti, essi proposero un modello astratto di sistema nervoso, basato su una semplificazione di quello umano, e mostrarono che lo si poteva sintetizzare mediante fili elettrici, le cui connessioni prendono il posto dei neuroni, e in cui il passaggio o meno di una corrente elettrica prende il posto della presenza o assenza di una risposta. Il computer, che non a caso agli inizi veniva chiamato cervello elettronico, non è altro che la realizzazione pratica del sistema composto dalla macchina di Turing e dalla rete neuronale di McCulloch e Pitts: quest'ultima fornisce alla prima un cer¬ vello in grado di eseguire le decisioni logiche più elementari, grazie al quale la macchina è in grado di effettuare tutti i compiti meccanici possibili, espressi sotto forma di programmi. Il modello di McCulloch e Pitts era estremamente semplificato: esso supponeva che i neuroni artificiali si attivassero o disattivassero istantaneamente, fossero a prova di errore, avessero una soglia sinaptica fissa, ed agissero in sintonia con gli altri neuroni della rete. Tali caratteristiche rendevano, allo stesso tempo, le reti neuronali pratiche da usare nell'ingegneria informatica, ma irrealistiche da proporre come modelli del sistema nervoso umano. Alcune delle semplificazioni vennero eliminate nel primo dopoguerra. Nel 1949 il neurofisiologo Donald Hebb propose un modello in cui la soglia sinaptica era variabile, e modificabile in base ad un meccanismo di stimolo e risposta: il che permise di fornire una rappresentazione della memoria a lungo termine. Nel 1956 John von Neumann propose invece un modello in cui i neuroni potevano commettere errori di risposta, e mostrò che la fallibilità delle componenti della rete poteva essere aggirata mediante una loro ridondanza: una soluzione che si rivelò essere proprio quella usata dal sistema nervoso. Le reti neuronali sembravano dunque destinate a svolgere un ruolo fondamentale nella modellizzazione del cervello, soprattutto nella versione elaborata nel 1958 da Frank Rosenblatt, con il nome diperceffrom. Ma nel 1969 una vera e propria truffa intellettuale fu posta in atto contro di essi da Marvin Minsky; conscio del fatto che l'approccio mediante le reti neuronali era alternativo al progetto dell'Intelligenza Artificiale, di cui egli era uno dei padri fondatori, Minsky scrisse un libello con Seymour Papert contro i percettroni, in cui provava matematicamente le limitazioni di un tipo particolare, e traeva poi ingiustificate conclusioni negative sul tipo generale. Come disinformazione il libro ebbe un grande successo, e riuscì nell'intento di dirottare i finanziamenti di ricerca sull'Intelligenza Artificiale. Soltanto negli Anni 80, dopo il fallimento di quest'ultima, il progetto delle reti neuronali riprese vigore, soprattutto grazie ai generali modelli di John Hopfield: essi permettono ai neuroni artificiali di attivarsi o disattivarsi in maniera graduata, di essere fallibili, di avere una soglia sinaptica variabile, e di agire in maniera asincrona dagli altri neuroni della rete. Proprio grazie a questi realistici modelli il connessionismo può oggi sperare di ottenere una efficace descrizione del funzionamento del cervello umano, o almeno di alcuni suoi aspetti essenziali, in termini di reti neuronali. Piergiorgio Odifreddi Università di Torino In alto, a sinistra John Hopfield, a destra Alan Turing, nella foto al centro sulla destra Walter Pitts con Jerome Lettvin e nell'immagine in basso Donald Hebb In alto, a sinistra John Hopfield, a destra Alan Turing, nella foto al centro sulla destra Walter Pitts con Jerome Lettvin e nell'immagine in basso Donald Hebb

Luoghi citati: Torino