A che punto è l'uomo artificiale

A che punto è l'uomo artificiale I progressi elettronici e informatici nella simulazione dei processi vitali A che punto è l'uomo artificiale UN missile atomico inesploso sprofonda nel sottosuolo degli Stati Uniti. La radioattività espone a gravissimo pericolo la spedizione di recupero. Il ministero della Difesa affida a un robot la delicata missione. L'automa è guidato a distanza attraverso complessi dispositivi a retroazione. Grazie ad essi, il pilota, dal laboratorio, vede, sente e lavora come se si trovasse sul luogo del disastro. I «video-oculari» proiettano sulla retina le immagini raccolte dalle telecamere del robot; queste, a loro volta, ripetono fedelmente ogni movimento dell'occhio. La «tattopelle» trasmette all'uomo tutte le sensazioni tattili «provate» dall'automa: calore, durezza, umidità. Uno speciale «Simulatore» fa compiere al robot gli stessi movimenti del pilota. Così narra David Sanford in un famoso racconto di fantascienza: grazie a questi dispositivi, l'operazione di recupero andrà a buon fine. Secondo Marvin Mins-ki, uno dei padri dell'Intelligenza Artificiale, la vicenda non è inverosimile. Minski parla di «telepresenza» per indicare tutti gli strumenti grazie ai quali sarà possibile, un giorno, lavorare in un'altra stanza, in un'altra città, in un altro Paese o su un altro pianeta, senza spostarsi di un centimetro. Alcuni centri di ricerca americani stanno studiando nuovi e rivoluzionari sistemi di interfaccia elettronica, che sembrano confermare l'ottimismo di Minski. Vediamo di che cosa si tratta. Vista artificiale. AU'Ames Research Center della Nasa, è stato messo a punto un visore non dissimile dai «videoculari» immaginati da Sanford. Con esso, si può vedere attraverso gli «occhi» di un robot. Oppure ci si può «immergere» in modo efficace nelle immagini simulate da un calcolatore: un laboratorio artificiale, un modello molecolare, un velivolo da combattimento. Il dispositivo viene fissato sugli occhi dell'operatore come una maschera. Un sensore elettronico registra i movimenti della testa e consente di «scorrere» il panorama a 360 gradi. Il sensore capta gli impulsi elettromagnetici inviati dal robot o dal calcolatore e li traduce in immagini tridimensionali. Gli impulsi visivi sono per ora trasmessi a una frequenza di quaranta volte il secondo e le immagini si muovono quindi a piccoli scatti: è come guardare un film al quale siano stati sottratti 'alcuni fotogrammi. Bisognerà arrivare a sessanta impulsi il secondo per ottenere un movimento continuo e naturale. Ma i problemi non finiscono qui: spesso gli occhi si muovono indipendentemente dagli spostamenti della testa, i soli che il visore, a tutt'oggi, è in grado di percepire. Si stanno quindi studiando dei dispositivi che, proiettando sulla cornea sottili fasci di luce, possano captare tutti i movimenti oculari, anche quelli impercettibili. Manipolazione artificiale. Un secondo filone di ricerca sulle interfacce avanzate è rappresentato dai sistemi di manipolazione delle immagini: per intenderci, i futuri discendenti delle attuali tastiere. I dispositivi attualmente in commercio hanno un campo d'azione bidimensionale. Anche il «mouse» o il «joystick», interfacce «amichevoli» per antonomasia, non si sottraggono a questo limite. Ciò non costituirà un pro¬ blema fino a quando si lavorerà su schermi che non offrono la sensazione della profondità. Ma quando, con visori simili a quello studiato dalla Nasa, ci si immergerà ih simulazioni così efficaci da sembrare reali, sarà difficile accontentarsi degli attuali, rozzi manipolatori. Alla californiana VPL Research hanno anticipato- i tempi reinventando il miglior strumento di cui l'uomo dispone per operare sul mondo che lo circondarla mano stessa. L'idea di base del loro «DataGlove» è tanto semplice quanto, geniale. Fibre ottiche flessibili scorrono lungo le dita di un guanto. Alla loro estremità, in corrispondenza dei polpastrelli, un Led emette impulsi luminosi. Questi, quando le dita si piegano, si disperdono in corrispondenza delle articolazioni in misura crescente con l'entità della flessione. Le variazioni della radiazione luminosa vengono percepite da un fototransistor che le traduce in un segnale elettrico comprensibile al calcolatore. In base a questi segnali, il computer rappresenta sullo schermo l'immagine di una mano perfettamente simulata, che riproduce con naturalezza i movimenti dell'operatore spostando oggetti, scegliendo «menù», indicando i numeri su cui svolgere i calcoli. Dopo le prime, incoraggianti prove, la VPL sta studiando un'intera tuta realizzata sullo stesso principio. Alla Nasa sognano di abbinarla al loro visore per poter un giorno inviare robot teleguidati a lavorare al di fuori delle stazioni spaziali. Una simile prospettiva è ancora lontana. Ci si può invece chiedere quali possano essere le applicazioni a breve termine di queste meraviglie dell'elettronica. Prospettive. Vi sono problemi scientifici che possono essere studiati mediante simulazioni e che richiedono un elevato grado di interazione tra uomo e macchina. Si pensi all'analisi di flussi aerodinamici o di strutture meccaniche: l'operatore potrebbe studiarne i modelli muovendoli e osservandoli da diverse angolazioni. Le interfacce avanzate potrebbero realizzare modelli concreti di equazioni matematiche, fornire rappresentazioni intuitive di complessi problemi geometrici o consentire dì trattare con pari facilità le stelle di una galassia e le particelle di un atomo. Giulio C. Della Morte

Persone citate: David Sanford, Della Morte, Marvin Mins-ki, Sanford

Luoghi citati: Stati Uniti