L'Archivio Internet di Fabio Di Giammarco

L'Archivio Internet SOCIETÀ' DELL'INFORMAZIONE | LA SFIDA DI DOCUMENTARE LA STORIA DEL WEB L'Archivio Internet UN'IMPRESATITANICA AL SERVIZIO DEGLI STUDIOSI DELL'ERA TECNOLOGICA Fabio Di Giammarco GLI antichi manoscritti della Biblioteca di Alessandria furono incendiati, gran parte dei primi prodotti della stampa non si salvarono e molti dei primi film furono riciclati per recuperare l'argento contenuto nelle pellicole. Mentre il World Wide Web di Internet non ha precedenti nel diffondere la voce popolare di milioni di persone che prima non sarebbe mai stata resa pubbhca, nessuno provvedeva a conservare questa enorme massa di documenti e immagini. L'Intemet Archive è un'organizzazione che sta raccogliendo i materiah ad accesso pubblico presenti su Internet per costruire una biblioteca digitale». Con queste parole, Brewster Kahle, studente modello del MIT (Massachusetts Istitute of Technology), annunciava, nel 1997, sulla rivista "Scientifìc American", l'avvio del suo "visionario" progetto: l'Intemet Archive (www.archive.org), versione tecnologica dell'intramontabile mito della biblioteca universale. Con l'esplosione di Internet e il rapidissimo sviluppo del Web, era prevedibile che l'antica aspirazione a immagazzinare, in qualche luogo e in qualche modo l'intero scibile umano si riaffacciasse in forma di progetti dove tecnica ed utopia si ricombinassero tra loro con prospettive nuove. E quello di Brewster Kahle è sembrato subito avere il dono della migliore alchimia riproponendo gh echi provenienti dalla "Biblioteca di Babele" di borgesiana memoria ma con le potenzialità delle nuove tecnologie della comunicazione, dando l'eccitante impressione di poter ottenere il corrispettivo digitale di quel luogo illimitato comprendente tutti i libri scritti e quelh ancora dà scrivere.' Ma con un concreto obiettivo: contrastare la naturale evanescenza del Web archiviandone l'intero contenuto per conservare la testimonianza di Internet come fenomeno storico complessivo a beneficio dei contemporanei e soprattutto delle generazioni future. Il lavoro iniziato nel 1996 va avanti spedito con la cattura del maggior numero possibile di siti senza alcun criterio selettivo e prescindendo dai contenuti più o meno effìmeri. Unica condizione: che facciano parte dell'area Web ad accesso libero. Dal punto di vista tecnico, per affrontare una sfida del genere, l'Intemet Archive ha dispiegato un piccolo ma agguerrito schieramento hardware e software che ha al suo centro dei software-robot installati su circa 140 computer, chiamati "crawler Internet", in grado di "strisciare Internet", cioè di passarla al setaccio 24 ore su 24. Le pagine web così catturate sono poi duplicate e immediatamente riversate su nastri magnetici che una volta pieni vengono prelevati e sostituiti con nuove cartucce da un sistema automatizzato di bracci meccanici. I dati memorizzati sono poi conservati in dozzi¬ ne di server paralleli collocati intenzionalmente lungo degh scaffali per ricreare, con questo semplice accorgimento, all'interno della sede dell'Intemet Archive, un'atmosfera che ricordi l'ambiente della biblioteca. Dal 1996 ad oggi è stata già archiviata una mole di dati corrispondente a 10 miliardi di pagine per un totale di 150 terabyte. Inoltre sono stati anche realizzati alcuni immagazzinamenti tematici: 200 milioni di pagine siillè"ultime elezioni Usa, 16 milioni di messaggi scambiati dai navigatori della rete Usenet, cinquemila pagine sulla storia della rete Aipanet, la gloriosa antenata di Internet. E poi, come collezione speciale, 500 milioni di pagine dedicate all'I 1 settembre 2001 ; "September 11 web archive" (http ■.//weh. archive. org/collections/sep 11 .html), provenienti da 30 mila siti "strisciati" dall'Hall dicembre 2001. Una tale massa d'informazioni, via via che si veniva formando, non poteva non porre il problema dell'accesso. La questione è stata risolta efficacemente nell'ottobre del 2001 con la messa online della "wayback machine", un motore di ricerca disponibile sul sito dell'Internet Archive che consente di richiamare da lontano le pagine web archiviate utilizzando sia la loro URL che la data dì memorizzazione, e in più fa scoprire il fascino di visitare siti che non esistono più o che sono ormai radicalmente mutati, ribaltando anche in questo modo la logica effimera del Web. Ci sono però delle nubi che si stanno addensando sul miracolo di conservazione fin qui compiuto dall'Intemet Archi¬ ve, nubi che hanno il minaccioso profilo della privacy e del copyright. E se riguardo alla questione privacy Kahle ha sempre affermato che il materiale raccolto è di dominio pubbhcò, che esistono dei programmi capaci di impedire il lavoro dei crawler e per di più ogni webmaster può far richiesta alla società di eliminare in qualsiasi momento i propri file dall'archivio, resta comunque la violazione del "Digital Millennium Copyright -Act" (la legge statunitense sul diritto d'autore). Per essere in regola l'Internet Archive dovrebbe corrispondere i diritti per ciascun documento copiato. Lo stesso Copyright Office si è reso conto delle immani difficoltà oggettive del caso, e ha così concesso a Kahle una deroga alla legge, ma soltanto fino al 2006. UNO STUDENTE DEL MIT NEL 1997 HA LANCIATO L'IDEA DI CONSERVARE IN UNA APPOSITA BANCA DATI TUTTI I DOCUMENTI CHE NEGLI ANNI SONO ANDATI IN RETE: SIAMO GIÀ A10 MILIARDI DI PAGINE PER UN TOTALE D1150 TERABYTE MA ALL'ORIZZONTE CE UNA NUBE... Conservare la memoria storica dell'intero Web, sfida ardua

Persone citate: Brewster Kahle, Kahle, September, Wide

Luoghi citati: Massachusetts