Quali sono le caratteristiche che dovrebbe avere una ricostruzione tridimensionale in archeologia?

Una delle sostanziali differenze fra un lavoro digitale e un lavoro analogico è il supporto: non si tratta di informazioni legate al supporto fisico ma ad informazioni che possono essere copiate n volte su differenti supporti senza minimamente perdere qualità. Quello che però al momento sembra un enorme vantaggio può, col tempo diventare un problema.

Nonostante possano contenere un volume di dati molto elevato rispetto ai supporti tradizionali (come i cartacei ad esempio), quelli digitali hanno una durata di solo poche decine di anni. Questo non li rende idonei a contenere documenti destinati alla conservazione: bisognerebbe dunque prevedere ciclicamente il loro riversamento su nuovi supporti, preferibilmente di volta in volta più capienti ed aggiornati, al passo con le innovazioni tecnologiche.

Inoltre, anche ipotizzando che i dati siano conservati unicamente su supporti non riscrivibili, resta comunque il pericolo che essi possano subire delle alterazioni durante i vari riversamenti, privando quindi di autorevolezza il supporto.

Per ovviare a questa carenza non resta che affidarsi agli addetti alla conservazione dei dati e fidarsi del sistema di custodia dei supporti sui quali essi sono conservati.

Data la nota deperibilità degli archivi informatici, essi vanno continuamente rinnovati prevedendo il riversamento su nuovi supporti.

Se è possibile recuperare informazioni da un archivio cartaceo scoperto dopo secoli, è impossibile che ciò avvenga per quelli digitali non adeguatamente custoditi. A differenza dei supporti di dati analogici, il cui degrado è progressivo e la cui immagine svanisce col tempo, quelli digitali, specie se compressi, vengono irrimediabilmente smarriti nella loro interezza.

Oltre al deperimento dei supporti sono numerosi i problemi di cui tener conto: il fattore umano1, la veloce trasformazione dei supporti hardware, quella ancora più veloce dei software.

L’informazione digitale, diversamente dal documento materiale che spesso è possibile ritrovare anche per caso dopo secoli, ha bisogno di un atto di volontà per essere tramandato e per non svanire definitivamente. La risorsa digitale, per durare nel tempo, deve mantenere:

· vitalità: integrità di tutti i bit;

· traducibilità: leggibilità da parte dell’elaboratore;

· autenticità: collegamenti a metadati validanti;

· fruibilità.

L’avvicendarsi dei diversi formati creati per la grafica 3D, specialmente per una fruizione dalla rete, rende attuale la questione della fruibilità nel tempo dei modelli tridimensionali2.

Un modo per salvaguardare tale fruibilità nel tempo, potrebbe dunque essere l’unione tra tecnologia open source3 e i più diffusi software commerciali.

L’open source è un mondo estremamente dinamico e in continua evoluzione che, grazie alla numerosa comunità che lo supporta, offre una efficace garanzia di longevità per i modelli e per la loro fruizione. Al tempo stesso, l’uso di software commerciali con un ampio bacino di clienti rassicura la loro convertibilità nel caso di variazioni nel tempo degli standard di archiviazione (Liguori M. 20082).

Il recente sviluppo del 3D e della Realtà Virtuale è dovuto ad una serie di cambiamenti della società. La legge sull’aumento della potenza dei processori4, e sul loro costo in diminuzione, è ormai nota. Ciò che però nello specifico ha permesso di usare strumenti per grafica tridimensionale anche su semplicissimi personal computer è l’abbassamento dei prezzi delle schede grafiche, promosso dall’aumento vertiginoso del mercato dei videogiochi5 a sua volta dovuto, appunto, a quel cambiamento della società di cui si diceva prima: più tempo libero, propensione al loro uso da parte di un’utenza anche adulta e non più esclusivo dei bambini e degli adolescenti, così com’era fino a pochi anni fa.

Il mercato dei videogiochi che sfruttano sempre di più grafica 3D, infatti, ha dato un notevole impulso alla diffusione di hardware a basso costo; la crescita inaspettata di questo tipo di tecnologia rende ora il suo uso possibile anche ai fini scientifici e storici.

Si può disporre quindi di un’alta potenza di calcolo che, pur mantenendo un prezzo basso (PC di fascia media), è per molti versi superiore a quella dei costosissimi supercomputer di alcuni anni fa(Guidazzoli A. 2007).

Lo sviluppo di software e hardware dal punto di vista tecnologico è stato seguito da quello del mercato per merito ed in conseguenza dell’aumento del loro utilizzo fino ad introdurre la loro presenza nelle vite di tutti i giorni. Operazioni che pochi anni fa richiedevano personale specializzato e apparecchiature professionali oggi possono essere realizzate su un personal computer di fascia media, con software open source, semplicemente seguendo dei tutorial sul web. L’apprendimento e l’utilizzo di queste nuove tecnologie possono dare vita a nuove figure professionali, nonché a nuovi posti di lavoro nel campo dei beni culturali; ciò costituisce un fatto ancora più rilevante per un settore nel quale oggi è difficile trovare un inserimento  lavorativo, specialmente al di fuori dell’ambiente accademico.

Il legame tra archeologia e tecnologia diventa sempre più inscindibile, ma non si tratta di un rapporto facile, non è ben chiaro se siano direttamente gli archeologi a dovere svolgere mansioni prettamente tecniche o se sia più opportuno affidarsi ad esperti esterni.

La possibilità da parte degli archeologi di intervenire in prima persona sullo sviluppo del software, o quantomeno di comprenderne i meccanismi di progettazione, modifica i termini di quel rapporto che negli anni scorsi è intercorso tra le figure professionali tradizionali del mondo dell’informatica e quello dell’archeologia. Questo si rivela essere la premessa che da ai “Metodi informatici della ricerca archeologica” quel pieno titolo e quella dignità disciplinare che ne può consentire l’inserimento tra gli insegnamenti caratterizzanti per l’iter formativo universitario dell’archeologo (Gottarelli A. 2009).

La velocità di evoluzione tecnologica è spesso superiore ai progressi metodologici di molte discipline, con particolare riguardo per quelle umanistiche. Questo significa che i percorsi di formazione universitaria e post-universitaria difficilmente riescono a tenere il passo dell’uso multidisciplinare delle tecnologie digitali e questo comporta una mancanza di sincronia tra i processi metodologici e quelli tecnologici.

Ad esempio è molto raro nelle università italiane poter approfondire le molteplici relazioni fra geometria cognitiva dell’informazione archeologica, tecniche di documentazione, percezione e comunicazione di modelli prodotti da metodologie differenti (Forte M. 2006).

È plausibile ritenere che le occasioni mancate dall’Archeologia Virtuale di affermarsi definitivamente in ambito accademico siano da attribuire alla netta separazione di competenze fra archeologi e informatici e dell’inesistenza di figure interdisciplinari di collegamento.

Gli archeologi coinvolti in quei nuovi progetti che prevedono l’applicazione delle tecnologie informatiche al loro ambito di competenza non solo devono conoscere in dettaglio le tecnologie digitali, ma devono anche partecipare a tutte le fasi di elaborazione delle informazioni, a partire dalla progettazione fino all’acquisizione digitale dei dati sul campo (Forte M. 2000).


[1] Un caso esemplare si può leggere nell’articolo: Dead Men Tell No Passwords. Il direttore dell’archiviazione e della gestione delle copie elettroniche dei documenti storici più importanti di tutta la Norvegia, Ottar Grepstad, morì senza lasciare a nessuno la propria password. Il direttore del centro culturale norvegese finì per chiedere aiuto a degli hacker per accedere alla banca dati del centro protetta appunto da questa password. Dal sito:www.wired.com/science/discoveries/news/2002/06/52997.

[2] Questi sono i punti principali che la Carta di Londra sta cercando di formulare delle linee guida nel processo di elaborazione della visualizzazione tridimensionale. Sembra dunque sempre più importante che essa venga accompagnata da un’attenta analisi dei formati e dei vari standard. Dal sito: www.londonchart.org.

[3] L’Open sourcein informatica(traduzione letterale: sorgente aperta) è un software che, attraverso un particolare sistema di licenze d’uso, può essere liberamente studiato e modificato da altri programmatori indipendenti. Il prodotto finale risulta dunque arricchito dall’apporto di più parti e può diversificarsi a seconda dei fini del suo ultimo utilizzatore. L’open source è legato strettamente ad Internet che permette a programmatori anche molto distanti geograficamente tra loro di lavorare al medesimo progetto. La comunità open source, comprende decine di migliaia di progetti, numero che aumenta costantemente.Wikipedia è un chiaro esempio dei frutti di tale movimento. L’open source tende ad avere quasi una connotazione filosofica, una nuova concezione della vita, aperta e contraria ad ogni oscurantismo, che propone la condivisione della conoscenza. Dal sito Wikipedia:http://it.wikipedia.org/wiki/Open_source.

[4] Gordon Moore, co-fondatore di Intel , nel 1965, aveva predetto che il numero di transistorinseriti in un chip sarebbe raddoppiato circa ogni due anni. Questa previsione, nota come la Legge di Moore ha favorito la rivoluzione mondiale della tecnologia. Da sito:http://www.intel.com/cd/corporate/techtrends/emea/ita/209838.htm.

[5] Il mercato dei videogiochi ha da qualche anno superato quello del cinema sia in Italia che nel resto del mondo. Fonte: AESVI Associazione Editori Software Videoludico Italiana. Sito:www.aesvi.it.

By Massimiliano Montanari


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*

Leggi articolo precedente:
archeologia virtuale
Perché e a quale scopo ricostruire?

Potrebbe sembrare semplice rispondere ad una domanda di questo tipo, o che la risposta possa essere scontata, ma in realtà...

Chiudi