La labor de transmisión del saber realizada en los monasterios a lo largo de la Edad Media logró conservar parte del saber clásico, aumentado o modificado en ocasiones a través de las traducciones de árabes y sefardíes. En este sentido, los miles de amanuenses obraron como ángeles en la tierra, en su sentido etimológico de mensajeros.
Si un monje altomedieval no tenía a su alcance otra posibilidad que el trabajo con tinta y pergamino, en la actualidad las opciones de un gestor de la información (escritor, traductor, editor, documentalista) son múltiples y se encuentran, además, muy abiertas a las transformaciones venideras. El segundo paso, de importancia al menos similar al primero de producir o establecer un texto (original, copia o traducción), consiste en establecer la «forma» en que ese ángel debe portar la especie. Es decir, cómo debe convertirse en documento para facilitar su conservación o difusión.
Los materiales bibliográficos basados en soportes de pasta vegetal, considerados tradicionales durante los dos últimos siglos, tienen su vida tasada. Mucho más económico, pero muy diferente del papel de tina previo a 1830 o al lujoso pergamino, el soporte de celulosa –muy ácido debido a un pH muy bajo– sufre una rápida degradación, acelerada por los niveles actuales de contaminación. Los papeles ecológicos y reciclados se destruyen con mayor rapidez incluso. Las publicaciones «bajo demanda», realizadas en xerocopia sobre celulosa, agravan el problema al suprimir la tinta gráfica y tienen una vida estimada de cien años, según sus condiciones de conservación. La primera decisión, por tanto, a la hora de generar o reproducir un documento es elegir entre dos tipos de soporte: en celulosa o digitales (bronce, piedra y piel han quedado para textos conmemorativos y ornamentales).
Si se elige la opción de la celulosa, hay que tener en cuenta la oxidación y destrucción a corto plazo del papel actual. La solución está en una cuidada impresión offset –la tipografía es ya impracticable– sobre «papel permanente» fabricado según la ISO 9706: 1994, que desacidifica la pasta (2% de reserva alcalina, supresión de la lignina) y establece un estándar de calidad (pruebas de rasgado y doblado) que asegura su conservación. El papel permanente ofrece como contrapartidas que el proceso de blanqueado tiene un gran impacto en el medio ambiente y que los costes lo convierten en prohibitivo para obras amplias. Se trabaja ahora en la ISO/FDIS 11798, con la premisa de abaratar los costes manteniendo las bondades de este papel. [1]
La segunda opción, su digitalización, que aporta enormes ventajas técnicas (económicas, medioambientales, de distribución) e intelectuales (enorme difusión, consulta automatizada, «accesibilidad ubicua», posibilidades de actualización permanente, etc.). Las tecnologías denominadas «e-paper» o «e-ink» son accesibles desde 2003, aunque muy caras aún, y se calcula que en 2011 serán el nuevo estándar. Permiten desarrollar pantallas ultraplanas, flexibles y muy legibles, que sustituyen al papel. La multinacional Xerox fue pionera en su desarrollo en blanco y negro, basado en un papel con esferas que giran (Gyricon). La competencia en «e-ink» se basa en cápsulas de titanio asociadas a transmisores. Esta tecnología ofrece mayor resolución que la de Xerox. En la actualidad, se fabrica en plantas alemanas y ya existen versiones en color desarrolladas por LG Philips: se trata de un LCD flexible de 0,3 mm de anchura y tamaño DinA4. En paralelo al desarrollo tecnológico, comienzan a desarrollarse bibliotecas para leer en pantalla y algunos sistemas de lectura combinan el concepto con el formato pdf. [Ve iLiad y Kindle. Descarga aquí cómo funciona la tinta electronica en un swf de Eroski y arrastra a Mozilla el archivo.]
Si se opta por la digitalización, existen varios formatos digitales entre los que elegir, que proporcionan soluciones muy diferentes a la hora de su lectura. Podemos agrupar los distintos formatos en tres grandes tipos: gráficos, mixtos y textos digitales.
- Formato gráfico. También llamado «modo imagen», reproduce un original conservando su estructura. Es el formato por excelencia para reproducir imágenes analógicas en soporte digital, pero completamente limitado para reproducir textos navegables o manipulables. Durante años, la microfilmación ha ofrecido una solución extraordinaria para la consulta de documentos antiguos. La xerocopia ha abaratado la reproducción gráfica de documentos, a costa de deteriorar el original (exposición a la luz, el calor, el manipulado). Los formatos gráficos digitales han permitido multiplicar la difusión (CD, DVD, Blue-Ray, internet) y abaratar enormemente los costes. Entre otros formatos, destacan: tiff (Tagged Image File Format, de Aldus, almacena en 48 bits, color y en capas), por su calidad y ser el estándar, aunque ocupa demasiado; eps (Encapsulated Postcript, de Adobe) junto al anterior, es el estándar en maquetación; gif, el formato de Compuserve para imágenes sencillas de 8 bits y con fondos transparentes: iconos, dibujos, logos, etc.; jpeg (The Joint Photographers Experts Group, comprime hasta el 10% del original sin que el ojo humano perciba diferencias) y png (Portable Network, por su versatilidad y «peso» en 24 bits, aunque no permite imágenes animadas). [Visita unos ejemplos en Flickr y en el blog de Julio Castello]
Los errores o retoques en el proceso mecánico han generado graves errores en las ediciones de texto (por ejemplo, en la traducción de Astérix o en las ediciones de clásicos). Para los nuevos contenidos, se emplean los formatos con movimiento (el conocido swf de Macromedia Flash), muy visuales, pero que repelen parcialmente a los buscadores electrónicos (boots). Un ejemplo de conversor gratuito web 2.0 de swf a partir de pdf es Issuu. El ámbito audiovisual digital, que combina imágenes, texto digital, sonido y síntesis de imagen, se desarrollará en un futuro de forma revolucionaria.
-
Formatos mixtos. La mejor opción para los textos antiguos: combinar la reproducción en imagen con un texto editado mediante un tratamiento de textos, que permita su navegación y reutilización. El formato mixto explota las posibilidades de la desmaterialización (recursos gráficos, divulgación y almacenamiento), pero mantiene los usos de lectura tradicionales. Es el empleado por los grandes centros virtuales y por el proyecto Admyte. Hay otras posibilidades, como la imitación del papel en pantallas convencionales o en las nuevas de tipo «e-ink» [supra]. El formato más extendido es el pdf de Adobe. Se trata de un formato mixto que imita la disposición en página propia de un impreso, en lugar de la navegable de html, y que permite la combinación de gráficos e hipertexto, con lo que puede publicarse un texto completo junto con su imagen facsimilar. Su objetivo era facilitar archivos entre sistemas operativos diferentes. Desde los años noventa es un estándar, pero ofrece como obstáculos las posibilidades de bloqueo y que las herramientas de búsqueda, consulta o concordancias son aún bastante limitadas. En textos configurados a partir de tratamientos de texto o DTP, la conversión es automática, instantánea y gratuita. Existen otros formatos; incluso se aprovecha el programa power point para imitar la tradicional disposición en página (Interlectores), sin su soporte físico. - Textos y Bases de datos digitales. La única solución para los nuevos repositorios de saber. Más que de una técnica de digitalización, se trata de una nueva escritura digital, muy diferente de la actual. Su estructura como verdadero documento digital, proporciona ventajas enormes de accesibilidad, búsqueda, consulta, etc. Permiten una construcción multimedia (imágenes, vídeo, sonido, etc.), incorporar hipertexto (fundamental en enciclopedias), notas simultáneas, editores contributivos y descentralizados para su actualización (algunos gratuitos, como wikia), etc. Y, por tanto, la creación de nuevos scriptoria digitales. Desde el punto de vista del lector, el acceso dinámico de las bases de datos permite una adecuación de la información a la búsqueda y elimina el ruido documental, aunque la invisibiliza ante los buscadores actuales. Su acceso a través de la telefonía móvil y su reproducción en soportes « e-ink», y otros todavía en ciernes, revolucionarán los conceptos de saber y comunicación, juntamente con el de la lectura.
La digitalización es una técnica de almacenamiento de datos basada en un proceso de cambio de soporte documental. Sea cual sea el tipo de formato elegido, por principio un proyecto digital es económico y debe aspirar a tener un alcance universal. Sin embargo, gracias a los avances en materia de redes, la digitalización se ha convertido en un proceso de gestión del conocimiento, que atiende, además de a la preservación de unos datos, a su comprensión, difusión y aprendizaje; incluso a la innovación. Por tanto, un proyecto de digitalización debe ser un proyecto vivo, que incorpore las nuevas formas de redactar y que esté abierto a las posibilidades de una comunicación electrónica en cambio permanente, para así permanecer en el tiempo y convertirse en referente (in)formativo (¿una nueva auctoritas?).
En sentido inmediato, digitalizar consiste en convertir una señal continua o analógica en una señal con valor numérico (un código binario de ceros y unos), con una pérdida de parte de la información (en el proceso o por compresión) y del contexto tradicional de consumo. Es lo que sucede, por ejemplo, cuando se envía un fax para enviarlo a través de la línea telefónica. Este proceso permite abaratar los costes de los documentos en papel y su impresión, el espacio necesario para su almacenamiento y ofrece una gestión y distribución más eficientes. Se realiza mediante el empleo de escáneres o cámaras digitales. La digitalización es un proceso que puede abarcar desde pequeñas tareas, como la digitalización de un archivo fotográfico o musical de un individuo, hasta espectaculares proyectos que atañen a bibliotecas completas. En estos casos, hace falta un complejo proyecto en el que se adecuen los tiempos, los recursos necesarios y su proyección en el tiempo. Además del proceso de conversión, se trata de garantizar la fiabilidad física de los documentos, asegurar el acceso y el uso y ofrecer seguridad al conjunto de la información. A la hora de su realización, hablamos de una cadena de digitalización compuesta por varias etapas: Actividades previas. Identificación de documentos. De las necesidades de gestión e institucionales en un patrón de referencia. Cálculo de las necesidades de los usuarios. Planes de futuro.
Etapa inicial. Primeras pruebas de escaneado y ajuste del proyecto.
Producción. Fase de digitalización masiva.
Etapa final. Se ajusta el final del proyecto a los plazos y se resuelven problemas operativos que hayan surgido.
Cuidado duradero. Conjunto de estrategias que permiten mantener los documentos digitalizados. Consisten en actualización (cambios de almacenamiento), migración (transferencia a nuevos ordenadores y programas informáticos), emulación (recreación de las condiciones de acceso a los documentos para realizar mejoras), preservación de la tecnología, arqueología digital (recuperación de documentos o tecnología dañada) y seguridad.
[Práctica. Accede al tutorial de la Universidad de Cornell y, apartir de ahí, visita la Biblioteca Europea e intenta comprender su magnitud como proyecto.]
Sin embargo, desde un punto de vista más ambicioso, digitalizar no puede consistir simplemete en microfilmar ni en convertir un documento en papel a un formato digital. Esta solución con respecto a un libro reproduce la distancia (y el error conceptual) que supone emplear la imprenta para reproducir un manuscrito. En la edición electrónica de creación y opinión, se ha vivido la revolución de las bitácoras, que ha dado lugar a novelas interactivas por entregas –por ejemplo, las de Hernán Casciari, que han pasado del soporte digital al papel y al cine– con una media de seguimiento de más de setenta mil lectores, o a fenómenos como los nanomedia o los warblogs. Wikipedia –y, en breve, Citizendium–, un acúmulo contributivo y multilingüe, se ha convertido en la enciclopedia más consultada.
Entre la primera solución empobrecedora, la de un técnico actual, y la segunda, prójima a la que adoptaría un hombre del Renacimiento, existe una toma de partido moral tanto o más que un salto intelectual. Michel Serres afirmaba acerca de nuestro siglo que vivimos en un mundo angélico y que el planeta es una mensajería (electrónica, se entiende). Pero concluía «Ahora bien, el científico ignora que hubo una caída de los ángeles y que podrían sobrevenir catástrofes con tales redes de mensajería. El humanista, en cambio, sabe que un ángel se convirtió en diablo».
Quien realice en nuestros días la tarea angélica del monje tiene la posibilidad de elegir los contenidos transmisibles, su estructura y la tecnología adecuada; también, su deber de acertar.
[Prácticas: Ve a Proyectos digitales, en Catálogos; visita desde allí algunos desde el punto de vista de su accesibilidad y sus contenidos. Ve a la página de J. A. Millán «Vender vino sin botellas» y sintetiza los problemas y ventajas de la edición digital]
[1] Hoel, Ivas A. L. (1998): ¿Las normas para papel permanente?, en http://www.ifla.org/IV/ifla64/115-114s.htm
[2] Sobre las diferencias en la gestión del conocimiento y la información, vid. http://www.cibersociedad.net/congres2006/gts/comunicacio.php?id=618&llengua=es
[3] Un caso ONU: http://www.hipertext.net/web/pag242.htm. Sobre las fases, existen modelos: Itami, Rowly, Cornella.
[Tema en PDF]