Wireless

Mi columna en la revista Quimera   



Lectura en red
(QUIMERA Nº 299, OCTUBRE 2008)

No dejamos de hablar del futuro del libro en la era de la electrónica sin que, de momento, y por más que hayan salido a la venta diversos artilugios a los que puede descargarse una creciente colección de obras literarias, haya sido posible encontrar una exitosa alternativa al libro impreso. Al evaluar los soportes digitales no suele, sin embargo, tenerse en cuenta la emergencia de una nueva forma de leer, marcada por lo digital y por la red, que cuestiona la literatura tal y como la conocemos; algo que acontece no porque los escritores hayamos adoptado un postura revolucionaria —apenas si renovadora— en cuanto al uso de la técnica y la tecnología, sino debido a que los más nuevos lectores aprenden a leer en red antes de tomarse en serio el libro impreso.

De hecho, cuando se habla de literatura electrónica, solemos referirnos a dos tipos de fenómenos: 1) sustitución del papel por monitores digitales (de un ordenador o cualquier otro aparato) sin que ello modifique para nada la estructura del texto (de hecho, la mayor parte de las obras disponibles en formato digital han sido publicadas previamente en papel, en muchos casos antes de la existencia de los ordenadores), y 2) las múltiples variantes del hipertexto, producto de la adición de un código de enlace a ciertas partes de un texto tradicional (o de una imagen) que nos dirige a otros textos, imágenes, sonidos, etc... En ambos casos, si se trata de una obra “cerrada” o “completa”, la experiencia de la lectura no difiere mucho de la convencional. La mayor ventaja que aporta aquí lo digital es en lo referente al acceso a las obras, procedimientos de edición y distribución.

Lo que modifica la experiencia lectora de un modo radical no es la máquina que ingenuamente reproduce las páginas impresas de un libro, revista o álbum, sino la red a la que la máquina permanece conectada, de tal forma que la lectura es inseparable de otras actividades como la búsqueda y la navegación. Leer en red no consiste en descargar sucesivamente una serie de obras perfectamente delimitadas y conclusas, sino en una experiencia radicalmente diferente sobre la que los autores carecen de control. La lectura online no tiene principio ni fin; no hay camino marcado, ya que el lector puede realizar cualquier tipo de asociación, sentir cualquier curiosidad, e inmediatamente abandonar el ¿texto? para realizar una búsqueda en la base de datos y encontrar innumerables referencias que el autor jamás hubiera podido predecir. Categorías tradicionales como realidad o ficción, texto e imagen, son absolutamente indistinguibles. El lector en red ni siquiera elige, como en un hipertexto cerrado (o un videojuego), entre una serie de posibilidades limitadas, sino que interroga continuamente su lectura, su propia memoria, su estado de ánimo y los archivos de la base de datos, interrumpiéndose para viajar a otros textos inesperados en busca de lo que en cada momento pueda despertar su interés: construye su propia ¿obra?, instantánea y evanescente, a medida que discurre por la red.

Los medios digitales están modificando nuestra idea de la literatura de un modo muy parecido a lo que sucedió con las artes visuales: por una parte, continuaremos leyendo (y escribiendo) novelas y poemas (y se continuarán imprimiendo en libros rectilíneos, precisos, contenidos), pero nos hablarán de un modo diferente. Por lo que respecta al arte literario de nueva creación, todavía estamos comenzando a entrever las posibilidades que se abren y los recursos que, por primera vez, la tecnología pone a nuestro alcance. Es probable que el lector en red se sienta más cómodo ante formas de narrar más libres y complejas, ambiguas y hasta contradictorias. Puede, también, que los escritores vayamos aprendiendo a escribir en red, dando lugar a nuevas formas literarias, acaso más fugaces, anónimas e impuras (la red permite, por ejemplo, recurrir a la “ejecución” de obras continuamente en desarrollo o a la “intervención textual” con objetivo artístico de un modo similar a como las artes plásticas “intervienen” el espacio físico). Quizás, parafraseando a Maurice Blanchot, se podría decir que la literatura, tal y como la conocemos, no ha sido más que el sustituto temporal, la máscara sublime, del poder tecnológico, mientras este último no pudo conquistar la conciencia de su autonomía. Quizás, entonces, parte de lo que escribamos a partir de ahora ya no se pueda llamar con propiedad literatura.




 
Egotrónica
(QUIMERA Nº 300, NOVIEMBRE 2008)


Parece haberse puesto de moda hablar de “autoficción” y “narrativas del yo” (El Yo asalta la literatura, El País 13/09/2008). Me gustaría saber es si ese yo que viene se había ido a alguna parte y, en tal caso, si el que ahora nos asalta es el mismo que se había marchado. Lo que retorna nunca vuelve del todo, y a la mayoría de la narrativa pseudobiográfica de antes y de ahora se le puede aplicar muy bien la frase de Musil sobre la “distancia histórica”: que consiste en “esperar a que de cien hechos se hayan perdido noventa y cinco, con lo cual los restantes se dejan ordenar como uno quiera”. Me pregunto si esta moda de la “autoficción” refleja algo más que nuestra manía de mirarnos el ombligo, como individuos, como nación y como lengua.

Con todo, se la intenta presentar como algo novedoso: Se pretende, por ejemplo, relacionar la subjetividad literaria con el auge de las “máquinas del ego” en internet —autoblogs, redes sociales y demás recursos online destinados a la autoamplificación— y con una creciente (y supuestamente postmoderna) desconfianza hacia la objetividad como recurso literario. Según la interpretación mas extendida, la red potenciaría aún mas el aislamiento individual característico de las sociedades tecnológica y económicamente avanzadas (“la escalada individualista de voluntad de autonomía privada”, que diría Lipovetsky), y este hipertrofiado narcisismo tendría como consecuencia el (¡eterno!) retorno de la literatura a la práctica introspectiva, subjetiva, autocomplaciente y proclive a una interpretación sentimental del mundo. No cabe duda, por otra parte, que la autoficción española también ensaya otros caminos, y los últimos libros de Manuel Vilas, Robert Juan-Cantavella y José María Pérez Álvarez, entre otros, son magníficas muestras de ello.

Si bien la red, al permitir a cualquiera insertarse en el mediascape como autoproductor y autoeditor de sí mismo y lo que le acontece, facilita la amplificación de los aspectos más banales del yo tradicional (el ego como spam), es también el catalizador de identidades nuevas, fragmentarias, extraterritoriales y metahistóricas. A diferencia del autoficcionador tardomoderno (tomo prestado el término de Vicente Luis Mora), el autor egotrónico accede al pasado como a un archivo (de tal modo que la distancia de una referencia cualquiera con respecto al aquí y al ahora es completamente irrelevante), ha sustituído el recuerdo por la reposición, y la nostalgia por los mecanismos automáticos de búsqueda.

El yo sólo es ya interesante si está originado por una máquina o por una persona que la imita (algunos métodos empleados por Rousell, Quenau y varios oulipianos estarían en esa línea). Se trata de un ego efímero, organizado, por ejemplo, a partir de los resultados de una busqueda en google o, mejor incluso, en googlism. El mejor ejemplo de ello lo constituye el autorretrato textual del artista Miltos Manetas (Self-portrait in googlism, Electronic orphanage press, 2005), donde el yo del autor —y de los demás “retratados” en el libro mediante la aplicación del mismo procedimiento— se convierte en una especie de “objeto encontrado” en la red; un poco diferente del objet trouvé tradicional al no haber sido descubierto tal cual, pero que “estaba ahí” de todos modos, como el resultado de una ecuación “estaba ahí” antes de haberlo calculado. El mismo Manetas, en otro de sus textos, se burla del “arte contemporáneo” diciendo que está basado en que “al colocar cualquier cosa en una habitación vacía, parece extraña y significativa”, por lo que su procedimiento no ha de interpretarse como una simple descontextualización de los resultados de una búsqueda para ponerlos sobre papel en blanco, sino como la necesidad de identificar la autoficción con un método de rastreo automático, parcialmente determinado y parcialmente aleatorio. Debido a las características cambiantes de los contenidos en la red y al componente azaroso de la búsqueda, el proceso se convierte en virtualmente irrepetible, y el resultado impreso, una de las combinaciones posibles con elementos de un conjunto cuya composición se modifica constantemente,  no es sino la instantánea de un particular fragmento del sistema: no simplifica al sujeto —no lo transforma en un spam infinitamente repetido—, sino que sirve como muestra de la complejidad del sistema que lo contiene.




Aprendiendo del porno

(QUIMERA Nº 301, DICIEMBRE 2008)


La industria del porno se ha caracterizado desde sus inicios, a diferencia de otras empresas dedicadas a la producción y distribución de contenidos, por ser la primera en adoptar las tecnologías emergentes y en abandonar las obsoletas. La flexibilidad del porno para adaptarse rápidamente a nuevos tiempos y soportes se debe en gran medida a que su principal objetivo consiste en llegar cuanto antes al mayor número de usuarios del modo más anónimo posible sin importar demasiado la calidad de reproducción. Cada innovación técnica ha multiplicado esa capacidad a la vez que reducido los costes de producción, hasta el punto de que ahora, como explicaba recientemente el Financial Times, es la misma industria la que, debido a la competencia de internet, corre el riesgo de volverse obsoleta (Rude Awakening, Matthew Garrahan, 4/10/08). ¿Quién va a pagar, se preguntan, por ver una película de hora y media cuando lo que desea ver son unos pocos minutos y eso lo puede obtener gratis?

    Lo cierto es que el colapso de la industria tradicional del porno no se debe exclusivamente a los portales gratuítos y no sólo se está viendo afectada por la piratería, sino, además, por la aparición de numerosas pequeñas productoras independientes, algunas amateur y otras no, que han roto con las convenciones estilísticas y temáticas de un género absurdamente rígido y plagado de inamovibles reglas. En internet, al margen de la repetición ubicua de fragmentos de gonzo, han ido desarrollándose los nichos —previamente denominados perversiones— hasta convertirse en lo más exitoso del porno gratuíto y de pago. Bastantes de estas nuevas producciones se inspiran en el cómic y en la nueva literatura erótica —apóstoles de la abyección como Denis Cooper, Peter Sotos o Stephen Barber—, con unos resultados mucho más provocadores y arriesgados que la simple repetición mecánica de actos sexuales por atletas de exagerada anatomía.

    El texto es, en cierto modo, como el porno: tampoco requiere una gran resolución de imagen, ni su transmisión un gran ancho de banda. Sin embargo, las editoriales se encuentran entre las empresas más reacias al cambio y entre las menos conscientes de lo que se les viene encima. Las recientes declaraciones salidas de la feria de Frankfurt acerca de la buena salud del mercado editorial durante la presente crisis económica, así como la confianza en que siempre van a poder controlar a su antojo el ámbito de la edición electrónica son casi exactamente las mismas que vienen realizando año tras año mientras el resto del mundo cambia a su alrededor. La literatura, no sólo la erótica, tiene mucho que aprender de lo que le está pasando al porno. El lanzamiento continuo de novelas casi idénticas con un trimestre de vida media es una estrategia que puede ser rentable por el momento, pero me temo que la fidelidad a largo plazo se la están llevando algunos bloggers y algunas editoriales de culto con criterio que saben sacar partido de la red. La existencia de long-sellers va a depender cada vez más de las opiniones compartidas por los lectores en las redes sociales. El mercado ya no es sólo consumo de masas, sino, cada vez más, producción y distribución de masas, y no es inverosímil que el papel de las industrias culturales comience a dejar de consistir en tomar decisiones sobre lo que se publica para pasar a seleccionar entre lo ya directamente publicado por los autores. Pero ahí aguarda una dura competencia. ¿Empezará internet matando a la estrella del porno para terminar enviando al escritor mediático al olvido?





Singularidad
(QUIMERA Nº 302, ENERO 2009)

La filosofía ciberpunk se basa en un razonamiento tan atractivo como equivocado: si el cerebro funciona como un ordenador, entonces un ordenador (o una red de ordenadores) podría llegar a comportarse como un cerebro humano. Las consecuencias de semejante corolario han dado lugar a numerosos argumentos de ciencia-ficción y también a extravagantes extrapolaciones acerca de un posible futuro post- o trans-humano en el que los seres humanos y las máquinas llegarían a fusionarse para dar lugar a entes completamente nuevos. Uno de los profetas del cambio que supuestamente se avecina es el teórico de la inteligencia artificial Ray Kurzweil, quien vaticina que debido al desarrollo exponencial de la tecnología (durante el siglo XXI, manifiesta en su artículo “The Law of Accelerating Returns”, experimentaremos el equivalente a 20.000 años de progreso al ritmo actual) “en pocas décadas la inteligencia de la máquina sobrepasará a la humana y producirá La Singularidad —un cambio tecnológico tan rápido y profundo que representará una total ruptura con la continuidad de la historia”. Entre las consecuencias de esta Singularidad se incluirán “la fusión de la inteligencia biológica y la no biológica, seres humanos inmortales basados en software y niveles ultra-elevados de inteligencia que se expandirán en el universo a la velocidad de la luz.”

    La página de Kurzweil es una estupenda base de datos para quien desee escribir ciencia ficción, y, de hecho, parte de las colaboraciones que pueden allí encontrarse se refieren o proceden de autores de sci-fi como Vernor Vinge o el ex-Coordinador Nacional para la Seguridad y Contraterrorismo de los EEUU Richard Clarke. Sin embargo, la mayoría de las extrapolaciones fundamentadas en la interpretación kurzweiliana del desarrollo exponencial de ciertos aspectos de la tecnología, suponen poco más que una versión actualizada de las numerosísimas y cada vez más aburridas convicciones teleológicas frente a las que, a estas alturas, deberíamos estar ya prevenidos.
Uno de los inconvenientes de la teorías funcionalistas que se acogen a la definición de inteligencia artificial es la indefinición del término que estudian: los significados de “inteligencia” y “artificial” son ambos problemáticos, vagamente científicos y derivados de un concepto obsoleto de la materia. Se confunde demasiado a menudo “inteligencia” —e incluso “información”— con “flujo de datos” e “instrucciones”, y suelen extraerse conclusiones extravagantes. Lo que suele denominarse inteligencia de la máquina no es más que su capacidad de adaptarse a nuestras hipótesis del mundo. La máquina, por muy sofisticada que sea, no deja de ser una herramienta, y la única “inteligencia” que la anima es la inteligencia del usuario —en este sentido, ambas “inteligencias” son una ya desde el principio. De llegar un día en el que la máquina estableciese sus hipótesis propias, sucedería exactamente lo contrario a lo que Kurzweil dice: la inteligencia humana y la del instrumento se disociarían, y la máquina se nos haría completamente incomprensible.

La ciencia ficción que, desde siempre, más me ha interesado no es la que abunda en conceptos cuasi místicos como la “Singularidad” de Kurzweil, —más semejante a una Parusía que a un desarrollo evolutivo— sino aquella que recupera una interpretación instrumental, antropológica, de la máquina. Las mejores ficciones son, o bien las que imaginan máquinas con pensamiento descaradamente antropomorfo (La Eva Futura de Villiers, los androides de Philip K. Dick o el Hal 9000 de 2001: Una Odisea en el Espacio…), o aquellas que problematizan la interacción del ser humano con sus más o menos sofisticados utensilios (Erewhon de Butler, buena parte de la ficción de Ballard o las películas de Cronemberg). En el fondo, o las máquinas se conducen a nuestra imagen y semejanza, o se convierten en metáfora de lo que desconocemos en nosotros mismos y a menudo nos aterroriza. Por eso no es extraño que la comunicación electrónica haya pasado de ser considerado el lugar de los sercretos y las conspiraciones a convertirse en el lugar de los espectros (en películas como The Ring o Pulse). De creer que, quien supiera buscarlos, encontraría en la red todos los misterios ocultos, hemos pasado al “perded toda esperanza: no hayaréis aquí nada más que la singularidad que acecha al otro lado de la muerte. El sueño de la materia engendra espectros. Muy decimonónico.




Baja tecnología
(QUIMERA Nº 303, FEBRERO 2009)

    La verdad está en la baja tecnología, escribe Eloy Fernández Porta en su reciente y magnífico ensayo Homo sampler. Tiempo y consumo en la Era Afterpop (Anagrama, 2008). La re-presentación de elementos paradigmáticos de la “baja tecnología” en un contexto de alta tecnología tiene un efecto opuesto a la apropiación nostálgica del pasado: recupera el objeto técnicamente obsoleto como forma de vanguardia, reivindica el gesto del pionero antiguo y actualiza las vanguardias históricas como formas de vanguardia presente, un movimiento imprescindible ya que el argumento más esgrimido por los tradicionalistas contra el arte experimental del presente es que “eso” ya se hizo en otras épocas y, aunque entonces pudo tener algún sentido, el tiempo ha demostrado que se trataba de una ingenuidad.

Un claro ejemplo de tales efectos es la inserción protésica de nuevos o recuperados “objetos mecánicos” en la cultura electrónica; instrumentos que, como el Quijote de Pierre Menard, cobran un significado diferente al ser trasladados al “futuro”, transformándose, por ejemplo, en los “objetos mutantes” de la retro-ciencia-ficción steampunk. Por citar un ejemplo al que también se refiere Fernández Porta, los innecesarios y anhelantes relojes mecánicos que colecciona William Gibson. Relojes mecánicos que han mutado en manos de Eric Freitas para convertirse en obras maestras de la mecánica gótico-industrial.

    Un viejo libro fotografiado para ser leído en la pantalla del ordenador juega el papel de “objeto literario técnicamente obsoleto” arrojado al universo digital. El fenómeno resulta especialmente llamativo cuando el libro que así se nos presenta (aunque sea con propósito de archivo) constituye en sí mismo un “antecedente” de la literatura digital. Esto es lo que sucede con los vanguardistas poemarios de David Melnick y especialmente con PCOET, publicado originalmente en 1975. PCOET muestra, según el teórico de la poesía digital de vanguardia Loss Pequeño Glazier, el modo en el que la poesía, como género que investiga la textualidad, está particularmente cualificada para ofrecer una importante perspectiva para la comprensión de la naturaleza condicional de los medios digitales (Loss Pequeño Glazier, Digital Poetics,  University of Alabama Press, 2002). PCOET no se parece en nada a un poema tradicional; no puede ser leído de forma literal, ya que muy pocas de las palabras que componen el texto son comprensibles. Su única posible “lectura” consiste en apreciar las variaciones textuales, en darse cuenta de que existen una serie de patrones cambiantes a lo largo del texto, y que la percepción de cómo estos patrones cambian da la impresión de que el texto progresa.  La eliminación de toda posíble “analogía” con el significado evita que pueda ser considerado un texto “analógico”, pero la fotografía de las páginas impresas manifiesta sin duda que no se trata de un artefacto programado. Según Glazier, PCOET muestra como un texto puede ser condicional, porque el “significado “ sólo emerge cuando las condiciones han sido identificadas.

Pero lo más significativo del PCOET fotografiado y digitalizado no es el testimonio de un arte de vanguardia que podría considerarse precursor de la poesía en UNIX, sino que al ser insertado y enlazado pasa a formar parte de un bucle que conecta la poesía pre-digital con la tecnología digital, demostrando, como insiste Glazier, que la poesía ya era electrónica antes de la electrónica, y que la web, más que una enciclopedia donde todo aparece conectado con todo (lo que supondría, en palabras de Fernández Porta, lo mismo que se ve en los museos–, pero eso sí, usando los medios técnicos de última ola para traer aquí el calmoso tiempo del clasicismo), es, en realidad, una colección de inestabilidades textuales, el resultado de un sueño de poetas.





Exospección
(QUIMERA Nº 303, MARZO 2009)


    La experiencia humana siempre ha estado mediatizada. La información que recibimos a través de los órganos de los sentidos es una interpretación biológica de modificaciones en los “medios” que nos rodean, como el aire o el agua. El desarrollo de la cultura ha dependido en gran medida de la capacidad humana para re-mediatizar estas interpretaciones, reorganizar los “medios crudos”, y construír “nuevos medios” capaces de almacenar y evocar sensaciones —y sus consecuencias cerebrales— en ausencia de su causa original.

    Esta capacidad humana para trasladar la información biológica (procesada y almacenada por el cerebro) a sustratos no biológicos (piedra, papel, ordenadores…) ha generado en nuestra especie una memoria dual con dos maneras diferentes de acceder a los datos: mediante significados y mediante listas. En el primer caso, la memoria está asociada a un orden jerárquico preestablecido, de tal modo que la naturaleza del contenido y las circunstancias de su recepción determinan la prioridad del acceso: Recordamos un número de teléfono con más facilidad que otro debido al interés que nos suscita la persona que nos lo ha dado (la evocación de recuerdos puntuales mediante técnicas electrofisiológicas, farmacológicas o psicológicas es anecdótica: nunca es posible acceder a los datos de manera específica).

En el segundo caso, al no existir ese orden previo, es posible establecer condiciones concretas para la búsqueda: Por ejemplo, la probabilidad de localizar una pieza de información determinada puede estar en relación con la redundancia (si buscamos al azar, la probabilidad de encontrar algo dependerá del número de veces que se repita). También podemos instituír un orden no jerárquico con un criterio de búsqueda (el orden alfabético de la guía telefónica o el orden temático en los libros de una librería), o añadir un orden jerárquico a posteriori (situar las revistas porno en los anaqueles más inaccesibles).

    A pesar de trabajar con información obtenidas por el segundo método, la creación artística, hasta hace relativamente poco tiempo, se había ocupado principalmente de los problemas inherentes al primero. En el ámbito de la literatura es probablemente Borges quien comienza a darse cuenta de la radical disimetría entre archivo y memoria. Sin embargo, con la proliferación de listas electrónicas, la tecnología está empezando no sólo a definir el modo en que obtenemos la mayor parte de nuestra información, sino a fusionar lista y significados. Si bien es cierto que, por el momento, los ordenadores sólo permiten acelerar el acceso a listas e incrementar la eficacia de las búsquedas textuales (no olvidemos que cuando buscamos una imagen en Google, buscamos en realidad un texto asociado a una imagen), la creciente sofisticación del software permite simular que se accede directamente a un significado, al tiempo que se disimulan las condiciones y los criterios de selección. 

    Uno de los principales desafíos de la crítica cultural contemporánea es desarrollar un debate tecno-cultural que evolucione en lo posible a la misma velocidad que la innovación tecnológica. Según Caroline Jones (Sensorium. Embodied experience, technology and contemporary art, MIT Press, 2006), el modo más eficaz de hacerlo es apropiarse de la tecnología y ponerla al servicio del arte. La contemplación estética, apunta Caroline Jones, nos permite adquirir tiempo y espacio. Las prácticas estéticas ayudan a investigar en tiempo real la interacción de los cuerpos con las tecnologías, proporcionando una oportunidad para cuestionar los nodos de interacción.

    Una nueva máquina universal, globalmente distribuída, y “pantextual” (en el mismo sentido en que Foucault escribía “panóptica”) ha supalntado —afortunadamente, en mi opinión— a lo que se denomiaba “introspección artística”. La “exospección” electrónica no es ya unicamente una cuestión instrumental en el arte contemporáneo, sino que empieza a ser comprendida como una nueva forma simbólica (1).



    (1) Se profundizará en estas y otras cuestiones al respecto durante las jornadas Google Revolutions, a celebrar en Mataró los días 20 y 21 de Marzo, y en las que participaré gracias a la amable invitación de Jorge Carrión, organizador del evento.




Cada vez más cerca
(QUIMERA Nº 304, ABRIL 2009)


El lanzamiento de Kindle 2, versión renovada y mejorada del instrumento inalámbrico de lectura de Amazon.com, nos acerca un poco más al futuro digital del libro, que comienza, por fin, a parecerse al presente de la música, el cine, y otras artes cuya distribución es ya mayoritariamente electrónica. Parece evidente que la intención de Amazon ha sido diseñar un iPod para textos y seguir los pasos de la tienda iTunes (aunque han contratado a un antiguo diseñador de Frog Design para dirigir el desarrollo de Kindle 2, la semejanza formal con los reproductores de MP3 de Apple es manifiesta), pero todavía es pronto para saber si Kindle 2 supondrá un auténtico hito en la revolución tecno-cultural que encabezan Jonathan Yve y Steven Jobs.

Sin haber tenido la oportunidad de probarlo más que en la simulación online que proporciona Amazon, Kindle 2 parece ciertamente un soporte de lectura muy bien conseguido. Puede almacenar hasta 1.500 libros (y supongo que pronto quince o cincuenta mil, ya que 2 GB de memoria es una capacidad ridícula para un aparato de su tamaño), e incluso leerlos en voz alta. Además, proporciona acceso a una selección de contenidos online como la Wikipedia, más de 1000 blogs, y numerosas publicaciones periódicas.  Algo muy importante para el éxito del proyecto: La tienda Kindle permite ya descargar más de 230.000 libros, muchos de ellos a un precio de 9,99 $. El propósito de Amazon es ofrecer a través de Kindle todos los libros publicados en todas las lenguas.

No sé si Kindle se convertirá en el hardware estándar que usaremos para leer en un futuro próximo, pero es indudable que, como ha sucedido con la música y el vídeo, pronto aparecerán competidores y algunos libros de gran éxito comenzarán a circular regularmente a través de redes de archivos compartidos.

Esta es una perspectiva que me apasiona: Desde el momento en que la distribución de todos los libros pasa a ser digital, los lectores es español podríamos transformar de una vez por todas lo que hasta ahora ha sido un gran inconveniente —la dispersión geográfica de nuestro idioma— en una gran ventaja. No hay ningún motivo, por ejemplo, para que tras leer en el blog de un estudiante colombiano en la Universidad de Sydney un comentario sobre una novela publicada en Chile, no pueda descargarla inmediatamente y leerla mientas asisto a un congreso en Varsovia. Si la novela me ha gustado, enviaré mi recomendación por email a docenas de personas de mi lista de correo que podrían estar interesados en ella. La circulación electrónica no garantiza la difusión de una obra, pero le ofrece una oportunidad global que no tendría de otro modo.

    El precio de los libros electrónicos es significativamente menor que el de las versiones impresas, y todavía puede reducirse mucho más. Eliminando los problemas logísticos actuales y a un precio mucho más bajo, la literatura en castellano podría aprovecharse de muchas prerrogativas que hoy en día son exclusivas del inglés. No será difícil conseguir miles de posibles lectores en cuestión de horas (aparte de que el autor podría conocer en tiempo real el número y el origen de las descargas de su libro, como si fueran entradas en su página web). Las estrategias de comunicación cambiarán por completo y los autores recuperarán una parte del control que han perdido.

    Por cierto, algo en lo que coinciden casi todos los usuarios que han probado Kindle 2 es en que leen más. El vídeo promocional de Amazon no podría transmitir otra idea, pero es lógico que promocione la lectura. Los estudiantes universitarios, por ejemplo, con todos los textos de la carrera en su lector y la posibilidad de actualizar las ediciones a un precio asequible, lo tendrían mucho más fácil.

    Está claro que Amazon parte con muchísima ventaja, pero un mercado único hispano es lo bastante grande como para rentabilizar infraestructuras alternativas de distribución digital. Incluso puede hacerse mejor que Amazon si se le dedica suficiente esfuerzo y talento. Aunque, para ello, será necesario revisar las estrategias idiomático-territoriales a partir de las que se ha desarrollado hasta ahora la industria del libro en español.





Semi-real
(QUIMERA Nº 305, MAYO 2009)


    Jasper Juul, pionero de la teoría de videojuegos, comienza el prólogo de su ensayo Half-Real: Video games between real rules and fictional worlds (MIT Press, 2005) explicando que el título de su libro se refiere a que los videojuegos son el producto de una interacción práctica (puesta en marcha por el jugador) entre “realidad” y “ficción”: “Los videojuegos son reales” —apunta Juul— “porque consisten en reglas reales con las que los jugadores interaccionan físicamente y porque ganar o perder en el juego es un hecho real.” [...] “Jugar a un videojuego es interactuar con reglas reales mientras se imagina un mundo de ficción, y el videojuego es tanto un conjunto de reglas como ese universo ficticio”. Precisamente, la diferencia esencial entre los videojuegos y los juegos tradicionales no electrónicos, mayoritariamente abstractos, es la asocoación de esos mundos imaginarios: El objetivo de Half-Real es examinar las complejas interacciones entre ficción y reglas.
    Para comprender la importancia histórica del ensayo de Juul, es necesario recordar que, a pesar de tratarse de una muy reciente disciplina académica (el uruguayo Gonzalo Frasca, otro de los pioneros, ha iniciado receintemente su primer blog en español: www.ludologia.org), la ludología —término que se aplica actualmente a la teoría de videojuegos en general— puede enorgullecerse de haber realizado una exitosa síntesis de sus dos principales líneas de investigación conceptual: la denominada “ludológica” en su origen, que concede mayor importancia a las “reglas del juego”, y la “narratológica”, que se ocupa principalmente de los aspectos ficcionales y narrativos en los videojuegos.
Una de las aportaciones más interesantes de estos estudios (que proceden de la teoría de juegos y de su estudio cultural, de Wittgenstein y de Caillois) es el reconocimiento del papel de lo “real” en el videojuego. “Real” se define aquí como el conjunto de reglas y algoritmos, y no tiene nada que ver con que la ficción representada en el juego sea “realista” (como en los juegos de guerra o de interacción social) o “fantástica” (como en los juegos mitológicos o de ciencia ficción). En los videojuegos, la ficción es siempre de segundo orden, pues su modelo no suele ser la realidad percibida sino sus representaciones técnicas o artísticas: Las ficciones proceden habitualmente de la novela, el cine, el cómic, las artes plásticas o la televisión, por lo que el ambiente del videojuego resulta siempre “fantástico”, estemos fulminando extraterrestres o tocando la guitarra en un grupo de rock. Esto ha llevado a los pioneros de la ludología a prestar una gran atención a los aspectos “reales”—o sea, al videojuego como sistema formal basado en reglas— independientemente de si se trata de juegos abstractos o de sofisticados mundos de artificio.

    Cuando nos referimos a la literatura, casi siempre entendemos por “real” una característica de la ficción: su verosimilitud o su compromiso con una particular percepción de la realidad, contextualizada a menudo a través de una mirada expresamente ideológica. Se entiende que un escritor comprometido con lo real es aquel que representa y/o “denuncia” determinados aspectos de la realidad que son frecuentemente ignorados o manipulados por los medios de comunicación de masas, en el mismo lenguaje de esos medios. Sin embargo, apenas se tienen en cuenta los aspectos materiales y técnicos: las “reglas del juego”. De hecho, aquellos autores que se ocupan de los sistemas formales y sus reglas, que consideran y ponen en cuestión los aspectos materiales de la escritura, suelen ser considerados “fantásticos” (Borges, Cortázar, Pávic, Rousell, Pérec, Pynchon, Carroll, Coover, Danielewski, Calvino...), y a los seguidores de tan respetable y antigua tradición se les acostumbra a presentar como una corriente literaria menor, lúdica, formalista, y, para muchos, más frívola que la de vocación “realista”.
Echo de menos la consideración de que la literatura (electrónica o en papel) es también semi-real, y que cuando deja de serlo, abandona su propósito artístico. Echo de menos un poco de ludología en buena parte de los estudios literarios, algo que nos permita discutir la eficacia de determinados esquemas formales, la capacidad de los novelistas y los poetas para establecer reglas que faciliten la consecución de objetivos estéticos. Echo de menos una síntesis de las diferentes corrientes actuales de crítica literaria que comience a aceptar que una novela contemporánea, para ser merecedora de tal nombre, necesita ser bastante más que la elegante descripción de un suceso.

Traducción al francés de este artículo

Semi-réel par Le Fric-Frac Club




Las nuevas dos culturas
(QUIMERA Nº 306, JUNIO 2009)


El quincuagésimo aniversario de la publicación del célebre ensayo de C.P. Snow “Las dos culturas” está siendo aprovechado para retomar una vieja polémica convertida en un cliché en lugar de reconocer que el fenómeno analizado por Snow va más allá de la “incompresión mutua” entre una cultura supuestamente “humanística” y otra “científica”, y es síntoma, en cambio, de un espejismo característico de la modernidad tardía que, aún superada la tradicional dualidad académica, continúa provocando perplejidad y afectando a la difusión fluída de los conocimientos.
Snow pretendía llamar la atención sobre la falta de entendimiento entre los intelectuales “literario-humanísticos” y “científicos”:  Le resultaba insólito que físicos de renombre como Einstein, Heisemberg o Rutherford no fuesen considerados “intelectuales” por los hombres de letras, y solía contraatacar preguntándoles cuantos de ellos eran capaces de enunciar el segundo principio de la termodinámica. Cuatro años más tarde, en el prólogo a la segunda edición del libro, Snow predecía la emergencia de una “tercera cultura” que permitiría a los intelectuales “literarios” comunicarse con los intelectuales “científicos” en su propio lenguaje. Desde entonces se ha intentado definir el ámbito de esa “tercera cultura” en numerosas ocasiones: (Por ejemplo, en www.edge.org, John Brockman, considera que está constituída por científicos que, escribiendo libros serios para no especialistas, comunican directamente sus ideas al público). Curiosamente, la propuesta de Snow, que presenta el inconveniente de ser exclusivamente aplicable a una interpretación académica de la cultura, aparece en el momento histórico en que ésta comienza a ser integrada, saqueada y puesta en cuestión por la emergencia de los mass media, el pop, la cibernética, la deconstrucción y las nuevas teorías científicas que se ocupan de sistemas complejos.

Pasados cincuenta años, a pesar de que la frontera entre ciencias y humanidades se evapora, y la distinción entre “entretenimiento” y “cultura” ha prácticamente desaparecido, persiste una multiplicidad de culturas-nicho que, si bien están muy interconectadas en lo que se refiere al proceso creativo, mantienen todavía sistemas de difusión y lenguajes muy compartimentalizados que sólo recientemente han comenzado a fundirse gracias a la ubicuidad de los medios electrónicos. Hoy en día, parece ridículo seguir buscando un “lenguaje común” para el conocimiento, y se hace cada vez más evidente que tanto los creadores del futuro como quienes deseen estar al tanto de sus creaciones, deberán ser políglotas. Por eso me asombra continuar leyendo de vez en cuando artículos que disocian, en lógica y en tiempo, el “cambiante universo tecnológico” de la “acción y el pensamiento de los hombres”, o presentan “la evolución vertiginosa de la tecnociencia y las demandas del mercado” como algo diferente de la “reflexión”. Como si la tecnología no fuera un producto del pensamiento, como si no fuera, en sí misma, pensamiento.

La reflexión se entiende erróneamente como un fenómeno a posteriori porque es concebida como el resultado de un lento proceso individual en lugar del producto de la compleja interacción entre millones de seres humanos. Pero es ya completamente imposible que cualquier individuo pueda “reflexionar” sobre todos los elementos que componen nuestra tecnología. Las “culturas” que hoy parecen ser incapaces de comprenderse mutuamente no son la ciencia y las humanidades, sino la cultura interpretada como resultado de la reflexión personal de un individuo aislado y la entendida como diálogo colectivo y continuo: la “evolución vertiginosa” de la ciencia, la técnica, el mercado... y las artes. No hay tiempo para el consenso: Para su establecimiento se requieren ensayos cada vez más complicados que puedan dar la medida de la utilidad —e inocuidad— de una tecnología nueva, incluso de la viabilidad de una hipótesis cuyo desarrollo posterior dependerá de una larga secuencia de decisiones; de tal modo que, en el momento en que se concluyen todas las pruebas, el problema ha mutado y la solución se ha quedado obsoleta. No nos queda más remedio que intentar habituarnos al vértigo, ni más opción que el riesgo.





Cincuenta kilómetros al día
(QUIMERA Nº 307, JULIO-AGOSTO 2009)


En Small worlds and the groundbreaking theory of networks (Norton, 2003), el físico Mark Buchanan nos recuerda que la distancia media que recorre una persona al día se ha multiplicado aproximadamente por mil durante los últimos doscientos años. A principios del siglo XIX muchos campesinos permanecían en los alrededores de su casa durante la mayor parte de su vida y, con la excepción de militares, marinos y algunos comerciantes, viajar incluso a una ciudad vecina constituía un acontecimiento extraordinario. Algunos historiadores estiman que la media de desplazamiento por individuo era de unos cincuenta metros diarios. A principios del siglo XXI, viajamos una media de cincuenta kilómetros por día.
Algo semejante ha sucedido con la actividad intelectual y artística. Hace no mucho tiempo, la mayoría de las obras de arte eran producidas para un destinatario único o un número reducido de personas. Incluso con el advenimiento del pop, la expansión de los museos y la universalización de los medios de reproducción analógicos, sólo una minoría de artistas consiguió ser verdaderamente “popular”, y casi todos ellos lo continúan siendo todavía —de ahí que en la historia del siglo pasado abunden las estrellas, celebridades e iconos en todos los ámbitos de la creación.
La emergencia de lo digital ha cambiado este panorama por completo. Cualquier productor cultural tiene a su alcance, prácticamente gratis, un sistema de amplificación más potente que cualquiera de los que jamás han existido, y cualquier individuo recorre sus cincuenta kilómetros diarios a través de la red. La competencia por la atención del público se ha intensificado, facilitando la expansión inmediata y la rápida obsolescencia de cualquier propuesta intelectual, artística o de entretenimiento. Una obra o un producto pueden hacerse populares en pocos días entre millones de personas y dejar de serlo en cuestión de semanas o meses, antes de que muchos otros, ocupados en sus asuntos, puedan siquiera darse cuenta. Casi a diario descubro “fenómenos de masas” de los que nunca antes había oído hablar. Es, por ejemplo, improbable que vuelvan a aparecer grupos de pop-rock con el impacto de los Beatles o los Stones, pero surgen bandas independientes capaces de vender más en un mes que cualquier estrella de rock de los setenta durante todo un año: El 1% de una audiencia potencial de mil millones supone un éxito clamoroso que la inmensa mayoría no tendrá tiempo de conocer.

La digitalización pone a disposición del ser humano una herramienta extraordinaria, representa un cambio comparable a la invención y universalización de la escritura, y se ha expandido con tanta rapidez que apenas hemos tenido tiempo de reflexionar sobre ello. En muchas ocasiones, continuamos aferrados a referentes obsoletos que ya no son aplicables al mundo mediatizado por la red digital.
Hace unas semanas he leído dos anuncios que ejemplifican esta inadecuación:  El Ministerio de Cultura español hacía públicas sus intenciones para desarollar un plan de fomento de contenidos culturales en internet casi al mismo tiempo que Microsoft inicaba el lanzamiento de Bing, su nuevo motor de búsqueda, invirtirndo cien millones de dórales para convencernos de que es “el próximo Google”. El problema, como explica Seth Godin en su influyente blog, es que ya existe el próximo Google, y se llama Google. El problema es que ya existe un plan de fomento de contenidos culturales en internet, y se llama internet. Las agencias gubernamentales y las grandes empresas (incluso las empresas nacidas en el ámbito digital como Microsoft) están demasiado acostumbradas a partir de una situación muy ventajosa, y actúan pensando que pueden mantener esa ventaja sobre y desde la red. Sin embargo, la red es más grande, más rápida y más creativa que cualquier empresa o gobierno, y, como cualquier sistema autoorganizativo complejo, impone su dinámica a quien se adentra en ella. Desconozco si la pretensión del Ministerio de Cultura es aportar algo más que unas cuantas bases de datos de consulta (lo que, si se hace bien, supone una contribución notable), pero si quiere ir más allá deberá que hacer lo mismo que cualquiera: producir contenidos que atraigan a un sector de usuarios, ser creativo y ágil, aceptar las reglas de juego del sistema. Sobre las puertas de la red está grabada una advertencia: Abandonad toda arrogancia los que entráis aquí.





Pasadizos hacia lo oscuro

(QUIMERA Nº 308, SEPTIEMBRE 2009)


Se nos ofrece hoy una gran variedad de productos culturales de vida corta, de usar y tirar podríamos decir, tan pronto ensalzados por el circo mediático como ignorados al instante siguiente. Adecuada para ciertos artículos destinados al ocio, incapaces de mantener su atractivo y cuyo destino es ser reemplazados de inmediato, esta técnica se aplica también, indiscriminadamente, a la producción artística.

Para ser rentable en el nuevo mercado, el producto cultural o artístico se debate entre dos opciones que parecen incompatibles: Un modelo de cultura como entretenimiento y otro que requiere el compromiso intelectual, con una clara ventaja inicial de la primera que, sin resistencias, ha colonizado una buena parte de nuestras vidas. La auténtica investigación estética genera desconfianza, y aunque, como siempre a lo largo de la historia, subsiste gracias al empeño de los creadores, permanece marginada mientras puedan obtenerse beneficios de las peculiaridades formales en vigor. La preeminencia de una estética con vocación temporalmente universal supone que los atributos que confieren belleza a los objetos deben ser reconocibles de un vistazo, pero la relevancia estética del objeto desaparece en cuanto han sido asimilados a nuestro pre-juicio, y sólo podrá recobrarla si aprendemos a mirarlo con ojos nuevos, si sabemos desconstruir el “sesgo perceptivo” que creamos en nosotros mismos a medida que consumimos. Esta es una de las principales funciones del arte contemporáneo.

La red permite que la creación artística influya a través de sistemas alternativos, cuya emergencia en las corrientes principales es cada vez más frecuente porque el hipertrofiado mercado del ocio tiende a agotar los temas y los estilos con una rapidez asombrosa. Sin embargo, no debemos contentarnos con ese breve flujo. Una vez salida a la superficie, no existe espacio mas allá de los límites marcados por el espectáculo. La extenuación prematura de un concepto (lógico, visual, acústico, etc...) por insistencia en la representación de su caricatura mediática impide la asociación de ideas, el encaje del concepto en la abigarrada trama de la cultura. Para producir un efecto persistente —esto es, para dar lugar a un aprendizaje—, se requiere la presencia del estímulo durante un tiempo mínimo, su integración en un contexto de relaciones. Un tiempo del que cada vez tememos más no disponer.

Escribía Jaques Derrida en 1989: "Cada vez que una institución mediática regula fenómenos de mercado a una escala masiva, confisca y censura también masivamente, dogmatiza, cualesquiera que sean su eclecticismo real o su liberalismo de fachada, sus virtudes o sus vicios, ya cautive, ya aburra, ya se la encuentre distinguida, vulgar, o las dos cosas a la vez. Cuando a un solo juez, se piense lo que se piense de tal o cual de sus talentos, se le confía aquí o allá un monopolio de evaluación, de filtración, de exposición a la plena luz, determina las ventas en los supermercados de la cultura. Así, una obra queda relegada lejos de la corte, hacia la noche de un recinto quasi privado, si no cumple las condiciones de visibilidad en ese gran pequeño espejo que fascina deformando, filtra y desvía hacie él tanta energía, interrumpe la conversación, pliega el cuerpo y la mirada social a una nueva fisiología, proyecta en fin al extranjero los útimos iconos de la cultura nacional. Hoy, con esta escala, de un libro tienen que venderse y, distingamos, leerse, más de diez mil ejemplares para ser otra cosa que una correspondencia confidencial y casi privada. Resultado: las investigaciones llamadas "difíciles", rebeldes al estereotipo de la imagen o de la narración, poco sometidas a las normas de la cultura así representada en su "media" (en singular, la "opinión" significa siempre la "media") quedan excluídas de la escena: ocultadas, privadas de la luz, del día. En consecuencia, se las juzga, cada vez más, "oscuras", "difíciles", o "ilegibles" y así se convierten en aquello que se dice que son y se quiere que sean: inaccesibles. (J. Derrida, El otro cabo/La democracia, para otro día, Ediciones del Serbal, pp 96-97)

No nos olvidemos de aplicarlo a los nuevos medios. Muchos de los conceptos emergentes dificilmente serán capaces de mantenerse activos lo suficiente para suscitar una reflexión, a menos que que podamos anular su inaccesibilidad, construír pasadizos que nos lleven, por lo menos de vez en cuando, desde lo popular hasta lo oscuro, lo difícil y lo ilegible.



Hiperlugares
(QUIMERA Nº 309, OCTUBRE 2009)


Aunque en los últimos meses he asistido a varios debates online acerca del espacio en la literatura que, de un modo u otro, cuestionan la actualidad del célebre concepto de no-lugar introducido por Marc Augé, apenas he encontrado alternativas novedosas para definir las nuevas coordenadas del espacio simbólico. Una interesante excepción es el artículo de Mateo Bittanti, titulado “Species of Spaces. Introducing Mauro Ceolin´s SolidLandscapes”, publicado el año 2004 en la revista a mínima , donde propone la sustitución de la idea de no-lugar por la de hiper-lugar, más conveniente, en su opinión, para definir los nuevos espacios digitales. “Nuestros espacios cambian de forma ante nuestros ojos”, escribe Bittanti. “Los no-lugares de Marc Augé han sido reemplazados por hiper-lugares, los paisajes electrónicos del videojuego han trascendido a la pantalla para convertirse en una forma mentís, una manera de entender y formarse un concepto de la realidad, una versión actualizada de la noción de mapa cognitivo de Jameson. Los Hiper-lugares son abstracciones de espacios mediados, como los que experimentamos en la televisión y el cine. Los Hiper-lugares son el instante espacial de las simulaciones. Los Hiper-lugares están omnipresentes en las sociedades desarrolladas tecnológicamente. Estos espacios tienen sus propias reglas. Su lógica interna, cronologías peculiares, dinámicas específicas. Los videojuegos no simulan la realidad realmente: más bien simulan realidades mediadas.”

    He pasado las vacaciones de verano en diversos hiper-lugares narrativos que me han terminado de convencer de que, pese a todo, los hiper-lugares literarios son más complejos que las geografías —todavía elementales a pesar de su aparente sofisticación— de la simulación virtual. La existencia de estos hiper-lugares no se fundamenta exclusivamente en la simulación de un espacio mediatizado (decir que la literatura contemporánea trabaja a partir de una realidad ya simbolizada por los media, se ha convertido en un lugar común), sino en la superposición de lugares físicos o geográficos con flujos de energía, diferencias de potencial, cambios de fase; analizando las transiciones, en palabras de Gilles Deleuze y Félix Guattari, entre un “espacio liso o nómada” y un “espacio estriado o sedentario” (1)

Los hiper-lugares literarios (Zona de Mathias Enard, España de Manuel Vilas, Imperial y Europa Central de William Vollmann o Australia de Jorge Carrión, por citar cuatro ejemplos recientes en los que, curiosamente, el título del libro coincide con el nombre del hiper-lugar) se encuentran a menudo en el borroso límite entre la ficción y el reportaje. Los hiper-lugares son psicológica y cognitivamente inabarcables, pero se despliegan a partir de lugares reales y trayectos auténticos. De hecho, en plena era de Google Earth, todos los autores citados más arriba desatienden el consejo borgiano y se desplazan en persona a los territorios que van a describir, incuyéndose a sí mismos en los flujos).

Los inmigrantes ilegales que circulan por Imperial no se dirigen en realidad a ninguna parte, fluyen a través de la frontera entre México y los EEUU para, en la mayor parte de los casos, ser repatriados a su país de origen por las patrullas fronterizas. Imperial no es un conjunto de historias personales más o menos exitosas, más o menos trágicas, sino la historia de esa atracción por la frontera, la historia de esos flujos continuamente cambiantes. La topología de un espacio nómada superpuesto al espacio estriado de las divisiones fronterizas, a las dificultades para llegar más allá del desierto y de las montañas. Los no-lugares están repletos de transeúntes comunes, criaturas de hábito que tienden a recorrer más o menos el mismo camino en intervalos de tiempo semejantes, pero pueden transformarse en hiper-lugares aplicando la maquinaria literaria adecuada, como demuestra Robert Juan-Cantavella en El Dorado. Los hiper-lugares, en cambio, están marcados por el accidentado y cambiante recorrido de los ilegales, los soldados, los espías, los traficantes. Los hiper-lugares son el paraíso del contrabando y la mentira y, por eso, también de la literatura.


(1) Los diferentes modelos de espacio liso y estriado son analizados en detalle por Gilles Deleuze y Félix Guattari en “Mil Mesetas”, Pre-Textos, 1994, pp 483-509.




Vicio Intrínseco
(QUIMERA Nº 310, NOVIEMBRE 2009)


La aparición de Fritz y Sparky, un par de “protociberpunks” capaces, a finales de los 60, de manejar ARPAnet como si de un mini-Internet con un mini-Google se tratase, es uno de los numerosos aciertos de Inherent Vice,  la última novela de Thomas Pynchon (1). Un truco para reescribir la historia reciente desde una perspectiva radicalmente actual de un modo que el poeta y crítico  Bradley J. Fest ha comparado con la revisión de la Segunda Guerra Mundial realizada por Tarantino en Inglorious Bastards. “En esta época tardía y extraña”, escribe Fest, “se siente algo así como una llamada a ‘recordar’ el sentido del futuro contenido en aquel momento en el que el pasado desaparecía lentamente, cuando la naturaleza revolucionaria del estilo de vida hippie se estaba dando cuenta de su propia ingenuidad narcisística […] Hay simplemente demasiado del siglo XXI para entenderlo como una simple crítica  del Los Ángeles (o la Norteamérica) de los sesenta y de en qué se convirtió.”(http://hotmetalbridge.org/?p=906)

Precisamente, la novela termina con una conversación entre Sparky y Doc Sportello, el detective que protagoniza la historia, que resume las dos posturas ante la tecnología de la información que todavía caracterizan la cultura de masas en nuestros días.  Fritz, dice Sparky, “piensa que ARPAnet le ha arrebatado el alma”. “¿Es eso cierto”, pregunta el protagonista? Y contesta Sparky: “Las almas no tienen utilidad alguna para el sistema. No para como funciona. ¿Incluso ese asunto de meterse en las vidas de otros? No es como un viaje oriental de absorción  en una conciencia colectiva. Se trata solamente de encontrar cosas que otros no pensaban que ibas a encontrar.” Entonces es cuando Sportello se da cuenta de que ARPAnet no tardará en matar a la estrella de la novela negra.

De los numerosos aspectos que me interesan en Inherent Vice, destaco esta capacidad para iluminar el pasado con el ahora (una forma sutil de anacronismo, ya que, aunque ninguno de los elementos que aparecen en el libro son estrictamente anacrónicos, pues existen en el tiempo en que la acción discurre, sí lo es el protagonismo que se les otorga)  que Pynchon maneja con tanta maestría en todas sus novelas, porque creo que ilustra un modo de mirar hacia el futuro —aunque sea desde un pasado de ficción— que deberíamos adoptar con más frecuencia. El futuro al que tenemos acceso existe únicamente en nuestras anticipaciones, como producto de los múltiples mecanismos que nos permiten inferir lo que va a suceder a partir de los datos disponibles en la actualidad. Pero esta inferencia es presente, del mismo modo que la historia es siempre un aspecto del hoy aunque su objeto sea lo que ya no reconocemos como actual. Esa “actualidad” del porvenir hace que toda anticipación operativa generalizada se convierta automáticamente en conservadora con independencia de cuales sean sus objetivos (lo que, de hecho, la hace conservadora es que tenga objetivos): Intentamos conservar para el futuro la idea del futuro que tenemos hoy, a costa de prevenirnos contra las posibles alternativas que puedan surgir durante el transcurso de ese presente que deseamos aplazar.

Tal “aplazamiento” transcurre desde que alguien propone una nueva idea hasta que llega a ser comprendida, aceptada y desarrollada, cuya duración depende de intereses ajenos a la propuesta y al que se debe añadir el imprescindible “período de pruebas”. Por eso, el futuro del que se nos quiere hacer entrega hoy es moneda falsa o, en el mejor de los casos, devaluada a causa de la deuda (cultural y económica) que se nos obliga a contraer.
    Resulta curioso: en la economía política contemporánea, la deuda ha sustituído a la plusvalía. El producto del trabajo y el capital parecen no generar un valor añadido, sino, al contrario, un continuo y cada vez mayor balance negativo que se traslada siempre al porvenir en forma de contaminación, pérdida de valores, desaparición de la intimidad etc. Quizás esa moneda falsa, que se ha convertido ya en el valor mayoritario de intercambio, sea el vicio intrínseco de nuestra cultura.


(1) La traducción castellana sería “vicio intrínseco” o “defecto constitutivo”, expresiones utilizadas en la jurisprudencia para referirse a una condición natural de ciertos objetos que los hace más susceptibles de estropearse o destruírse sin necesidad de intervención externa.




Bienvenidos a la era postdigital

(QUIMERA Nº 312, ENERO 2010)


En la teoría crítica contemporánea, un post o un after precediendo a una palabra aportan un carácter dialéctico, nunca cronológico, al término que va a continuación. La postmodernidad, por ejemplo, no es un período histórico que “llega después” de la modernidad, como el arte afterpop no es un movimiento artístico posterior al pop: se trata en ambos casos de un modo característico de entender y procesar, a menudo contemporáneamente o, como mucho, en su fase más madura y tardía, la circunstancia que sucede al prefijo.
 
Remitiéndome a esta costumbre, cuando empeleo el término postdigitalidad no me refiero en absoluto a que el arte digital esté siendo —o vaya a ser— relegado por novedades analógicas o, menos todavía, como algunos pensadores han pretendido, un regreso a la seguridad de “lo real” tras una pasajera fascinación por “lo virtual”. Cultura postdigital es, en mi opinión,  aquella que produce una sociedad que ha asimilado lo digital como parte del mundo “natural” (nada “frío” e “irreal”, sino pura materia y pura vida, con sus molestias y sus imperfecciones), de tal modo que lo digital deja de ser el medio supremo de las artes o un objetivo artístico en sí mismo, se hibrida espontáneamente con lo analógico y, a partir de ese momento, hace volar por los aires la dualidad “analógico/digital” que, en cierto modo, se había convertido en la continuación por otros medios —y a través de otros medios— de la aberrante separación moderna entre naturaleza y artificio. Aunque se viene hablando de “postdigitalidad” desde hace ya unos años (especialmente con respecto a la música [1]), y aunque hemos sido testigos de la aparición de obras claramente postdigitales (la novela House of Leaves de Danielewski, los “Nueve cuadros clásicos” de Peter Greenaway, los óleos de Damian Loeb, los edificios de Rem Koolhaas, la música de Autopoieses y T:un[k]) creo que la gran expansión de lo postdigital tendrá lugar durante la segunda década del siglo.

En la música, según Kim Cascone, la postdigitalidad procede de la superación del ordenador como máquina de componer para centrarse en la apropiación creativa de los “fallos del sistema” (glitch music). “La estética postdigital”, escribe Cascone, “se desarrolló en parte como resultado de la experiencia inmersiva de trabajar en ambientes sobrecargados con tecnología digital: el chirrido de los ventiladores de los ordenadores, las impresoras láser, los sonidos de las interfaces de usuario y la vibración de los discos duros. Pero más especificamente procede de los “fallos” de la tecnología digital […] De hecho, el “fallo” se ha convertido en una estética prominente en muchas de las artes de finales del siglo XX, recordándonos que nuestro control de la tecnología es una ilusión, y que los instrumentos digitales son tan perfectos, precisos y eficientes como los seres humanos que los construyen. Las nuevas técnicas se descubren a menudo por accidente o por el fallo de una otras técnicas o experimentos”

En el reciente encuentro CRTL+ALT+DEL. Reiniciando el Monstruo, organizado en Madrid por el escritor Javier Moreno, expuse que el arte experimental contemporáneo ha seguido dos direcciones no excluyentes: lo que denominé funcionalismo tecnológico, o búsqueda de nuevas formas para funciones existentes y lo que resumí como formalismo evolutivo, o búsqueda de nuevas funciones para las formas. En buena medida, el arte digital, el bioarte y gran parte de las artes performativas se han decantado por la primera de estas opciones. Ahora, una vez asumidas las “formas digitales” como un estándar más de realidad imperfecta, comienza a llegar el momento de ensayar nuevas funciones para estas formas.

El inicio de la era postdigital ha estado marcado por las artes que, desde hace ya un par de décadas, se han colocado en la vanguardia conceptual y técnica: la música y la arquitectura. Pero creo que la literatura puede y debe aportar mucho a postdigitalidad. Aunque nos equivoquemos en nuestras intenciones. Como dice el músico David Zicarelli, citado en el artículo mencionado más arriba, “para la audiencia, el fallo tiende a ser más interesante que el acierto”.



[1] Kim Cascone, The Aesthetics of Failure: “Post-Digital” Tendencies in Contemporary Computer Music, Computer Music Journal, 24:4, pp. 12–18, 2000