Archive for the CIENCIA Y TECNOLOGÍA Category

La privacidad en los tiempos del algoritmo Big Brother reloaded

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, inteligencia colectiva, redes sociales, TIC with tags , , , , , , , , on junio 16, 2017 by zewx

privacidad_online

15 de junio de 2017. La privacidad en las redes electrónicas, llamadas en corto “redes sociales”, se encuentra recientemente bajo la lupa en centros de estudios académicos y organizaciones civiles, pero al parecer a los miles de millones de usuarios los tiene sin cuidado, mientras la miel siga fluyendo de sus dispositivos favoritos, muy contentitos seguirán poniéndose como tiro al blanco del llamado micro-marketing basado en minería de datos.

Desde hace unos cuantos años quien no esté en las redes sociales, prácticamente “no existe”. Por supuesto son falacias del mundo transposmoderno, donde conviven situaciones y actitudes por lo menos eclécticas, con múltiples combinaciones de “necesidades” fantasmales creadas por las grandes empresas y consorcios multinacionales, con el uso de las nuevas Tecnologías de Información y Comunicación (TIC) el negociazo del siglo XXI, en el que más vale estar conectados o, sencillamente no estás… “Me conecto, luego existo”, diría un filósofo neocartesiano.

Todos hemos escuchado que gracias a las nuevas tecnologías cualquiera se puede comunicar con quien sea, todo el tiempo, estén donde estén, claro, siempre y cuando se cuente con un aparato, un plan o crédito suficiente para estar “conectado todo el tiempo”, a sabiendas de que hay trucos para no estar, aunque algunos son para verdaderos iniciados.

Hoy parece importar a pocos si son rehenes voluntarios de acosadores domésticos o laborales, o incluso potenciales víctimas del crimen, pero también de las eternas actualizaciones y de la obsolescencia programada, tanto en equipos como en aplicaciones que, no obstante ser “gratuitas”, cobran su jugosa cuota de datos e información personal de los usuarios e incluso contactos, que encantados con este flautista de Hamelin digital, no solo se hiperconectan sino que orondos brindan su localización para que todo el mundo se entere dónde se encuentran y qué hacen en todo momento, con lujo de imágenes y hasta videos “en tiempo real”.

Los servicios de Google, y la reina de las redes, Facebook -que también posee Instagram, WhatsApp y Oculus, entre decenas de otras empresas menos popularizadas-, de manera muy inteligente disponen de poderosos algoritmos de minería de datos, para vincular todos los hábitos personales y de grupo, con la maravillosa herramienta que encuentra en segundos lo que se desea, y que incluso a veces pareciera adivinar el pensamiento, y poco a poco las pantallas chicas o grandes se ven sobrepobladas con anuncios de productos y servicios de su preferencia, “¡qué chistoso!”, exclaman desde las abuelas hasta los nietecitos en sus flamantes iPads, ante la aburrición de los millenials, que exigen ir “al siguiente nivel”.

Sin embargo, los casos que han salido a la luz, tanto de víctimas de acoso, actos criminales o de la benévola publicidad digital, ponen al descubierto estrategias de marketing que aunque son aceptadas tácitamente por las personas, al validar las “cookies” con “me gusta” y vínculos compartidos que pocos se detienen a analizar, o desinstalar, son por lo menos antiéticas, según analistas y expertos.

Uno de esos casos se registró a finales de abril de 2017 en Australia, con la filtración de un documento interno de Facebook, publicado en The Australian, en el cual esta mega empresa ofreció a un grupo de anunciantes de ese país la posibilidad de llegar a casi 6 y medio millones de usuarios adolescentes australianos y neozelandeses, en momentos de vulnerabilidad emocional y psicológica, por sus estados emocionales basados en palabras como “inútil”, “estrés”, “inseguro”, “derrotado”, “ansioso” y “fallido”.

La compañía de Zuckerberg se justificó pero no admitió acto antiético, y recibió una carta firmada por organizaciones civiles de más de doce países (incluido México, con SonTusDatos Artículo 12, A.C.), para exigir una explicación satisfactoria, ante la evidencias de tácticas de mercadeo emocional abusivo. Algunos ejecutivos dieron entrevistas poco convincentes, ante estudios realizados por especialistas, como Tom Oswald y Saleem Alhabash, de la Universidad Estatal de Michigan, que han demostrado la relación entre el uso de las redes sociales y el alcoholismo entre adolescentes, “quienes tienen una necesidad particular de motivación en este momento particular y darles mensajes relacionados exactamente con lo que sienten, el retorno de inversión es cuantioso”.

En los últimos años, Facebook adopta herramientas que incluyen técnicas como el neuromarketing y el desarrollo de investigación biométrica que incorpora pruebas y análisis de las reacciones corporales y emocionales, como las respuestas del cerebro, corazón, movimientos oculares y memoria, con la adquisición y alianza con empresas especializadas en el rastreo y diseño de algoritmos orientados al mercadeo. Tal es el caso de Datalogix, Epsilon, BlueKai y Acxiom, esta última con 23 mil servidores que almacenan 1,500 puntos de datos por persona de 500 millones de consumidores activos en el mundo.

Está documentado ampliamente que estas tácticas de abuso empleadas por Facebook a través de estas alianzas estratégicas, redundan en el cruce de bases de datos que se incorporan en línea y fuera de Internet, y que dan a cada usuario una clave, con la técnica denominada como “hash”, algo así como un CURP, ya que cada vez más empresas y organizaciones registran los datos de sus clientes en bases de datos, incluso registros públicos, que los mismos consumidores están dispuestos a proporcionar en una modalidad del crowdsourcing, por las promociones y membresías que se ofrecen, al proporcionar sus correos electrónicos y otros datos personales, que son comparados con los perfiles de Facebook, Instagram, Google, entre otras redes, en lo que se denomina database marketing, con la economía de “likes” y las acciones para compartir.

Las personas diligentemente no solo comprometen sus gustos y situaciones, sino también los de sus conocidos, amigos y seguidores, y viceversa: si un usuario no aporta información suficiente en su perfil, sus amistades lo harán, con la misma mecánica de “gustar y compartir”, creándose un enriquecido entorno de mercadeo para colocar publicidad de precisión, con 52 dos mil categorías únicas, específicas y de terceros.

Con todo, muchos usuarios no ven riesgos en estas prácticas, y se jactan de disfrutar de nubes de datos que facilitan sus actividades de consumo, pero ¿dirían lo mismo siendo víctimas de criminales al acecho que pueden penetrar o comprar muy fácilmente dichos datos? ¿Qué opinan de las campañas de mentiras que pueden inducir los resultados de una elección?

Fuentes consultadas:

Wired / Get Ready for the Next Big Privacy Backlash Against Facebook / Nitasha Tiku

Silicon BeatNonprofits urge Facebook to realease research targeting “insecure” teens / Queenie Wong

Propublica / Facebook Doesn’t Tell Users Everything It Really Knows About Them / Julia Angwin, Terry Parris Jr. y Surya Mattu

Lifehacker / How Facebook Uses Your Data to Target Ads, Even Offline / / Thorin Klosowski

The New York Times / Mapping and sharing, the consumer genome / Natasha Singer

 

Breve historia de la realidad virtual 1950-2016 (tercera parte)

Posted in CIENCIA Y TECNOLOGÍA, informática, Realidad Virtual, SOFTWARE, Uncategorized with tags , , , , on mayo 29, 2017 by zewx

eye-tracking

29 de mayo de 2017. El avance imparable en más velocidad y memoria en los equipos de cómputo en los años 80 del siglo XX sentó las bases para que los programadores y científicos desarrollaran software avanzado de visualización y para finales de esa década ya se disponía de estaciones de bajo costo generadoras de gráficos, con alta resolución y velocidad de procesamiento necesarios abrir el mercado en las computadoras personales y consolas de videojuegos, como puntas de lanza de la industria, dispositivos que también han construido al paso de las siguientes tres décadas la socialización de la interfaz interactiva y cultura estética que actualmente ha rebasado con mucho a las comunidades de gamers, con la decisiva expansión a otros segmentos del mercado, que ha permitido el flujo de inversiones para el lanzamiento en 2016 de diversos productos que han madurado durante décadas en los laboratorios científicos.

Hoy en día la realidad virtual se dirige a cambiar la manera en que interactuamos y controlamos las computadoras, aunque hasta el momento se desconoce su impacto a largo plazo: si la RV estará en hogares, escuelas y trabajos, si la inmersión personal será la forma en que se verán las películas y el video en general, y se experimentará la música, el arte, con una cantidad indefinida de aplicaciones posibles en diversas áreas del conocimiento y la dinámica socioeconómica.

Lo único que se sabe cabalmente de esta plataforma es que crecerá su uso en los próximos años, y al mejorar y abaratarse los productos de hardware, software, y por tanto la variedad de contenidos, probablemente cada vez tendrá más presencia en diferentes aspectos de nuestras vidas cotidianas, y el único límite es la imaginación.

No puede soslayarse la necesidad de un análisis crítico sobre los efectos que tendrá en el mediano y largo plazo en la percepción y configuración neuronal, y en la información que los sistemas obtendrán de la interacción humano-máquina, que abre una importante interrogante en la privacidad por los usos que se den a los datos obtenidos de las emociones y reacciones derivadas de la exposición a estas tecnologías.

Breve historia de la realidad virtual 1950-2016 (segunda parte)

Posted in CIENCIA Y TECNOLOGÍA, informática, Realidad Virtual with tags , , , on mayo 8, 2017 by zewx

IMG_16108 de mayo 2017. El desarrolllo de las aplicaciones de realidad virtual hacia la industria del videojuego.

En 1979 los militares experimentaron con dispositivos en forma de casco o headset, que se desarrollaron en respuesta a los peligros en las acciones de vuelo asociadas con entrenamiento de los modelos previos. Las mejoras de software, hardware y plataformas de control dinámico durante la década de los 80 permitieron a los pilotos y controladores operar en mundos virtuales altamente detallados, con un nivel de riesgo muy bajo.

En esos años la llegada al mercado de las primeras computadoras personales y las aplicaciones gráficas encontraron un nicho “natural” en la industria del entretenimiento, que fue la fuente de importantes innovaciones en realidad virtual, como el dataglove, dispositivo de interfaz que detecta los movimientos de la mano, originalmente inventado para producir sonidos al vincular gestos manuales a un sintetizador musical, antecedente muy importante para la manipulación de objetos y dispositivos reales a partir de entornos virtuales.

Una de las metas de la visualización científica es capturar en imágenes las cualidades dinámicas de sistemas o procesos. Se tomaron prestadas de la cinematografía muchas de las técnicas de efectos especiales, y se incorporó la animación, pero una vez realizada, ésta no podía ser modificada.

Los científicos y los militares querían interactividad, así como la industria, los negocios y el entretenimiento, demanda que presionó la visualización por computadora hasta sus límites, en un claro camino hacia la realidad virtual como hoy se conoce, y que tendría un crecimiento exponencial en la industria de los videojuegos.

La singularidad tecnológica y la superinteligencia posthumana. La salvación ¿demasiado tarde?

Posted in CIENCIA Y TECNOLOGÍA, Uncategorized with tags , , , , , , , , on abril 26, 2017 by zewx

singularity

El avance exponencial de distintas ciencias, particularmente la informática y la manipulación de la materia a niveles atómicos, puede ser lo que defina el futuro como utópico o distópico, ambos términos generalmente derivados de la ficción, permiten vislumbrar la solución a muchos de los más ingentes problemas de la humanidad, o la declinación inevitable de la sociedad industrial, nudo en el que se localiza actualmente el debate científico y filosófico.

Según explica el futurólogo Christopher Barnatt en su portal Explaining the Future, esta superinteligencia posthumana puede ser creada totalmente en computadoras; en la extensión artificial del cerebro humano, o el sistema híbrido de sistemas computacionales y cerebrales en una entidad de inteligencia colectiva, activada por un bucle de retroalimentación en que la inteligencia así estructurada llevaría a una tecnología aún más poderosa, y éste, a su vez una inteligencia superior, indefinidamente.

Barnatt menciona que una vez alcanzada la singularidad, para la cual no falta mucho, dicho sea de paso, podrán ser dominadas varias ciencias emergentes y convergentes como Inteligencia Artificial, nanotecnología, ingeniería genética, robótica, cibernética y biología sintética, a niveles nunca antes imaginados.

Indica que las preguntas relevantes tienen que ver con los alcances de la singularidad tecnológica para acabar con los problemas de la humanidad, y en términos prácticos se lograría que al menos 10 mil millones de personas puedan vivir con altos estándares de vida, cuando los alimentos, por ejemplo, puedan obtenerse a partir de cualquier desecho.

Sin embargo, los profetas de la distopía opinan que la singularidad tecnológica no llegará  a tiempo o no será suficiente para sustituir los combustibles fósiles, formados en miles de millones de años, y prácticamente agotados en apenas dos siglos de sociedad industrial y por ello el especialista advierte que estamos frente a la última oportunidad con acciones obligatorias para los próximos veinte años, y depende de que las grandes empresas e inversiones se organicen en planes de largo plazo, pero sobre todo, el compromiso de las personas en el mundo para crear y creer en una Era Verde, en la cual todas las tecnologías confiables de la postsingularidad puedan germinar y dar frutos casi inimaginables, apunta Barnatt.

Breve historia de la realidad virtual 1950-2016 (primera parte)

Posted in CIENCIA Y TECNOLOGÍA, Realidad Virtual, SOFTWARE with tags , , , on febrero 2, 2017 by zewx

por z kevorkianthl9uyjpbx

Introducción

La millonaria inyección de capital en el desarrollo de la Realidad Virtual (VR por sus siglas en ingés) permitió que 2016 fuera el año de la presentación en sociedad de los dispositivos para el mercado de consumo, como el Oculus Rift, Vive/Valve, Playstation VR Sony y Samsung gear VR, Google daydream, pero hay muchos otros visores que confirmaron los pronósticos de la agencia especializada Deloitte Global en el sentido de que la RV vendería sus primeros mil millones de dólares en 2016, con $700 millones en ventas de hardware y el resto en contenidos. Se espera desarrollo de múltiples aplicaciones para empresas y consumidores pero en la mayor parte de la actividad comercial se enfoca en videojuegos. Se estiman ventas de alrededor de 2.5 millones de headsets y 10 millones de juegos vendidos.

visor-1Una vez que salieron al mercado inició la consabida carrera por el abaratamiento y mejoramiento de los aparatos, y aunque siguen siendo poco accesibles para el consumo masivo, en poco tiempo (estimado de 3 años) podría asegurarse que cada casa tendrá al menos uno de estos poderosos transportadores a una infinidad de aplicaciones de mundos virtuales, que hoy se acomoda en el perfil de los videojuegos pero que tendrá un fuerte impacto en la generación de contenidos de todo tipo, desde el entretenimiento hasta la educación.

Pero hay múltiples preocupaciones que atosigan a los propios desarrolladores y especialistas, por los cambios a nivel ontológico y psicológico que conlleva el uso las tecnologías de inmersión, las nuevas narrativas y posibilidades a la vuelta de la esquina, pero sobre todo inquieta el efecto físico-sensorial de la inmersión, llamado “motion sickness”, kinetosis, es decir el mareo que se experimenta, y que para muchos es intenso, pero también debe ponerse máxima atención a las consecuencias del escaneo y registro de los gestos y emociones del usuario, oro molido para los demiurgos del marketing y grave tema para la privacidad de las personas.

Este artículo, en varias entregas, se propone explorar los orígenes tecnológicos de la Realidad Virtual, y aunque se trata de una tecnología desarrollada en las últimas décadas, sus raíces antropológicas podrían rastrearse hasta el corazón mismo de la imaginación del ser humano en la creación de realidades alternas, que podría remontarse hasta las cuevas de Altamira.

Pioneros y mavericks. Los años 50.

od-bj507_vrfilm_fr_20160303125122En los años 50 del siglo XX se observa una confluencia de las telecomunicaciones con las tecnologías para la generación de gráficos por computadora, escenario propicio en que personajes como el ingeniero en radares de EUA, Douglas Engelbart, propusieran convertir los lenguajes informáticos en representaciones gráficas, como herramientas para la visualización digital, ideas ignoradas en los años 50 pero que en la siguiente década se socializaron y empezaron a construirse.

Al hacerse accesibles las primeras computadoras basadas en transistores en lugar de bulbos se creó la sinergia necesaria para la fabricación de equipos cada vez más amigables, hasta la llegada de las computadoras personales cuando se allanó intensamente el camino para un uso amplio y desarrollo indetenible de aplicaciones y procesadores más eficientes de gráficos generados por computadora, 2D, modelado 3D, animación y más tarde la conjunción de tecnologías que dieron lugar al desarrollo de la realidad virtual.

Los radares para sistemas de defensa fueron los primeros simuladores de datos en “tiempo real”.

Diseñadores y científicos trabajaron aceleradamente en modelos avanzados de modelado por computadora para expresar múltiples conjuntos de datos como imágenes y simulaciones.1_ianfewyzisge2lzahrdata

En 1962 Ivan Sutherland desarrolló una pluma de luz con imágenes trazadas en una computadora y creó el primer programa de diseño, el Sketchpad, y abrió el camino para que los diseñadores industriales crearan modelos y planos de automóviles, ciudades y productos industriales diversos.

Uno de los antecesores más influyentes de la realidad virtual fueron los simuladores de vuelo en las postrimerías de la segunda guerra mundial y hasta los años 90. Proceso en el cual los complejos militares e industriales destinaron millones de dólares al desarrollo de tecnología aeronáutica para simular los vuelos de aviones y después tanques y buques, sumándose a la tendencia de desarrollo tecnológico de origen militar.

De las profundidades sinápticas a los artefactos culturales: Roger Bartra y su Antropología del cerebro (primera parte)

Posted in ARTE, CIENCIA Y TECNOLOGÍA, CULTURA on noviembre 28, 2015 by zewx

brainsoutEl libro Antropología del cerebro. Conciencia, cultura y libre albedrío, de Roger Bartra (Fondo de Cultura Económica, segunda ed. 2014)) es una sorpresa fascinante sobre esa materia nebulosa tan abigarrada de misterios, como el universo mismo, como es ese microcosmos electrobioquímico llamado cerebro, y el fenómeno de la conciencia; las conexiones humanas únicas desplegadas en la Cultura y sus relaciones con la realidad, sea ésta lo que sea: un caos cotidiano de sensaciones y decisiones en las que también orbitan la propia ciencia, el arte, y la manera como nos relacionamos unos con otros, donde los lenguajes y códigos han mutado como extensiones del sistema nervioso que se han confeccionado a lo largo de milenios y que se traspasan de generación en generación, de lo genético a lo aprendido.

En una hermosa alegoría del micro y macrocosmos, el cerebro humano encarna tantos misterios y especulaciones como el universo o las profundidades abisales, donde los escasos datos dan lugar a generosas historias científicas, pero en el caso de la bolsa encefálica del ser humano, la posibilidad de rebanarlo hasta lo absurdo, se descubren elementos que dan luz sobre algunos aspectos de su funcionamiento en un planeta global, masificado e hpermediatizado, pero otros prohíjan más interrogantes, y uno entre muchos otros casos, y que siguen maravillando a los científicos sin tener conclusiones claras, es el de Hellen Keller, del cual se conoce más profundamente por la propia iniciativa de esta deslumbrante mujer para documentar su caso y darle explicaciones ontológicas y epistemológicas de gran riqueza para las ciencias neurológicas.

Esta segunda edición ampliada, de 2014, impresiona a cada paso con un nutrido repaso por las más actualizadas investigaciones y teorías sobre el cerebro, la conciencia, la memoria, el conocimiento, la mente creativa, con un abanico impresionante de autores y experimentos que este antropólogo nos regala en su hermoso ensayo de menos de 300 páginas, una de esas lecturas que se saborean con lentitud, por la importancia de su contenido y las revelaciones que paso a poco dibuja el autor con sabia amenidad, para llevarnos suavemente de la mano, como en una charla peripatética a sus planteamientos para responder a la pregunta: ¿la conciencia, el lenguaje y la inteligencia son un fruto de la cultura o están estampados genéticamente en los circuitos neuronales?

Y justo ahí empieza la aventura de Bartra para explicar el funcionamiento de estos mecanismos: “la incapacidad y la disfuncionalidad del circuito somático cerebral son compensadas por funcionalidades y capacidades de índole cultural (…) El circuito neuronal es sensible al hecho de que es incompleto y de que necesita de un suplemento externo. Esta sensibilidad es parte de la conciencia”, y nos dice con claridad, para cerrar el capítulo de arranque: “Mi hipótesis supone que ciertas regiones del cerebro humano adquieren genéticamente una dependencia neurofisiológica del sistema simbólico de sustitución. Este sistema, obviamente, se transmite por mecanismos culturales y sociales”.

Esa es la clave y por supuesto que el autor irá paso a paso deshojado la cebolla de las numerosas investigaciones en distintas disciplinas de las ciencias del cerebro, desde las psicologistas hasta los fisiologistas, explicaciones antropológicas y lingüísticas-semióticas.

En 100 mil años el ancestro de los humanos duplicó el tamaño de su masa encefálica en un proceso evolutivo que sólo podría atribuirse a un motor social y cultural y las mutaciones de adaptación y supervivencia modificaron la estructura y anatomía cerebral-craneana con la expansión parietal y la forma de la corteza hacia una configuración esférica, braquicéfala que además redundó en una alteración de funciones y habilidades, atrofiándose unas como el olfato y modificándose otras como la vista y el oído, y fue como la asunción a un medio extraño y amenazante que produjo el sufrimiento necesario, señala Bartra, que para adaptarse sustituyó las sensibilidades perdidas con sistemas de señales y comunicación, aprendizaje y cultura hacia complejos sistemas simbólicos, incluido el lenguaje, detonante definitivo de lo que algunos científicos como Ian Tattersall prefieren considerar más una mutación que una adaptación al medio.

Bartra, siempre apoyado en los más recientes postulados científicos, calcula que al terminar el último periodo glaciar, hace más de 45 mil años, se desarrolló el proceso de expansión del exocerebro humano, como “un proceso estrechamente conectado al sistema nervioso central”, y esa es la esencia de su hipótesis, al contornear “procesos de plasticidad neuronal en circuitos que requieren de experiencias provenientes del medio externo para completarse de manera normal”.

 

En busca del método para la investigación documental web.

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, inteligencia colectiva, internet on agosto 23, 2012 by zewx

Por Alfonso Esparza C.

En el recorrido por el magnífico volumen de ensayos The Handbook of Internet Studies, editado en 2011 por Mia Consalvo y Charles Ess, trabajos como el de Niels Brügger “Web archiving: between past, present and future” cobran especial interés por su sistemática insistencia en la necesidad de un trabajo transdisciplinario que integre necesidades y experiencias en un modelo de trabajo creativo, en que tendrían un rol de primer orden las instituciones de preservación documental con programas y proyectos de documentación digital en proceso, para unificar iniciaivas, compartir experiencias, y evitar la duplicidad de funciones compatibles y factibles para ser compartidas, y sobre todo, no cometer errores de método que tienen un alto costo.

En el camino hacia la consolidación de las investigaciones de internet como objeto de estudio el ensayo de Brügger propone como punto de partida considerar al documento web como medio y como texto. La pregunta metodológica es si un nuevo tipo de documento debe ser tratado de una manera distinta de otros medios y textos. Para el autor la respuesta es afirmativa: en primer lugar porque se caracteriza por ser dinámico, efímero, cambiante, fundamentalmente diferente de los llamados medios masivos convencionales, a los que puede integrar en su contenido, y requiere nuevos métodos de investigación.

Estrategias de documentación web

Brügger  define sucintamente documentación web como cualquier forma deliberada y propositiva de preservar material publicado en ese medio, y distingue dos grandes géneros: micro y macro documentación. La pequeña escala emprendida por amateurs es micro archivar, a partir de necesidades de corto plazo, por una necesidad utilitaria para preservar un objeto de estudio en particular, como lo haría, por ejemplo,  un investigador o un estudiante al archivar los periódicos en versión digital en línea.

En contraste, macro archivar es un desarrollo de escala mayor que llevan a cabo instituciones con una especialización técnica y presupuesto a su disposición, con el fin de preservar materiales de interés para el patrimonio cultural en general. Aplica a grandes bibliotecas y museos que cuentan con equipo y software especializado.

El autor empieza por fijar un principio taxonómico para el material web, con dos características genéricas: es digital y se publica en internet. Puede clasificarse entonces como un subgrupo, por un lado un medio digital (junto con otros documentos electrónicos, consolas de juegos de computadora, CD-ROM/DVDs, etcétera) y por el otro lado, su existencia en internet, distribuido a través de una infraestructura de telecomunicaciones, mediante una serie de protocolos, hardware/software, etcétera que hacen posible una publicación con un sentido de transmisión, que está sucediendo simultáneamente en múltiples puntos.

En un análisis comprehensivo del material web como una unidad significante delimitada, se identifican cinco niveles analíticos, donde en un extremo se abarca todo el material que está presente en la red como un todo, y en el otro, la escala de un solo elemento, por ejemplo, una imagen o un hipervínculo en una página electrónica.

Una estratificación de cinco niveles el material a preservarse puede ser cualquier cosa desde la WWW como un todo a una “esfera web” a un sitio o un elemento en una página, siendo cada uno de estos cinco estratos un contexto mutuamente relacionado (WWW-esfera web- sitio web-página-web-elemento web).

Entre las diferentes capas del material documental una de las más importantes es la “esfera web”, conjunto de recursos digitales dinámicamente definidos distribuidos en múltiples sitios relacionados con un evento central, concepto o tema; el sitio web como unidad coherente de páginas, y una página electrónica individual.

El autor hace además una distinción entre material público y no-público, que resulta crítica en una investigación documental. En estas categorías se puede diferenciar según varias consideraciones:

1) Material no público o semi público: material documental mantenido en una intranet o sistema privado y que es accesible a un grupo reducido de personas; 2) material pre-público: bosquejos, diseños preliminares, versiones beta, borradores, dummies, etcétera; 3) material público que se ha publicado en otros medios como los impresos (periódicos, revistas, libros, bitácoras, etcétera) o se haya transmitido en estaciones convencionales de radio o televisión.

Especialmente en lo que respecta al periodo temprano de la historia de la WWW hay material preservado en medios no digitales, sin haber sido publicado pero que puede rastrearse desde la red almacenándose en otros medios, como los catálogos cinematográficos, entre muchos otros ejemplos.

Breve historia de la documentación web.

El simple acto de colocar un archivo de html en un servidor web conectado a internet para ser publicado, es ya de entrada una forma de preservación de un documento. La irrupción de la WWW en el mundo de los medios implicaba de entrada aunque con un alto componente arbitrario, la intención de preservar datos, documentos y archivos, hojas de cálculo, despliegues de pantalla, gráficas, etcétera, como respuesta a necesidades inmediatas. El quehacer académico documental no estaba animado entonces por una reflexión de lo realizado en el pasado ni se le consideraba como parte de un esfuerzo sistemático de salvaguardar los materiales de un patrimonio cultural digital.

Mucho de lo creado en esta primera fase está en poder de sus autores o desperdigado en internet, con varios ejemplos emblemáticos que ilustran esta circunstancia, como la primera pantalla web publicada por Tim Berners-Lee, en 1990, una reliquia extraviada.

Paradójicamente es este modelo amateur de documentación en la que se archiva gran parte de esa “prehistoria” de micro documentación que se suma a los documentos registrados en medios no digitales.

¿Bibliotecas estáticas de publicaciones digitales?

En el mismo periodo en que se documentaba de manera amateur por parte de individuos y pequeñas organizaciones, se fragua de manera concomitante un creciente profesionalismo e intenciones claramente formuladas de preservar la herencia cultural nacional publicada en internet.

El autor pone énfasis en la importancia de una innovación tecnológica toral en el desarrollo de la documentación web, los robots de búsqueda, que potencian las iniciativas de preservación documental.

Por ese entonces, a mediados de los noventa se formuló la idea de archivar virtualmente cualquier publicación de interés documental, sin importar su contenido o quién lo colocó en línea. Pero no sólo material similar a una publicación impresa, sino también el material dinámico multimedia.

Sin embargo, estas iniciativas emergen desde instituciones documentales como bibliotecas y hemerotecas, con criterios totalmente basados en la cultura de la biblioteconomía, al equiparar los documentos web con el material factible para ser impreso y encuadernado como los libros y los periódicos. Un ejemplo de esta aproximación es el Electronic Publications Pilot Project (EPPP) dirigido por la Biblioteca Nacional de Canadá en 1994, donde el criterio era seleccionar de todo documento web que tuviera la apariencia de publicación impresa, eran archivados y catalogados como tales, con los estándares convencionales de las bibliotecas públicas.

Más tarde esta misma institución los documentos en línea publicados en formatos como blogs y sitios web en general, son archivados con técnicas de selección y convenios de envíos de contenidos por parte de editores de publicaciones en internet relevantes para el archivo.

El Internet Archive fue creado en 1996 como organización no lucrativa, localizada en The Presidio, en San Francisco, Estados Unidos, con el propósito de preservar las colecciones históricas existentes en formato digital, y entre otros medios la web. Esta colección es construida con una estrategia de búsquedas en internet, subcontratada a una empresa privada, con criterios de vincular los datos y las estadísticas de rastreo de uso, es decir que se archiva lo que se vincula y lo que consumen los usuarios, de allí que la iniciativa sea transnacional de origen. La técnica de preservación empleada es la “instantánea” (snapshot), y cada ocho días es almacenado todo el material que se localiza mediante los buscadores con este método.

El Internet Archive dio inicio con un ejercicio bien delimitado, con la técnica basada en el evento, con las campañas presidenciales de 1996, en que se documentó todo lo vertido en los sitios web de los candidatos. Más allá de su “utilidad” estratégica, demostró la necesidad y potencial de la documentación web, en un momento en que su valor no era tan evidente.

Otros proyectos pioneros de preservación documental web es Kulturaw3, iniciado por la Real Biblioteca de Suecia, cuyo objetivo fundamental sería archivar todo lo relativo a este país y su cultura. Fue lanzado en 1996 con una primera cosecha documental en 1997, con la técnica de “instantánea”.

El archivo Pandora creado ese mismo año por la Biblioteca Nacional de Australia, con la técnica de selección con el enfoque de preservar “significativos sitios web de Australia y publicaciones en línea basadas en web”. Un limitado conjunto de sitios son seleccionados, archivados y catalogados, siendo una de las primeras iniciativas inspiradas en las colecciones de biblioteca, como el proyecto canadiense EPPP.

El Archivo Danés de Internet Netarchive.dk es una estrategia compartida entre la Biblioteca Universitaria del Estado y la Real Biblioteca, creado en 2005, luego de reformarse el fundamento constitucional.

En 2003 once de las más grandes bibliotecas nacionales de EE.UU. y el Internet Archive unieron fuerzas en la creación del Consorcio Internacional de Preservación de Internet. En 2004 el European Archive fue creado basado en la asociación entre bibliotecas, museos y otros órganos de preservación documental, que ha desarrollado desde entonces un circuito de conocimiento de las más recientes experiencias en la materia.

Una metodología dinámica, siempre subjetiva

El autor argumenta que una característica distintiva de archivar material publicado en web, independientemente de la estrategia del proceso, es una reconstrucción dinámicamente creada, la cadena de decisiones y criterios, incluso antes del arranque desde el URL de inicio, la selección entre las distintas estrategias y formas de archivar, en general y en detalle, implica que el documento archivado está basado en una decisión estrictamente subjetiva, por un individuo o institución.

Cuándo y desde dónde iniciar la selección y la ruta de búsqueda, y si serán incluidos o excluidos tipos específicos de archivos (imágenes, sonidos, flash, registro de chat o videoconferencia, hipervínculos activos, etcétera); si el material será recolectado de otros servidores, cómo será preservado este material; si será desde una perspectiva empírica y muy selectiva, o una planificada, de largo plazo, de escala regional, nacional o transnacional.

Aunque la problemática es la punta de un iceberg, se suma un elemento no menos relevante, que es el carácter cambiante y no estático del material que circula en la web, porque incluso los periódicos en línea con formato web podrían modificar sustancialmente o quitar de circulación un documento, y quedar disponible en versiones en cache o textos fantasmas del original, además de las deficiencias inherentes a la deliberada omisión en el proceso de selección. Hay sin embargo otras dos severas fuentes de error: las relacionadas con el tiempo, y los generados por problemas tecnológicos durante el proceso de documentar-archivar.

También destaca Brügger que el documento web está en riesgo de ser sujeto de la siguiente paradójica doble inconsistencia: por un lado el archivo no es exactamente como estaba realmente publicado originalmente en internet, porque en el proceso de guardar siempre se pierde algo. Por el otro lado, el archivo puede ser exactamente como nunca fue, porque siempre se obtiene algo diferente, siendo una gran paradoja que el documento preservado nunca es como la web “en vivo”, ya que el texto escrito, imágenes/gráficos, sonidos, imágenes dinámicas podrían faltar o algunas de las posibilidades de interactividad podrían no ser funcionales en la versión archivada.

Versiones de las versiones…

El proceso de archivar, en última instancia crea una versión única, pero no una copia del documento originalmente publicado, de lo cual se coligen dos consecuencias: se ha soslayado la relevancia de que un mismo sitio web “guardado” en distintos archivos en idéntica fecha y hora, difiere sustancialmente uno de otro.

La segunda consecuencia es que un documento nunca es la versión de un original y no se puede esperar encontrarlo en la forma en que fue publicado; tampoco se puede encontrar el original entre las distintas versiones, ni se puede reconstruir a partir de éstas.

La labor de los académicos especializados llevaría a un punto cercano a la crítica del texto, según la filología de manuscritos, en tanto que se trabajaría con versiones de un documento, en que las variantes son comparadas entre sí, en ausencia de algún original “autorizado” disponible. De allí que algunos de los métodos de la filología clásica del texto probablemente son relevantes para lo que Brügger y sus colegas llaman “filología web”, aunque es preciso, subraya, que debe ser analizado con la especificidad del material de medios incorporados en el documento web.

Al ahondar en el análisis el autor despliega una serie de características únicas a tomar en cuenta en el proceso de documentación:

–        Es un texto de varias capas, en el sentido de que puede ser examinado en niveles que se extienden desde el texto inmediatamente percibido (las unidades significantes que se ven y escuchan), hasta la variedad de elementos textuales subyacentes que no son percibidos de manea inmediata (el código fuente: HTML, XML, etcétera), así como las capas de la comunicación por internet (los modelos de protocolo TCP/IP, OSI o similar).

–        La escritura digital hace posible que el documento web archivado pueda ser continuamente re-escrito, en un sentido distinto al empleado tradicionalmente en los manuscritos, ya que la continua reescritura se da mayormente después de que el texto fue archivado, e incluso, en la perspectiva de una preservación documental de largo plazo, “migrar” a otros formatos.

–        La escritura digital permite en muchos casos comparar documentos archivados automáticamente.

–        Versiones idénticas del mismo material pueden existir en distintos archivos, muchas veces en sitios web pequeños y poco complicados, rara vez actualizados.

El futuro de la archivonomía web

Resulta imperativo el trabajo transdisciplinario entre las instituciones con iniciativas de preservación documental web y las comunidades de investigación de internet y establecer mecanismos de cooperación que no han sido aún establecidos.

La colaboración puede basarse en una variedad de formas, siendo tres las más obvias:

–        Las colaboraciones pueden se integradas en el día a día del quehacer académico en las operaciones del archivo web, por ejemplo al asociar al proyecto a un consejo asesor en que participen investigadores de internet y otros usuarios.

–        La colaboración puede ser ocasional, con relación a proyectos de investigación específicos o tareas concretas de archivar, por ejemplo, con investigadores que ya cooperan con instituciones que realizan programas de preservación documental web, en la planeación del proyecto de archivo, y no después de que se ha avanzado.

–        Estos dos tipos de colaboraciones pueden tener lugar en una escala global, con relación a proyectos transnacionales de investigación.

En lo que toca a la interacción entre los archivos y los investigadores se presentan tres desafíos que deben ser mencionados, advierte Brügger:

1) Debe ser iniciado un rastreo y preservación dirigidos de material heterogéneo que no ha sido hecho público, posiblemente con otros institutos dedicados a la preservación patrimonial como los museos.

2) Las instituciones dedicadas a la preservación documental web deben empezar a experimentar de manera más sistemática con las otras dos formas de archivo en la red: captura de pantallas y la entrega-distribución de material. Ambas tareas tienen la perspectiva de preservar tanto material como sea posible del patrimonio cultural de relevancia histórica y antropológica.

3) Las discusiones deben ser iniciadas de acuerdo con los alcances del software analítico utilizado en la web en vivo, que puedan ser aplicados al material archivado, teniendo en cuenta la composición específica de cada componente.

Finalmente, no menos trascendental es que la comunidad de investigadores de internet confronte a la brevedad el desafío de difundir el conocimiento sobre registro documental web tanto entre las otras disciplinas de las ciencias y humanidades (ciencia política, sociología, lingüística, literatura, artes, comunicación, historia, etcétera), tan sólo porque desde hace algunos años internet ha sido una parte integral de la infraestructura de comunicación de nuestras sociedades y el pensamiento contemporáneo.