Archivos para julio, 2012

Hacia una filología en los estudios documentales en la web / primera parte

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, internet on julio 10, 2012 by zewx

Por Alfonso Esparza

En el curso de una investigación de más largo aliento sobre los usos sociales de las telecomunicaciones en los últimos 30 años, la revisión de las fuentes arrojó una evidencia empírica que después comprobé: los estudios mismos de los medios electrónicos en red han cambiado, y como otras disciplinas han encontrado legitimidad en la sistematización de los modelos de análisis del objeto de estudio. En la lectura de materiales diversos, obtenidos de internet, algunos que datan de mediados y fines de los años 90 y otros tan recientes como el año 2011, me encontré con la serie de manuales de comunicación y medios de Wiley-Blackwell, con un grueso volumen: The handbook of internet Studies, editado por Mia Consalvo y Charles Ess, publicado en 2011.

Sus casi quinientas páginas no tienen el menor desperdicio, reúnen una familia de ensayos imprescindibles para entender este objeto de estudio que cambia “en tiempo real”, híbrido por excelencia, que se ha acomodado a la impronta de “nuevo medio”, aunque toma elementos de algunos tan antiguos como la escritura, y hoy tan comunes como la telefonía o la radio, que después del asombro casi mágico de los primeros días, en pocas décadas se integran a la vida social, transformándola en el camino.

La forma en que se almacena y distribuye la información en Internet y cómo impacta la vida de las personas, son los ejes de atención para la mayoría de especialistas de este volumen, muchos de los con más de 30 años de experiencia en las tecnologías digitales.

Esta lectura me llevó en un vuelo rasante por mi propia experiencia, a partir de 1996 con la incursión en el uso, publicación y desarrollo de contenido semillero de comunidades virtuales con las herramientas disponibles en Internet. Estaba ante el nacimiento de la web, encontré sentido en una visión de perspectiva sobre la importancia del conocimiento que empezaba a circular, de manera libre y desordenada, con un potencial sumamente pretencioso como plataforma multimedio de publicación global.

La lectura de estas dos piezas abrieron esa óptica, que ahora considero una asignatura indispensable para los académicos cuyo objeto de estudio es internet, explica que en la organización del conocimiento que se publica y circula en Internet desde hace por lo menos 25 años, hasta hace muy poco concitó el interés de preservación y la organización óptima de estos materiales, con lo cual se abren las puertas a una aventura problemática de gran envergadura, dentro de la cual se apetece una buena revisada.

Antes y después de internet

La lectura de estos dos ensayos y sopesar el contenido del grueso volumen por abordar, remite a la importancia del planteamiento transdisciplinario para la preservación del acervo digital en web en nuestro idioma (por no mencionar la tarea no menos importante de las leguas indígenas), habida cuenta de la compleja problemática metodológica y conceptual de la archivonomía para el multimedio digital en web, con un interesante e indispensable debate en la definición de lo que es un documento web, sus componentes, y metodologías para ser archivado, consultado por el público en general y los especialistas, investigadores y comunidades académicas en particular, en la medida en que incide, como efecto mariposa, desde el trabajo de gabinete de rastreo y registro de fuentes, hasta las grandes políticas nacionales de preservación patrimonial.

Es una problemática múltiple, que de entrada presenta un diferenciador paradigmático del documento web: el “efecto streaming” o del famoso “tiempo real”, es decir, la web “en vivo”, cambiante, que se metamorfosea a cada momento, y que en cada vez mayor proporción es un componente de información “volátil”, un flujo flotante en la comunicación binaria inscrita en la dinámica de chats, comunidades virtuales, weblogs, redes sociales, y por otro lado. No menos complicada resulta la estimación de la parte del conocimiento almacenada en sistemas cerrados o parcialmente restringidos, en ambientes de servicios propietarios (correos electrónicos, mensajeros instantáneos, e intranets, etcétera), que serían dos puntas de un iceberg que apenas se empieza a dimensionarse con una visión transdisciplinaria de largo plazo.

En el año 94 del siglo pasado se editó el primer mensaje en hipertexto que se hizo público en Internet, y con ello, su autor, Tim Berners-Lee, dio nacimiento a la WWW, y en ese momento y en los siguientes diez años, los usuarios de esta tecnología, principalmente académicos, no consideraron un plan consistente ni pudieron en marcha metodologías adecuadas para archivar y organizar la información con fines de preservarla como documentos historiográficos de este conocimiento generado en la incipiente era de la web, como en su momento se emprendió la organización de materiales en otros formatos electrónicos predigitales como audio y video en distintos formatos de cinta analógica, almacenados y organizados en la forma de videotecas y fonotecas, con metodologías muy semejantes a la de todo acervo documental.

Bajo el espíritu libertario y autónomo con que se gestó internet, se plantearon estándares de arquitectura topológica y protocolos necesarios para la comunicación mediada por computadora (TCP/IP y HTML, entre otros) y la necesidad de estandarizar los códigos y lenguajes en el rico despliegue visual de contenidos, típico de la web, una tarea admirable que continúa sin descanso, y con la activísima participación del mismo Berners-Lee. Sin embargo, los documentos y en general el conocimiento vertido en publicaciones en línea, la mayor parte único, se dejó al libre albedrío de individuos y organizaciones, con un criterio que no iba más allá de la metáfora visual de las “carpetitas” aportado por los sistemas de cómputo personal comerciales, Windows y MAC, sin otro destino que otra carpeta en algún servidor, y la arquitectura designada por ingenieros y web masters.

Pero sería equivocado pensar que no había interés e iniciativas muy importantes para archivar y preservar materiales producidos en la WWW, al contrario, se optó por un método bastante laborioso y manual en gran parte, la única manera que se entendía y que se hizo incluso hasta la era del CD-ROM, y se hace con el DVD, exactamente como las cinematecas y videotecas, incluso los discos duros, embodegarlos como las viejas bibliotecas y hemerotecas. Los documentos en web se archivaron recurriendo a la impresión en papel, para llenar carpetas, estas sí físicas, y metros y metros cuadrados de espacio en bodegas. Pero al pasar el tiempo, una parte importante de ese material, ya no está disponible en la misma web, cambió de ubicación o fue modificado, además de no ser copia fiel del original, sino una versión entre muchas, pero además siendo prácticamente imposible imprimir los elementos dinámicos del contenido, porque se adoptan criterios como por ejemplo, eliminar deliberadamente ciertos componentes como algunas imágenes, para “economizar”. Sencillamente se excluye la parte dinámica de la web, y con la Web 2.0 esta problemática se potencia de manera sustantiva.

Historia de la documentación web

Hasta hace unos años se emprendieron esfuerzos consistentes para cubrir esta deficiencia, y tanto los principales usuarios de estas bases de datos, la comunidad académica, y las instituciones, han emprendido incluso programas nacionales para la preservación de archivos en formato web, considerados como indispensables bajo el amparo de una política pública de patrimonio cultural, pero siempre con criterios heterogéneos, al libre albedrío o necesidades de los involucrados en los proyectos específicos.

El problema es complicado de resolver, aun con las herramientas hoy a disposición de cualquiera, porque con un ejemplo muy sencillo, que propone Brügger en su ensayo, ante la necesidad de “archivar/guardar” la edición completa de un periódico o cualquier publicación electrónica en línea de una fecha determinada, se puede hacer con herramientas de grabación “en vivo”, pero precisamente por esa condición, cuando se termine de guardar o grabar en directo, a una velocidad aceptable de ancho de banda, que tardaría un par de horas, al concluir se tendría una versión distinta de la que está en línea al término del proceso, que cambió en ese breve lapso de tiempo, en un grado que hace altamente inestable el resultado. Y aquí es donde vale la pena recurrir a las reflexiones de estos autores.

El ensayo de Barry Wellman es una visión histórica muy concisa de los estudios de internet, en pocas páginas devela tres fases: la “prehistoria”, la era de los expertos, marcada por el desarrollo de herramientas de groupware; la era del nacimiento de la WWW, los motores de búsqueda y el crecimiento de la población usuaria; y una la era del análisis y las políticas de preservación documental de internet.

Cita dos antecedentes míticos: el profético Network nation, en 1978, de Roxanne Hiltz y Murray Turoff, que vinculaba las ciencias sociales con las comunicaciones computarizadas, cuando no existía la palabra “internet”.  Hasta los primeros años de la década de los 90 este desarrollo y usufructo del mismo era privativo de los grupos de científicos en informática, que diseñaban y compartían herramientas bajo la familia de groupware, con las hojas y aplicaciones donde reinaba el modelo Lotus, y el conocimiento se generaba y se quedaba en los laboratorios, como compendia otro hito bibliográfico de esta “prehistoria”: Connections, de Sara Kiesler. El esplendor de este momento llegó a su punto máximo con las herramientas de telepresencia. Todo estaba listo para el despliegue social de internet con su glamorosa hija, la web.

En lo que Wellman llama la primera era de los estudios de internet, el desarrollo y “personalidad” de la red era determinada por los eruditos, muchos menores de treinta años, que decidieron ir más allá de compartir entretenidas piezas de groupware, al darse cuenta que la comunicación mediada por computadoras aportaba una conectividad sin igual. Sin embargo, nuestro autor cuestiona la visión aislada que llama “parroquiana” y utópica, al pensar que lo que sucedía en internet sólo era valioso para el medio mismo, al que se daba una categoría de transformación profunda, igualitaria, democratizadora y global, sin considerar las asimetrías geopolíticas en la adopción de estas herramientas y las diferencias de poder y estatus que pueden condicionar la interacción online.

En esta etapa entra en escena los distopianos, posmodernos próceres del ludismo que consideraban este nuevo medio deshumanizante y pernicioso, que podría sustituir las relaciones humanas. Ni panacea ni caja de Pandora, porque lejos de que las simples interacciones equivalgan a una comunidad, como muchos “twitteros” y “facebookeros” pregonan, y lejos de ser una maldición, como querían los apocalípticos, y para Wellman es innegable que internet es “una red social basada en computadoras, de hecho el componente más amplio del mundo, una red en la cual todos los puntos se conectan, directa indirectamente”.

Escribe que la segunda era de los estudios de internet empieza alrededor de 1998 cuando entidades gubernamentales, intereses comerciales y académicos apetecieron registros sistemáticos de lo que se publicaba en internet, pero esta euforia, se frenó como un coitus interruptus de los especuladores bursátiles que pregonaban una “nueva realidad”: primero el espantajo del Y2K y después con la burbuja de las empresas “punto com” en el 2000. Menciona un curioso efecto de este desplome económico y psicológico, con el impacto en la revista Wired, una especie de biblia exaltada del iluminismo tecnológico, con McLuhan como santón, que pasó de tener 240 páginas en 1996, que se redujeron a 180 en septiembre de 2001 para llegar a las 148 páginas  en septiembre de 2003, convirtiéndose en una publicación estilo mecánica popular del internet.

Sin embargo había dos elementos salvavidas para la explosión de la burbuja con la caída estrepitosa del NASDAQ (índice de cotizaciones de empresa tecnológicas que se creía lideraría la “nueva economía” de una “nueva sociedad”), tanto la guerra de navegadores Netscape vs. Explorer, que a la larga benefició la experiencia del usuario, y el desarrollo y refinamiento de los motores de búsqueda, primero entre muchos otros, Altavista, Lycos, Yahoo y el gigante Google, verdaderos motores de expansión y aprendizaje para mejorar, madurar y anidar en las nacientes comunidades virtuales y amasar el futuro fenómeno de YouTube, Blogger, Facebook, Twitter, entre decenas de competidores y emuladores, y una familia de miles de aplicaciones multiplicándose, configuradas para que el uso mejore la herramienta (dejamos para otra ocasión el debate sobre el software libre).

La tercera etapa de los estudios de internet, montada en este crecimiento exponencial, al grado de que se sustituye “naturalmente” en el camino comunidades virtuales por redes sociales y cibernautas por usuarios, a secas, como los ferrocarriles, la energía eléctrica, las carreteras, el teléfono, el uso del espectro radioeléctrico, y la convergencia digital, el hipermedio en la nube de la banda ancha. Estamos en el umbral de una conciencia clara sobre la necesidad de documentación y análisis, y la construcción de las herramientas conceptuales, metodológicas y técnicas, ante un medio único en su tipo, cuya característica es la volatilidad mutable.

Quedaba claro, sin embargo, que no se trataba de una nueva realidad o una nueva sociedad, sino de una herramienta poderosa que cambiaría para siempre la forma en que las personas se comunican y obtienen información y conocimiento, pero también lo producen y lo circulan en redes planetarias: 2 mil 267 millones 233 mil 742 de personas con acceso a internet (Internet World Stats (IWS) http://www.internetworldstats.com/ 31 de diciembre de 2011).

Llegó el momento de la documentación y el análisis, de los programas y las iniciativas, las políticas públicas nacionales, las grandes universidades y centros documentales emblemáticos.

Es aquí donde Niels Brügger explica con fino detalle la historiografía de los estudios de la archivonomía web: quien pone la mira analítica en el corazón del debate sobre el quehacer del investigador social en internet: la web documentada se discute básicamente como un medio y como texto, y se plantea dos preguntas nodales: si el documento web archivado es un nuevo tipo de documento, y si la respuesta es afirmativa: ¿debe este documento ser tratado en forma diferente cuado se usa como objeto de estudio?

En una segunda parte abordaremos este interesante estudio de Brügger, en que revisa la muy fresca historia de la archivonomía micro y macro de la web, las diferentes estrategias de archivo de documentos web, con ejemplos emblemáticos, y lo más importante de su ensayo, por un lado la visión filológica en el estudio y uso de documentos publicados en este medio, y el carácter específico de texto multicapas, sus propuestas de reglas y principios, con un enfoque eminentemente transdisciplinario.