Archive for the comunidades virtuales Category

Alison McMahan: Narrativa interactiva en 3-D: esquemas de imágenes kinestésicas: cine/videojuegos/Realidad Virtual. Al otro lado del espejo: Documentación y análisis sobre los Ambientes Virtuales de Inmersión II.

Posted in ARTE, AUDIO, CINE, comunidades virtuales, Realidad Virtual, SOFTWARE with tags , , , , , , , , , on May 9, 2018 by zewx

cardboard-google

“La realidad virtual […] es un próximo paso natural para la proyección cinematográfica”.

A. McMahan

Ciudad de México, 9 de mayo 2018. Por Alfonso Esparza.

Las proyecciones del crecimiento del mercado de los equipos y contenidos de Realidad Virtual (VR) discurren conforme a lo pronosticado, se espera que para 2022 esta tecnología esté presente en millones de hogares en el mundo, según Forbes . La historia corre originada en un camino de mucha imaginación, alimentada por relatos de ciencia ficción en literatura y cine, y cuarenta años de investigación, experimentación ensayo de prototipos, y al final, cañonazos de miles de millones de dólares. El año 2016 puede considerarse como la primera prueba del ácido para los primeros equipos listos para el mercado de consumo masivo, año en que las ventas de algún tipo de dispositivo VR alcanzó la línea psicológica del primer billón (mil millones) de dólares en ventas. Año de Oculus Rift, HTC-VIVE, los equipos de máxima inmersión, seguidos por productos de experiencias virtuales en video 360, en plataformas móviles como Samsung Gear VR, en consola con la Playstation VR de Sony, que en dos años han lanzado al mercado modelos económicos, eficientes y personalizables, y lo más importante, en términos de masa crítica, una multiplicación asombrosa de aplicaciones, que la hacen una previsible migración hacia la comunicación virtual en 3-D.

El abaratamiento, optimización y oferta de contenido, que hará de esta plataforma el siguiente paradigma en la comunicación mediada por computadora, el salto de la pantalla plana 2-D a la interfaz 3-D interactiva con usabilidad-interactividad en primera persona, y en ello tiene que ver el pronunciamiento del gran capital de la industria tecnológica, y una piedra angular fue la compra de Oculus por Facebook, en 2 mil millones de dólares, inversiones habituadas a retornos de inversión ultrarrápidas, basadas en estrategias virales de rápida penetración-aceptación con un fuerte componente de ludopatía altamente sensorial-emocional, con un lenguaje en el que la habitabilidad-navegabilidad-jugabilidad se nutre y retroalimenta el sistema de sensores de rastreo correspondiente a la motricidad táctil-háptica* y la identidad psicológica con el yo-virtual encarnado en un avatar.

haptic* Táctil-háptica: sistema de retroalimentación con periféricos táctiles como guantes y trajes de neopreno con sensores y dispositivos de rastreo que arrojan datos sobre los movimientos corporales y de resistencia muscular por parte de la representación de la mano o del cuerpo mediante un avatar particularmente al manipular objetos 3-D y/o interactuar con ambientes virtuales.

La escritora e investigadora Alison McMahan, productora de nuevos medios, presidenta de Homunculus Productions, es pionera en la escritura en plataforma transmedia, ha dedicado parte de su labor al estudio de los lenguajes emergentes de los discursos postcinematográficos, los videojuegos, mapas interactivos geolocalizados, que ahora despliegan sus ramificaciones narrativas y genéricas hacia los códigos audiovisuales inscritos en la experiencia virtual de inmersión, la ruptura de la linealidad espaciotemporal-diegética y la mutación del yo y del estar allí, mediante la encarnación de los paradigmas diegéticos: el “tirador” en primera persona, el avatar y el “fantasma”, que en sus relaciones actanciales interactúan modificando la trama, con otros caracteres-personajes, sean representaciones de humanos, entes de IA, objetos y entornos virtuales.

Al revisar unos cuantos textos de su vasta producción ensayística, encontramos en Immersion, Engagement, and Presence. A method for analyzing 3-D Video Games (2003); Cognitive Schemata and Virtual Reality (2005), y The effect of multiform narrative on subjectivity (1999) puntos culminantes del trabajo de la doctora McMahon, en una iniciativa para referencial estudios seminales en distintas disciplinas, como elementos de discusión que abonan a la conceptualización de componentes clave en el conocimiento de estas tecnologías y sus múltiples implicaciones y consecuencias.

La vigencia de estos planteamientos, desarrollados y enriquecidos en dos décadas de debate con la emergencia del cross over y transmedia storytelling, que permiten los meta-universos en la heurística del código de la línea de comando en la deconstrucción hermenéutica de la interfaz 3-D.

La interacción como experiencia narratológica Espacial

Este panorama de desarrollo tecnológico, arranca a mediados de los años 60 del siglo pasado, con prototipos de interfaz tridimensional en pantallas bidimensionales, con periféricos que han mutado desde el cursor (mouse), la pluma electrónica, hasta las ultrasensibles pantallas multitáctiles de hoy de smartphones y tablets a muros electrónicos, siempre en la representación poligonal de perspectiva 3-D, que señala un desarrollo acelerado por el resto del siglo, en el que, en este punto de desarrollo, facilitada por el acceso a equipos cada vez más baratos, y la diversidad en la oferta de productos, de ficción y no ficción, para el conocimiento y el entretenimiento, y el desarrollo de aplicaciones en prácticamente cualquier campo, comercial, académico, social.

Los usuarios más exigentes, como los artistas, consideran que es apenas la edad de piedra (artículo de The New York Times): hacia una explosión de imaginería tridimensional manipulable en Realidad Virtual/Realidad Aumentada/Realidad Mixta/extendida y Holográfica, con dispositivos de progresiva factibilidad ergonómica y eficacia técnica que alcanzará su madurez en una década, con el arte en el diseño industrial, del esperable tsunami de marketing para la compra por impulso y contagiosa, panorámica que ha sido paralelamente objeto de estudio y análisis en sus dimensiones tecnológico-comunicativas, sociales, neuropsicológicas, en un creciente y especializado campo de investigación transdisciplinario, que sienta sus precedentes en las culturas de masas, señaladamente el cine y los videojuegos, y ahora los medios electrónicos interactivos de inmersión, con una narrativa multidisruptiva, en la que el usuario participa desde capas sensomotrices, cognitivas y volitivas “en-tiempo-real”, que definen el curso de las tramas posibles del universo de la historia, con posibilidades múltiples aleatorias en el curso factible, en algunos esquemas y programadas en otros.

En el curso de sus trabajos, McMahan ha contribuido paralelamente con la catalogación de las producciones que han marcado hitos en la historia de los videojuegos, con propuestas alternativas en la realización y co-realización de la narrativa eminentemente interactiva, protagónica, multilineal, arborescente, que abreva de los vocabularios cinematográficos, y alimenta el discurso de los entornos digitales 3-D propios de la realidad virtual, sobre todo la de máxima inmersión, como los modelos CAVE* y HMD (Head Mounted Display).

* El Sistema CAVE (Computer Automated Virtual Environment), diseñado por Josephine Anstey y Dave Pape.

Morfología y semántica de la Realidad Virtual: Inmersión

Alison McMahan parte de la definición del concepto de inmersión expuesto por su colega, Janet Murray (que veremos próximamente), que lo describe como:

“… Un término metafórico derivado de la experiencia física de ser sumergido en agua. Buscamos la misma sensación de una experiencia psicológicamente inmersiva de una zambullida en el océano o alberca: la sensación de hundirse en una realidad completamente distinta, tan diferente como el agua es del aire, que captura totalmente nuestra atención, todo nuestro aparato perceptual… en un medio participativo. La inmersión implica aprender a nadar, hacer las cosas que el nuevo entorno hace posible. El disfrute de la inmersión como una actividad participativa”. (Murray, Janet. Hamlet on the Holodeck: The Future of Narrative in Cyberspace (Cambridge, MA: The MIT Press, 1997), 98-99.)

En este plano son tres las condiciones para crear una sensación de inmersión en realidad virtual o en un videojuego de computadora en 3-D:

1) Las expectativas del usuario del juego o del ambiente virtual deberá coincidir muy de cerca con las convenciones del entorno; 2) las acciones del usuario deben tener un impacto no trivial en el entorno, y 3) las convenciones del mundo deben ser consistentes, incluso si no coinciden con el “metaespacio”.

En el entorno tridimensional propio de los videojuegos, cuando un jugador se involucra a un grado cercano a la obsesión, algunas veces es referido como un “juego profundo”

De acuerdo con Diane Carr, citada por McMahan, el término “juego profundo”, como se utiliza en las revistas de videojuegos, se refiere a

“un jugador que accede/acumula capas de significado que tiene un valor estratégico como en el contexto de un juego de tablero de “mazmorras y dragones” (Dungeons and Dragons), significaría conocer, por ejemplo, todos los monstruos y diferentes escuelas de magia, mientras que un estilo “superficial” de juego significaría correr y encontrar atajos”.*

*(Cinema/videogames/interfaces, revista ScreenPlay, London: Wallflower Press, 2002)

Como destaca Mark J. P. Wolf,

“la mayoría de los juegos en 3-D representa su espacio navegable utilizando las convenciones de la cinematografía clásica de Hollywood, hasta cierto grado, al menos. La diferencia, por supuesto, es que estos espacios son navegables; tiradores en primera persona y juegos en realidad virtual, por ejemplo, “proporcionan jugadores con una exploración espacial sin rupturas, permitiéndoles paneo, inclinación, rastreo y riel a través del espacio, el cual usualmente es presentado en perspectiva visual en primera persona y es navegable en tiempo real”.*

*(Wolf, Mark J. P. The Medium of the Video Game, Austin: University of Texas Press, 2001, p. 66).

Wireframe es el término utilizado para el contorno de objetos que son destacados, pero sin rellenarse los planos. Es aún una forma aceptable de representar la realidad virtual, tal y como se utiliza en películas como El Piso Trece  (The Thirteenth Floor, Josef Rusnak, 1998). El primer juego que utilizó 3-D basada en gráficos poligonales fue I, Robot, diseñado por Dave Theurer (1983).

El investigador Jeffrey Jacobson argumenta que

“los sistemas más sofisticados de presentación visual ahora se encuentran no en maquinaria científica especializada sino en las tarjetas de PC que cuestan 500 dólares. Las simulaciones interactivas sensibles más sofisticadas están ahora en los motores para dar energía a los juegos de computadora”. *

*(Michael Lewis y Jeffrey Jacobson, «Game Engines in Scientific Research» (Special Issue: Game Engines in Scientific Research), Communications of the ACM45, No. 1, 2002, p. 27.)

Presencia, telepresencia y teletransporte

Se explica que la presencia en esta pista narrativa se relaciona estrechamente con el fenómeno de atribución o externalización, que se asimila con la referenciación de las percepciones a un espacio externo, más allá de los límites de los órganos sensibles mismos.

Más aún cuando la percepción es mediada por una tecnología de comunicación, se es forzado a percibir dos ambientes separados simultáneamente: el entorno físico en el que se está presente, y el entorno presentado por el medio.

“En esta lógica telepresencia es el alcance al cual se siente el presente en el ambiente mediado, en lugar del entorno físico inmediato la telepresencia es definida como la experiencia de la presencia en un ambiente a través de un medio de comunicación, en otras palabras, “presencia” se refiere a la percepción natural de un ambiente, y “telepresencia” se refiere a la percepción mediada de un ambiente. Este puede ser tanto un ambiente “real”, temporal y espacialmente distante (por ejemplo un espacio visualizado a través de una videocámara) o un mundo virtual animado pero inexistente sintetizado por una computadora (por ejemplo un “mundo” animado creado en un videojuego)”. *

* (Steuer, Jonathan. «Defining Virtual Reality: Dimensions Determining Telepresence,» journal of Communication, 42, No. 4, 1992, pp. 73-93.)

La presencia como resultado de una combinación de todos o algunos de los siguientes factores: calidad de la interacción social; realismo en el ambiente (gráficos, sonidos, etcétera), del efecto de “transportación”, del grado de “inmersividad” generada por la interfaz, de la habilidad del usuario para la inmersión, involucramiento y presencia, logrando acción significativa con el ambiente e impacto social de lo que ocurra en el mismo, y de los usuarios respondiendo a la computadora misma como un agente social e inteligente.

McMahan hace alusión en una amplia nota al trabajo y definiciones conceptuales de Michael Heim, uno de los especialistas académicos pioneros en el tema y una de las voces más respetadas vigentes, definió en “La esencia de la Realidad Virtual” que

“La VR es un evento o entidad que es real en efecto pero no de hecho. El público sabe que al VR es una tecnología sintética que combina video 3-D, audio y otros componentes sensoriales para lograr una sensación de inmersión en un entorno interactivo generado por computadora”. De acuerdo con Heim existen siete elementos en la VR: simulación, interacción, artificialidad, inmersión, telepresencia, inmersión de cuerpo entero y comunicaciones en red.

Las discusiones sobre el realismo social frecuentemente se enfocan en el uso de avatares (representaciones textuales o gráficas de usuarios que incluyen un carácter diseñado para insertarse en un ambiente de ficción, que se completa con un conjunto de rasgos de personalidad, habilidades y estado de salud).

El realismo se subdivide en realismo social (el alcance de en el cual las interacciones sociales en el Entorno de Realidad Virtual corresponden con las interacciones en el mundo real y realismo perceptual (qué tan bien representados están los objetos, ambientes y eventos representados comparados con los existentes).

La investigación de Clive Fencott se enfoca en el realismo perceptual necesario para generar una sensación de presencia en el ambiente virtual. De acuerdo con él, “la presencia es un estado mental, por lo cual es el resultado directo de la percepción, no de la sensación. En otras palabras, las construcciones mentales que las personas edifican a partir de los estímulos, son más importantes que los estímulos en sí”.

Lombard y Ditton atribuyen a la transportación que con “sistemas de telepresencia se utilizan señales de video y gráficos de computadora para ubicar al usuario en una locación remota inaccesible” (Bolter y Grusin, Remediation, 214.)

Un concepto elaborado de presencia también puede ayudar a quienes trabajan con VR, videojuegos y diseño interactivo instruccional y desarrollar un vocabulario común y aprender uno de otro.

McMahan alude también al trabajo de John Laird, al comparar las posibilidades de la investigación de Inteligencia Artificial en robótica y tiradores en primera persona, prefiere estos últimos:

“los entornos simulados virtuales hace posible superar muchos de estos problemas, y en tanto preserva para una toma de decisiones e interacción inteligente en tiempo real, los videojuegos ofrecen una fuente de tecnología barata, confiable, flexible, para desarrollar un entorno virtual propio para investigar”. *

*(Laird, John E. «Research in Human-Level AI Using Computer Games«, Communications of the ACM 45, No. 1, January 2002, p. 32.)

La doctora McMahan apunta que los juegos de tiradores en primera persona y editores de juegos son utilizados en la investigación de realidad virtual porque promete un alto grado de “inmersividad”,  involucramiento y presencia en un formato manejable y accesible para un usuario común.

Foto-Realismo y simulación

Por simulación Heim quiere decir la tendencia en ciertos tipos de aplicaciones de VR que tratan de acercarse a la técnica foto-realista, utilizando gráficos o fotografías, e incluso sonido envolvente con un impulso hacia el “realismo”. Heim apunta que se cree que cualquier interacción mediada por una máquina es virtual (incluyendo las llamadas telefónicas con personas desconocidas). Por artificialidad, Heim se refiere a lo que otros académicos como Cubitt apuntan como simulación; en otras palabras, un ambiente con posibilidades de acción (un mundo) que es un constructo humano. Este puede ser mental, como los mapas mentales de los aborígenes australianos, o construidos, como VR en 3-D. Para Heim, inmersión se refiere al objetivo de la tecnología VR de “separar las sensaciones visuales y auditivas del mundo real y remplazarlas con sensaciones generadas por computadora”. A la inmersión de cuerpo completo Heim lo llama Proyección VR, siguiendo a Myron Krueger, y es definido como “Ambientes interactivos en los que el usuario se desplaza sin equipo que estorbe (como un HMD) la Proyección VR requiere más suspensión de la incredulidad en la parte del usuario.

Heim hace la distinción entre VR y telepresencia: la realidad virtual se proyecta en la telepresencia cuando se lleva la efectividad humana a una locación distante, por ejemplo, utilizando robótica. Para las comunicaciones en red, Heim sigue la definición de Jason Lanier: un mundo virtual es un constructo compartido, Una RB2 (Realidad Construida para Dos), la comunicación con otros es esencial en un ambiente; las redes de comunidades en línea incorpora fuertemente este elemento de VR. Heim integra los siete elementos en una nueva definición de VR: Una simulación artificial puede ofrecer a los usuarios una experiencia interactiva de telepresencia en una red que les permita sentirse inmersos en un ambiente de comunicaciones».

Esquematismos Cognitivos y Realidad Virtual

Otro de los trabajos de gran calado firmado por Alison McMahan con Warren Buckland se acerca a una perspectiva de las neurociencias para explicar los procesos psicológicos, cognitivos, en la fisiología neuronal de la percepción y la experiencia de la realidad y la ficción. En este ensayo Buckland argumenta que son necesarios dos niveles de verosimilitud para que una ficción sea percibida como ficción: los espectadores deben “asumir un actitud de credulidad hacia los eventos de la ficción… y a las relaciones perceptuales que establecen hacia esos eventos”. *

* (Buckland, Warren. «Orientation in Film Space: A Cognitive Semiotic Approach» in Recherches en communication, 19 (2003), p. 89

Se refiere a la Tesis Participativa, o a la Hipótesis Observador Imaginario (IOH, por sus siglas en inglés), que establece que para comprender un filme y no involucrarse emocionalmente, los espectadores imaginan que son un observador que está “dentro” de la ficción”.

Dos tipos de espacios a los que se refiere Buckland son el espacio real y su representación cognitiva –espacio imaginativo. Existen tres clases de orientación: absoluta, intrínseca y contextual.

En sus argumentos y hallazgos Buckland se refiere a su vez al semántico cognitivo, George Lakoff, quien ha postulado una serie de Esquemas de Imágenes Kinestésicas, que estructura las entradas perceptuales en experiencias.

Directamente desde las capacidades innatas sensomotrices del cuerpo…

Los Esquemas de Imagen Kinestésica representan al cuerpo en la mente y se colocan como cognitivamente reales porque están directamente motivados en significados que son directamente motivados o no arbitrarios e inherentemente significativos.

La estructura de nuestra experiencia corporal compartida se convierte entonces en la base para el pensamiento racional abstracto por medio de esquemas basados en imágenes y estrategias creativas como la metáfora y la metonimia, que proyecta y extiende esta estructura desde el dominio físico hacia el dominio abstracto de los conceptos.

El esquema del contenedor, que estructura nuestra conciencia fundamental sobre nuestros cuerpos, se basa en elementos “interiores”, “límites” y “exterior”. En términos de extensión metafórica, Lakoff nota que el campo visual es comúnmente concebido como contenedor, desde que las cosas “entran” y “salen” de la vista.

La pantalla plana 2-D del cine en un habitáculo  de 6 paredes o un casco de VR se convierte en una pantalla-como-contenedor; y dentro del contenedor físico existe una multiplicidad de contenedores gráficamente representados, dentro de los cuales tiene lugar la acción del juego o ambiente virtual.

Lakoff refiere del concepto de un esquema como “vínculo”, plantea que los humanos nacen vinculados a sus madres a través del cordón umbilical, y continúa relacionado a través de la familia durante la infancia y niñez en un esquema de vínculo social.

El esquema parte-todo se alinea cerca del esquema de vínculo, desde que la colección de las partes solo pueden ser percibidas como un todo si las partes se vinculan juntas coherentemente. En las tecnologías de inmersión el esquema vinculante es casi siempre aplicable a la interfaz. Es en la interfaz (usualmente consistente en pantallas, visores, guante) que permite al usuario puentear la distancia entre una realidad virtual de “carnespacio” a una realidad virtual del “ciberespacio”.

El esquema Centro-Periferia es similar al esquema parte-todo en que se base en la conciencia de nuestros cuerpos teniendo centros (el tronco y los órganos internos) y periféricos (extremidades, cabello, etcétera). El centro gana su importancia del hecho básico de la preservación del cuerpo es más importante a la supervivencia que los periféricos.

Los niveles de focalización y del esquema centro-periferia empatan naturalmente. Niveles focalizados de narración enfatizan la experiencia directa de los eventos por parte del personaje. La perspectiva exocéntrica de la VR es análoga a la “focalización externa” en cine, y lo egocéntrico embona la “(superficie de) focalización interna”.

Sin embargo, la focalización en narrativa interactiva tiene una capa adicional de complejidad; primero está el usuario mismo, un cuerpo real en un espacio real, pero vinculado al espacio imaginario directamente por la interfaz. Por ejemplo, en una experiencia típica de CAVE, la persona usa las gafas que dictan la perspectiva y orientación de la imagen de la imagen de otras personas con gafas que se encuentran cerca pero que no están conectadas al sistema. La persona del “casco” tiene a su vez un control para conducir el desplazamiento por los espacios.

Ninguna persona tiene exactamente la misma perspectiva que los otros. Entonces allí está el avatar. Puede ser un avatar visible al que se refiere el usuario  exocéntricamente (como todos los otros juegos de visión “sobre-el-hombro” como las series de Tomb Rider en los que el usuario está siempre un paso adelante del avatar) o, como es más común en CAVE VR, egocéntricamente.

Las configuraciones comunes de los avatares por defecto en CAVE VR, es una “estatura” de 6 pies y la anchura de la cabeza de 2 pies. Otro ambientes virtuales como NICE, aunque siempre egocéntrica, permite al usuario tener un vistazo de su avatar; en NICE esto sucede cuando el usuario mira su reflejo en un estanque. (Sherman, William R. y Craig, Alan B. Understanding Virtual Reality: Interface, Application and Design. Morgan Kaufman Publishers: Amsterdam, 2003, p. 466).

Narrativa multiforme, multilineal, multijugador

Muchos investigadores de VR se enfocan en el efecto de variación de grados de control (agency*) y antropomorfismo en la sensación de presencia del usuario.  Kristine L. Nowak y Frank Biocca obtuvieron resultados sorprendentes al descubrir en un experimento que la variación del nivel de antropomorfismo en la imagen de los interactuantes, las personas responden de la misma manera a los agentes independientemente de que éstos fueran controlados por un humano o una computadora, probando que si actúa como humano, el usuario se relaciona con este como con un humano.

*agency: término adscrito a las capacidades de control sobre objetos y ambiente que tienen los distintos agentes de la narrativa.

Los usuarios que probaron la aplicación con avatares de imagen menos antropomórfica (ojos y boca flotantes en el espacio) reportaron un sentido de co-presencia y presencia social más alto que quienes interactuaron con avatares sin imagen alguna y quienes interactuaron con imágenes altamente antropomórficas (los investigadores concluyeron que esto creó expectativas más altas que llevaron a una presencia reducida cuando las expectativas no se completaron).

En su artículo El efecto de narrativa multiforme en la subjetividad (2014), The effect of multiform narrative on subjectivity, Alison McMahan se refiere nuevamente al lenguaje de los juegos en computadora, particularmente a las plataformas multiusuario en línea, como los  Multi-User Domains (MUDs), Object-Oriented MUDs (MOOs) y hasta salas virtuales de conversación, han llevado a nuevos modos de subjetividad para caracteres y espectadores por igual.

Comenta que en la teoría tradicional psicoanalítica del cine, la identificación del espectador ha sido definida como primaria (el espectador identifica con la cámara) o secundaria (identificación con el personaje). La ficción interactiva ha llevado al espectador a una situación en la cual múltiples identificaciones operan simultáneamente. Adicionalmente, el mundo diegético de la narrativa está infiltrado o abordado por el no-diegético, requiriendo diferentes tipos de reacción del espectador simultáneamente.

Una de las tramas multiformes más comunes utilizadas en las películas de ciencia ficción: la estructura paralela de trama. (Sawyer, Brian y Vourlis, John. Screenwriting structures for new media, Creative Screenwriting, vol. 2. no. 2 (1995), pp. 95-102.)

Una narrativa típicamente lineal conecta a los personajes causalmente relacionados con situaciones en estructuras de tres actos en una sola resolución. Las tramas multiformes, sin embargo, son usualmente conducidas por eventos; son no-lineales y al ser distribuidas por un sistema visual interactivo, como un juego en CD-ROM, requiere una respuesta física de los espectadores.

Las tres tramas multiformes básicas son: estructura lineal con ramificación escénica (también llamada la rama ‘cul-de-sac’); la trama explosiva de ramificación jerárquica y la estructura de trama paralela.

La habilidad del narrador, sea convencional o interactivo, “recae en la habilidad de sugerir un futuro abierto en cada punto de la narrativa, mientras por supuesto de antemano se ha planeado o “programado” el progreso o resolución. (Elsaesser, Thomas. Cinema Futures: Cain. Abel or Cable? The Screen Arts in the Digital Age (Amsterdam: Amsterdam University Press, 1998).)

El usuario puede participar al dar forma a la historia. Significa, simplemente, que tiene más opciones de cómo recibirla. El remitente real (o autor) sigue siendo el narrador del texto, localizado en el mundo real, el lector. El Narrador es parte del mundo textual y comunica una narrativa con otro miembro del mundo textual, el llamado Narrado. (Ryan, Marie-Laure, «Narrator», en Encyclopedia of Contemporary Literary Theory: Approaches. Scholars, Terms (Toronto: University of Toronto Press, 1994). p. 601.)

Los narrados pueden ser individuos o entidades colectivas. Los narrados individuales participan en la trama de la misma manera en que lo hacen los narradores individuales: como testigos no participativos, personajes secundarios o protagonistas principales… Cuando el texto es dirigido a una colectividad, el narrado se construye como un conjunto de creencias presupuestas por el texto.

Definición de cyborgs en dos partes: primero, una entidad que es mitad humana y mitad máquina, y segundo, organismos en red o cibernéticos, como los seres humanos que se vinculan por medio de internet con otros sistemas de comunicación, que cooperan para resolver problemas sociales urgentes de nuevas formas.

Semiótica y cognición: El cuerpo en la mente y en el ambiente virtual.

En su ensayo “Semiótica cognitiva de la Realidad Virtual” (The Cognitive Semiotics of Virtual Reality), la mancuerna de la doctora Alison McMahan y su colega  Warren Buckland, profundizan en el análisis de la experiencia sensorial y cognitiva en la incursión de entornos virtuales.

La Tesis Participativa de la Hipótesis de Observador Imaginario (IOH) establece que para comprender el cine y conectarse emocionalmente, los espectadores deben imaginar que son observadores “dentro de la ficción”.

Los dos tipos de espacios a los que se refiere Buckland son el espacio real y su representación cognitiva –espacio imaginario.

Según el autor existen tres tipos de orientación espacial: 1) absoluta (puntos cardinales: norte, sur, este, oeste), que permiten 2) intrínseca, originada en las propiedades de los objetos (como la simetría, por ejemplo), y su marco de referencia en un espacio tridimensional, (arriba, abajo, izquierda, derecho, al frente y atrás), y 3) contextual, con marco de referencia de dos puntos relativos

El Esquema de Imagen Kinestésica representa el “cuerpo en la mente” y se despliegan cognitivamente reales porque están directamente motivadas como no arbitrarias e inherentemente significativas.

Son estructuras simples que emergen del cuerpo –de arriba hacia abajo; de atrás hacia adelante; del centro a la periferia; de la parte al todo; de dentro hacia afuera, patrones, vínculos, fuerzas, y demás.

La relación de estos esquemas con el lenguaje cinematográfico, Buckland aplica el esquema de contenedor al cuadro fílmico y diégesis (el mundo de la historia de la película). Para argumentar que el cuadro y diégesis son entendidos en términos de un esquema de imagen kinestésica para sugerir que son comprehendidas en términos de nuestras experiencias en nuestros contenedores corporales.

Realidad fílmica:

  • Realidad afílmica (la realidad que existe independientemente de la realidad fílmica).
  • Realidad profílmica (la realidad fotografiada por la cámara).
  • Realidad filmográfica (la película como objeto físico, estructurado por técnicas como la edición).
  • Realidad en pantalla (o filmopática) (la película como se proyecta en la pantalla.
  • Realidad diegética (el mundo de la historia de ficción creada por la película
  • Realidad espectatorial (la percepción del espectador y comprehensión de la película).
  • Realidad creacional (la intencionalidad del cineasta. (Souriau, 1951, 231-240).

Mientras que las realidades afílmicas y profílmicas son extratextuales, los siguientes tres tipos de realidad fílmica son textuales y son estructurales en relación entre ellas en términos de esquema de contenedor: lo filmográfico contiene la realidad en pantalla y ésta a la diégesis. Los dos últimos niveles de realidad fílmica y cognitiva se refieren a la comprensión de la película por el espectador y la película concebida por el creador.

En los términos de Souriau, el cuadro existe en los niveles de la realidad filmográfica y en la pantalla, y sirve como un contenedor para la diégesis.

El espacio en-pantalla y fuera-de-pantalla son en sí mismos entendidos en términos de contenedor, en tanto que contienen la diégesis de la película, o mundo de la historia de ficción. De allí que l esquema de contenedor opera a dos niveles del film –el cuadro (que actúa como límite entre el espacio en-pantalla y fuera-de-pantalla) y la diégesis (la cual actúa como límite entre la ficción y no ficción).

La ficción virtual equivalente a lo que Souriau llamó realidad filmográfica (el film como objeto físico, estructurado por técnicas como la edición) es para los usuarios de la realidad virtual (y jugadores de videojuegos que utilizan tecnología de menor inmersión como consolas cautivos en aparatos de televisión y consolas) con un nivel de involucramiento en el mundo ficcional virtual.

El focalizador es un agente narrativo fundamental que actúa como mediador entre los eventos ficcionales y el espectador. Con la asistencia del focalizador, el espectador llega a orientarse contextual e intrínsecamente en el espacio ficticio.

La perspectiva exocéntrica de la VR es análoga a lo que entendemos por focalización externa en el cine, y lo egocéntrico coincide con la focalización interna (superficie). Sin embargo, la focalización en narrativa interactiva tiene una capa adicional de complejidad: primero está el usuario, un cuerpo real en un espacio extradiegético, pero vinculado a la diégesis directamente a través de la interfaz.

El auditorio es un contenedor que contiene la pantalla y el cuadro. El cuadro es un contenedor que contiene la diégesis, el mundo de la historia ficcional (personajes, escenas y acciones), que junto con el auditorio y el cuadro son contenedores de objetos; lo que contienen son sustancias contenedoras –el auditorio contiene la pantalla y cuadro (las realidades filmográfica y de pantalla); la pantalla y el cuadro contienen la diégesis y esta contiene al mundo de la historia ficcional.

Este esquema, directamente motivado por el cuerpo del espectador, es metafóricamente proyectado en la película por el espectador en su continua representación mental de cada espacio en la diégesis del film como un contenedor coherente.

Los ambientes de la realidad virtual inmersiva como el CAVE, una encarnación más literal de nuestra proyección del esquema de contenedor que en el cine. El sistema CAVE tiene cuartos de 3 x 3 x 3 m y permite a los espectadores realmente “caminar” a través del espacio. Con este modelo, alguien, como un arquitecto, que tiene un esquema mental de una habitación en su mente y quiere hacerla accesible a otros mediante Realidad Virtual o Internet, en lugar de tener que trasladarla a una pantalla 2-D de una película, a un espacio mental 3-D, como hace el espectador de cine, los usuarios de VR simplemente camina hacia el CAVE, enciende la computadora y se coloca las gafas de 3-D. En otras palabras lo que Souriau llamó el nivel de pantalla o cinematográfico de la realidad fílmica deja de ser una proyección mental kinestésica de los espectadores, sino un contenedor materializado en el cual el usuario está inmerso.

Te allí que la realidad virtual (al menos una VR con una perspectiva egocéntrica o fílmica) es un próximo paso natural para la proyección cinematográfica.

En sistemas poligonales como los utilizados en la mayoría de ambientes 3-D de realidad virtual, insto incluye un alto grado de detalle, escala, mapas de altura, texturas, colores, iluminación e indicaciones de profundidad.

La pantalla plana 2-D del cine en una cueva de 6 paredes o un casco de VR se convierte en una pantalla-como-contenedor; y dentro del contenedor físico existe una multiplicidad de contenedores gráficamente representados, dentro de los cuales tiene lugar la acción del juego o del ambiente virtual.

Comunidad de Makers: Machinima

Los tutoriales de Machinima motiva a los “machinanimadores”, necesitan elegir entre las convenciones visuales de tiradores en primera persona y el cine, a escoger las convenciones de la cinematografía. Para un cineasta esto se siente como una oportunidad perdida: lo que es más atractivo acerca de las posibilidades de Machinima es su promesa de escapar de las limitaciones del clásico lenguaje cinemático de Hollywood, justo como la promesa de la VR es escapar de las limitaciones de la pantalla 2-D.

Sin embargo, Machinima está aún en sus primeros días, utilizado primordialmente  para realizar cortometrajes que sirven de portafolio para animadores o para cortes de escena en videojuegos. Es seguro pronosticar que esta herramienta basada en comunidad, se amplía (como los motores de código libre se expanden en sus posibilidades comerciales) evolucionará en su propia forma de relacionar las partes con su todo.

 

 

 

 

La privacidad en los tiempos del algoritmo Big Brother reloaded

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, inteligencia colectiva, redes sociales, TIC with tags , , , , , , , , on junio 16, 2017 by zewx

privacidad_online

15 de junio de 2017. La privacidad en las redes electrónicas, llamadas en corto “redes sociales”, se encuentra recientemente bajo la lupa en centros de estudios académicos y organizaciones civiles, pero al parecer a los miles de millones de usuarios los tiene sin cuidado, mientras la miel siga fluyendo de sus dispositivos favoritos, muy contentitos seguirán poniéndose como tiro al blanco del llamado micro-marketing basado en minería de datos.

Desde hace unos cuantos años quien no esté en las redes sociales, prácticamente “no existe”. Por supuesto son falacias del mundo transposmoderno, donde conviven situaciones y actitudes por lo menos eclécticas, con múltiples combinaciones de «necesidades» fantasmales creadas por las grandes empresas y consorcios multinacionales, con el uso de las nuevas Tecnologías de Información y Comunicación (TIC) el negociazo del siglo XXI, en el que más vale estar conectados o, sencillamente no estás… «Me conecto, luego existo», diría un filósofo neocartesiano.

Todos hemos escuchado que gracias a las nuevas tecnologías cualquiera se puede comunicar con quien sea, todo el tiempo, estén donde estén, claro, siempre y cuando se cuente con un aparato, un plan o crédito suficiente para estar «conectado todo el tiempo», a sabiendas de que hay trucos para no estar, aunque algunos son para verdaderos iniciados.

Hoy parece importar a pocos si son rehenes voluntarios de acosadores domésticos o laborales, o incluso potenciales víctimas del crimen, pero también de las eternas actualizaciones y de la obsolescencia programada, tanto en equipos como en aplicaciones que, no obstante ser «gratuitas», cobran su jugosa cuota de datos e información personal de los usuarios e incluso contactos, que encantados con este flautista de Hamelin digital, no solo se hiperconectan sino que orondos brindan su localización para que todo el mundo se entere dónde se encuentran y qué hacen en todo momento, con lujo de imágenes y hasta videos “en tiempo real”.

Los servicios de Google, y la reina de las redes, Facebook -que también posee Instagram, WhatsApp y Oculus, entre decenas de otras empresas menos popularizadas-, de manera muy inteligente disponen de poderosos algoritmos de minería de datos, para vincular todos los hábitos personales y de grupo, con la maravillosa herramienta que encuentra en segundos lo que se desea, y que incluso a veces pareciera adivinar el pensamiento, y poco a poco las pantallas chicas o grandes se ven sobrepobladas con anuncios de productos y servicios de su preferencia, «¡qué chistoso!», exclaman desde las abuelas hasta los nietecitos en sus flamantes iPads, ante la aburrición de los millenials, que exigen ir «al siguiente nivel».

Sin embargo, los casos que han salido a la luz, tanto de víctimas de acoso, actos criminales o de la benévola publicidad digital, ponen al descubierto estrategias de marketing que aunque son aceptadas tácitamente por las personas, al validar las “cookies” con “me gusta” y vínculos compartidos que pocos se detienen a analizar, o desinstalar, son por lo menos antiéticas, según analistas y expertos.

Uno de esos casos se registró a finales de abril de 2017 en Australia, con la filtración de un documento interno de Facebook, publicado en The Australian, en el cual esta mega empresa ofreció a un grupo de anunciantes de ese país la posibilidad de llegar a casi 6 y medio millones de usuarios adolescentes australianos y neozelandeses, en momentos de vulnerabilidad emocional y psicológica, por sus estados emocionales basados en palabras como “inútil”, “estrés”, “inseguro”, “derrotado”, “ansioso” y “fallido”.

La compañía de Zuckerberg se justificó pero no admitió acto antiético, y recibió una carta firmada por organizaciones civiles de más de doce países (incluido México, con SonTusDatos Artículo 12, A.C.), para exigir una explicación satisfactoria, ante la evidencias de tácticas de mercadeo emocional abusivo. Algunos ejecutivos dieron entrevistas poco convincentes, ante estudios realizados por especialistas, como Tom Oswald y Saleem Alhabash, de la Universidad Estatal de Michigan, que han demostrado la relación entre el uso de las redes sociales y el alcoholismo entre adolescentes, «quienes tienen una necesidad particular de motivación en este momento particular y darles mensajes relacionados exactamente con lo que sienten, el retorno de inversión es cuantioso”.

En los últimos años, Facebook adopta herramientas que incluyen técnicas como el neuromarketing y el desarrollo de investigación biométrica que incorpora pruebas y análisis de las reacciones corporales y emocionales, como las respuestas del cerebro, corazón, movimientos oculares y memoria, con la adquisición y alianza con empresas especializadas en el rastreo y diseño de algoritmos orientados al mercadeo. Tal es el caso de Datalogix, Epsilon, BlueKai y Acxiom, esta última con 23 mil servidores que almacenan 1,500 puntos de datos por persona de 500 millones de consumidores activos en el mundo.

Está documentado ampliamente que estas tácticas de abuso empleadas por Facebook a través de estas alianzas estratégicas, redundan en el cruce de bases de datos que se incorporan en línea y fuera de Internet, y que dan a cada usuario una clave, con la técnica denominada como “hash”, algo así como un CURP, ya que cada vez más empresas y organizaciones registran los datos de sus clientes en bases de datos, incluso registros públicos, que los mismos consumidores están dispuestos a proporcionar en una modalidad del crowdsourcing, por las promociones y membresías que se ofrecen, al proporcionar sus correos electrónicos y otros datos personales, que son comparados con los perfiles de Facebook, Instagram, Google, entre otras redes, en lo que se denomina database marketing, con la economía de “likes” y las acciones para compartir.

Las personas diligentemente no solo comprometen sus gustos y situaciones, sino también los de sus conocidos, amigos y seguidores, y viceversa: si un usuario no aporta información suficiente en su perfil, sus amistades lo harán, con la misma mecánica de “gustar y compartir”, creándose un enriquecido entorno de mercadeo para colocar publicidad de precisión, con 52 dos mil categorías únicas, específicas y de terceros.

Con todo, muchos usuarios no ven riesgos en estas prácticas, y se jactan de disfrutar de nubes de datos que facilitan sus actividades de consumo, pero ¿dirían lo mismo siendo víctimas de criminales al acecho que pueden penetrar o comprar muy fácilmente dichos datos? ¿Qué opinan de las campañas de mentiras que pueden inducir los resultados de una elección?

Fuentes consultadas:

Wired / Get Ready for the Next Big Privacy Backlash Against Facebook / Nitasha Tiku

Silicon BeatNonprofits urge Facebook to realease research targeting «insecure» teens / Queenie Wong

Propublica / Facebook Doesn’t Tell Users Everything It Really Knows About Them / Julia Angwin, Terry Parris Jr. y Surya Mattu

Lifehacker / How Facebook Uses Your Data to Target Ads, Even Offline / / Thorin Klosowski

The New York Times / Mapping and sharing, the consumer genome / Natasha Singer

 

En busca del método para la investigación documental web.

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, inteligencia colectiva, internet on agosto 23, 2012 by zewx

Por Alfonso Esparza C.

En el recorrido por el magnífico volumen de ensayos The Handbook of Internet Studies, editado en 2011 por Mia Consalvo y Charles Ess, trabajos como el de Niels Brügger “Web archiving: between past, present and future” cobran especial interés por su sistemática insistencia en la necesidad de un trabajo transdisciplinario que integre necesidades y experiencias en un modelo de trabajo creativo, en que tendrían un rol de primer orden las instituciones de preservación documental con programas y proyectos de documentación digital en proceso, para unificar iniciaivas, compartir experiencias, y evitar la duplicidad de funciones compatibles y factibles para ser compartidas, y sobre todo, no cometer errores de método que tienen un alto costo.

En el camino hacia la consolidación de las investigaciones de internet como objeto de estudio el ensayo de Brügger propone como punto de partida considerar al documento web como medio y como texto. La pregunta metodológica es si un nuevo tipo de documento debe ser tratado de una manera distinta de otros medios y textos. Para el autor la respuesta es afirmativa: en primer lugar porque se caracteriza por ser dinámico, efímero, cambiante, fundamentalmente diferente de los llamados medios masivos convencionales, a los que puede integrar en su contenido, y requiere nuevos métodos de investigación.

Estrategias de documentación web

Brügger  define sucintamente documentación web como cualquier forma deliberada y propositiva de preservar material publicado en ese medio, y distingue dos grandes géneros: micro y macro documentación. La pequeña escala emprendida por amateurs es micro archivar, a partir de necesidades de corto plazo, por una necesidad utilitaria para preservar un objeto de estudio en particular, como lo haría, por ejemplo,  un investigador o un estudiante al archivar los periódicos en versión digital en línea.

En contraste, macro archivar es un desarrollo de escala mayor que llevan a cabo instituciones con una especialización técnica y presupuesto a su disposición, con el fin de preservar materiales de interés para el patrimonio cultural en general. Aplica a grandes bibliotecas y museos que cuentan con equipo y software especializado.

El autor empieza por fijar un principio taxonómico para el material web, con dos características genéricas: es digital y se publica en internet. Puede clasificarse entonces como un subgrupo, por un lado un medio digital (junto con otros documentos electrónicos, consolas de juegos de computadora, CD-ROM/DVDs, etcétera) y por el otro lado, su existencia en internet, distribuido a través de una infraestructura de telecomunicaciones, mediante una serie de protocolos, hardware/software, etcétera que hacen posible una publicación con un sentido de transmisión, que está sucediendo simultáneamente en múltiples puntos.

En un análisis comprehensivo del material web como una unidad significante delimitada, se identifican cinco niveles analíticos, donde en un extremo se abarca todo el material que está presente en la red como un todo, y en el otro, la escala de un solo elemento, por ejemplo, una imagen o un hipervínculo en una página electrónica.

Una estratificación de cinco niveles el material a preservarse puede ser cualquier cosa desde la WWW como un todo a una “esfera web” a un sitio o un elemento en una página, siendo cada uno de estos cinco estratos un contexto mutuamente relacionado (WWW-esfera web- sitio web-página-web-elemento web).

Entre las diferentes capas del material documental una de las más importantes es la “esfera web”, conjunto de recursos digitales dinámicamente definidos distribuidos en múltiples sitios relacionados con un evento central, concepto o tema; el sitio web como unidad coherente de páginas, y una página electrónica individual.

El autor hace además una distinción entre material público y no-público, que resulta crítica en una investigación documental. En estas categorías se puede diferenciar según varias consideraciones:

1) Material no público o semi público: material documental mantenido en una intranet o sistema privado y que es accesible a un grupo reducido de personas; 2) material pre-público: bosquejos, diseños preliminares, versiones beta, borradores, dummies, etcétera; 3) material público que se ha publicado en otros medios como los impresos (periódicos, revistas, libros, bitácoras, etcétera) o se haya transmitido en estaciones convencionales de radio o televisión.

Especialmente en lo que respecta al periodo temprano de la historia de la WWW hay material preservado en medios no digitales, sin haber sido publicado pero que puede rastrearse desde la red almacenándose en otros medios, como los catálogos cinematográficos, entre muchos otros ejemplos.

Breve historia de la documentación web.

El simple acto de colocar un archivo de html en un servidor web conectado a internet para ser publicado, es ya de entrada una forma de preservación de un documento. La irrupción de la WWW en el mundo de los medios implicaba de entrada aunque con un alto componente arbitrario, la intención de preservar datos, documentos y archivos, hojas de cálculo, despliegues de pantalla, gráficas, etcétera, como respuesta a necesidades inmediatas. El quehacer académico documental no estaba animado entonces por una reflexión de lo realizado en el pasado ni se le consideraba como parte de un esfuerzo sistemático de salvaguardar los materiales de un patrimonio cultural digital.

Mucho de lo creado en esta primera fase está en poder de sus autores o desperdigado en internet, con varios ejemplos emblemáticos que ilustran esta circunstancia, como la primera pantalla web publicada por Tim Berners-Lee, en 1990, una reliquia extraviada.

Paradójicamente es este modelo amateur de documentación en la que se archiva gran parte de esa “prehistoria” de micro documentación que se suma a los documentos registrados en medios no digitales.

¿Bibliotecas estáticas de publicaciones digitales?

En el mismo periodo en que se documentaba de manera amateur por parte de individuos y pequeñas organizaciones, se fragua de manera concomitante un creciente profesionalismo e intenciones claramente formuladas de preservar la herencia cultural nacional publicada en internet.

El autor pone énfasis en la importancia de una innovación tecnológica toral en el desarrollo de la documentación web, los robots de búsqueda, que potencian las iniciativas de preservación documental.

Por ese entonces, a mediados de los noventa se formuló la idea de archivar virtualmente cualquier publicación de interés documental, sin importar su contenido o quién lo colocó en línea. Pero no sólo material similar a una publicación impresa, sino también el material dinámico multimedia.

Sin embargo, estas iniciativas emergen desde instituciones documentales como bibliotecas y hemerotecas, con criterios totalmente basados en la cultura de la biblioteconomía, al equiparar los documentos web con el material factible para ser impreso y encuadernado como los libros y los periódicos. Un ejemplo de esta aproximación es el Electronic Publications Pilot Project (EPPP) dirigido por la Biblioteca Nacional de Canadá en 1994, donde el criterio era seleccionar de todo documento web que tuviera la apariencia de publicación impresa, eran archivados y catalogados como tales, con los estándares convencionales de las bibliotecas públicas.

Más tarde esta misma institución los documentos en línea publicados en formatos como blogs y sitios web en general, son archivados con técnicas de selección y convenios de envíos de contenidos por parte de editores de publicaciones en internet relevantes para el archivo.

El Internet Archive fue creado en 1996 como organización no lucrativa, localizada en The Presidio, en San Francisco, Estados Unidos, con el propósito de preservar las colecciones históricas existentes en formato digital, y entre otros medios la web. Esta colección es construida con una estrategia de búsquedas en internet, subcontratada a una empresa privada, con criterios de vincular los datos y las estadísticas de rastreo de uso, es decir que se archiva lo que se vincula y lo que consumen los usuarios, de allí que la iniciativa sea transnacional de origen. La técnica de preservación empleada es la “instantánea” (snapshot), y cada ocho días es almacenado todo el material que se localiza mediante los buscadores con este método.

El Internet Archive dio inicio con un ejercicio bien delimitado, con la técnica basada en el evento, con las campañas presidenciales de 1996, en que se documentó todo lo vertido en los sitios web de los candidatos. Más allá de su “utilidad” estratégica, demostró la necesidad y potencial de la documentación web, en un momento en que su valor no era tan evidente.

Otros proyectos pioneros de preservación documental web es Kulturaw3, iniciado por la Real Biblioteca de Suecia, cuyo objetivo fundamental sería archivar todo lo relativo a este país y su cultura. Fue lanzado en 1996 con una primera cosecha documental en 1997, con la técnica de “instantánea”.

El archivo Pandora creado ese mismo año por la Biblioteca Nacional de Australia, con la técnica de selección con el enfoque de preservar “significativos sitios web de Australia y publicaciones en línea basadas en web”. Un limitado conjunto de sitios son seleccionados, archivados y catalogados, siendo una de las primeras iniciativas inspiradas en las colecciones de biblioteca, como el proyecto canadiense EPPP.

El Archivo Danés de Internet Netarchive.dk es una estrategia compartida entre la Biblioteca Universitaria del Estado y la Real Biblioteca, creado en 2005, luego de reformarse el fundamento constitucional.

En 2003 once de las más grandes bibliotecas nacionales de EE.UU. y el Internet Archive unieron fuerzas en la creación del Consorcio Internacional de Preservación de Internet. En 2004 el European Archive fue creado basado en la asociación entre bibliotecas, museos y otros órganos de preservación documental, que ha desarrollado desde entonces un circuito de conocimiento de las más recientes experiencias en la materia.

Una metodología dinámica, siempre subjetiva

El autor argumenta que una característica distintiva de archivar material publicado en web, independientemente de la estrategia del proceso, es una reconstrucción dinámicamente creada, la cadena de decisiones y criterios, incluso antes del arranque desde el URL de inicio, la selección entre las distintas estrategias y formas de archivar, en general y en detalle, implica que el documento archivado está basado en una decisión estrictamente subjetiva, por un individuo o institución.

Cuándo y desde dónde iniciar la selección y la ruta de búsqueda, y si serán incluidos o excluidos tipos específicos de archivos (imágenes, sonidos, flash, registro de chat o videoconferencia, hipervínculos activos, etcétera); si el material será recolectado de otros servidores, cómo será preservado este material; si será desde una perspectiva empírica y muy selectiva, o una planificada, de largo plazo, de escala regional, nacional o transnacional.

Aunque la problemática es la punta de un iceberg, se suma un elemento no menos relevante, que es el carácter cambiante y no estático del material que circula en la web, porque incluso los periódicos en línea con formato web podrían modificar sustancialmente o quitar de circulación un documento, y quedar disponible en versiones en cache o textos fantasmas del original, además de las deficiencias inherentes a la deliberada omisión en el proceso de selección. Hay sin embargo otras dos severas fuentes de error: las relacionadas con el tiempo, y los generados por problemas tecnológicos durante el proceso de documentar-archivar.

También destaca Brügger que el documento web está en riesgo de ser sujeto de la siguiente paradójica doble inconsistencia: por un lado el archivo no es exactamente como estaba realmente publicado originalmente en internet, porque en el proceso de guardar siempre se pierde algo. Por el otro lado, el archivo puede ser exactamente como nunca fue, porque siempre se obtiene algo diferente, siendo una gran paradoja que el documento preservado nunca es como la web “en vivo”, ya que el texto escrito, imágenes/gráficos, sonidos, imágenes dinámicas podrían faltar o algunas de las posibilidades de interactividad podrían no ser funcionales en la versión archivada.

Versiones de las versiones…

El proceso de archivar, en última instancia crea una versión única, pero no una copia del documento originalmente publicado, de lo cual se coligen dos consecuencias: se ha soslayado la relevancia de que un mismo sitio web “guardado” en distintos archivos en idéntica fecha y hora, difiere sustancialmente uno de otro.

La segunda consecuencia es que un documento nunca es la versión de un original y no se puede esperar encontrarlo en la forma en que fue publicado; tampoco se puede encontrar el original entre las distintas versiones, ni se puede reconstruir a partir de éstas.

La labor de los académicos especializados llevaría a un punto cercano a la crítica del texto, según la filología de manuscritos, en tanto que se trabajaría con versiones de un documento, en que las variantes son comparadas entre sí, en ausencia de algún original “autorizado” disponible. De allí que algunos de los métodos de la filología clásica del texto probablemente son relevantes para lo que Brügger y sus colegas llaman “filología web”, aunque es preciso, subraya, que debe ser analizado con la especificidad del material de medios incorporados en el documento web.

Al ahondar en el análisis el autor despliega una serie de características únicas a tomar en cuenta en el proceso de documentación:

–        Es un texto de varias capas, en el sentido de que puede ser examinado en niveles que se extienden desde el texto inmediatamente percibido (las unidades significantes que se ven y escuchan), hasta la variedad de elementos textuales subyacentes que no son percibidos de manea inmediata (el código fuente: HTML, XML, etcétera), así como las capas de la comunicación por internet (los modelos de protocolo TCP/IP, OSI o similar).

–        La escritura digital hace posible que el documento web archivado pueda ser continuamente re-escrito, en un sentido distinto al empleado tradicionalmente en los manuscritos, ya que la continua reescritura se da mayormente después de que el texto fue archivado, e incluso, en la perspectiva de una preservación documental de largo plazo, “migrar” a otros formatos.

–        La escritura digital permite en muchos casos comparar documentos archivados automáticamente.

–        Versiones idénticas del mismo material pueden existir en distintos archivos, muchas veces en sitios web pequeños y poco complicados, rara vez actualizados.

El futuro de la archivonomía web

Resulta imperativo el trabajo transdisciplinario entre las instituciones con iniciativas de preservación documental web y las comunidades de investigación de internet y establecer mecanismos de cooperación que no han sido aún establecidos.

La colaboración puede basarse en una variedad de formas, siendo tres las más obvias:

–        Las colaboraciones pueden se integradas en el día a día del quehacer académico en las operaciones del archivo web, por ejemplo al asociar al proyecto a un consejo asesor en que participen investigadores de internet y otros usuarios.

–        La colaboración puede ser ocasional, con relación a proyectos de investigación específicos o tareas concretas de archivar, por ejemplo, con investigadores que ya cooperan con instituciones que realizan programas de preservación documental web, en la planeación del proyecto de archivo, y no después de que se ha avanzado.

–        Estos dos tipos de colaboraciones pueden tener lugar en una escala global, con relación a proyectos transnacionales de investigación.

En lo que toca a la interacción entre los archivos y los investigadores se presentan tres desafíos que deben ser mencionados, advierte Brügger:

1) Debe ser iniciado un rastreo y preservación dirigidos de material heterogéneo que no ha sido hecho público, posiblemente con otros institutos dedicados a la preservación patrimonial como los museos.

2) Las instituciones dedicadas a la preservación documental web deben empezar a experimentar de manera más sistemática con las otras dos formas de archivo en la red: captura de pantallas y la entrega-distribución de material. Ambas tareas tienen la perspectiva de preservar tanto material como sea posible del patrimonio cultural de relevancia histórica y antropológica.

3) Las discusiones deben ser iniciadas de acuerdo con los alcances del software analítico utilizado en la web en vivo, que puedan ser aplicados al material archivado, teniendo en cuenta la composición específica de cada componente.

Finalmente, no menos trascendental es que la comunidad de investigadores de internet confronte a la brevedad el desafío de difundir el conocimiento sobre registro documental web tanto entre las otras disciplinas de las ciencias y humanidades (ciencia política, sociología, lingüística, literatura, artes, comunicación, historia, etcétera), tan sólo porque desde hace algunos años internet ha sido una parte integral de la infraestructura de comunicación de nuestras sociedades y el pensamiento contemporáneo.

Hacia una filología en los estudios documentales en la web / primera parte

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, internet on julio 10, 2012 by zewx

Por Alfonso Esparza

En el curso de una investigación de más largo aliento sobre los usos sociales de las telecomunicaciones en los últimos 30 años, la revisión de las fuentes arrojó una evidencia empírica que después comprobé: los estudios mismos de los medios electrónicos en red han cambiado, y como otras disciplinas han encontrado legitimidad en la sistematización de los modelos de análisis del objeto de estudio. En la lectura de materiales diversos, obtenidos de internet, algunos que datan de mediados y fines de los años 90 y otros tan recientes como el año 2011, me encontré con la serie de manuales de comunicación y medios de Wiley-Blackwell, con un grueso volumen: The handbook of internet Studies, editado por Mia Consalvo y Charles Ess, publicado en 2011.

Sus casi quinientas páginas no tienen el menor desperdicio, reúnen una familia de ensayos imprescindibles para entender este objeto de estudio que cambia “en tiempo real”, híbrido por excelencia, que se ha acomodado a la impronta de “nuevo medio”, aunque toma elementos de algunos tan antiguos como la escritura, y hoy tan comunes como la telefonía o la radio, que después del asombro casi mágico de los primeros días, en pocas décadas se integran a la vida social, transformándola en el camino.

La forma en que se almacena y distribuye la información en Internet y cómo impacta la vida de las personas, son los ejes de atención para la mayoría de especialistas de este volumen, muchos de los con más de 30 años de experiencia en las tecnologías digitales.

Esta lectura me llevó en un vuelo rasante por mi propia experiencia, a partir de 1996 con la incursión en el uso, publicación y desarrollo de contenido semillero de comunidades virtuales con las herramientas disponibles en Internet. Estaba ante el nacimiento de la web, encontré sentido en una visión de perspectiva sobre la importancia del conocimiento que empezaba a circular, de manera libre y desordenada, con un potencial sumamente pretencioso como plataforma multimedio de publicación global.

La lectura de estas dos piezas abrieron esa óptica, que ahora considero una asignatura indispensable para los académicos cuyo objeto de estudio es internet, explica que en la organización del conocimiento que se publica y circula en Internet desde hace por lo menos 25 años, hasta hace muy poco concitó el interés de preservación y la organización óptima de estos materiales, con lo cual se abren las puertas a una aventura problemática de gran envergadura, dentro de la cual se apetece una buena revisada.

Antes y después de internet

La lectura de estos dos ensayos y sopesar el contenido del grueso volumen por abordar, remite a la importancia del planteamiento transdisciplinario para la preservación del acervo digital en web en nuestro idioma (por no mencionar la tarea no menos importante de las leguas indígenas), habida cuenta de la compleja problemática metodológica y conceptual de la archivonomía para el multimedio digital en web, con un interesante e indispensable debate en la definición de lo que es un documento web, sus componentes, y metodologías para ser archivado, consultado por el público en general y los especialistas, investigadores y comunidades académicas en particular, en la medida en que incide, como efecto mariposa, desde el trabajo de gabinete de rastreo y registro de fuentes, hasta las grandes políticas nacionales de preservación patrimonial.

Es una problemática múltiple, que de entrada presenta un diferenciador paradigmático del documento web: el “efecto streaming” o del famoso “tiempo real”, es decir, la web “en vivo”, cambiante, que se metamorfosea a cada momento, y que en cada vez mayor proporción es un componente de información “volátil”, un flujo flotante en la comunicación binaria inscrita en la dinámica de chats, comunidades virtuales, weblogs, redes sociales, y por otro lado. No menos complicada resulta la estimación de la parte del conocimiento almacenada en sistemas cerrados o parcialmente restringidos, en ambientes de servicios propietarios (correos electrónicos, mensajeros instantáneos, e intranets, etcétera), que serían dos puntas de un iceberg que apenas se empieza a dimensionarse con una visión transdisciplinaria de largo plazo.

En el año 94 del siglo pasado se editó el primer mensaje en hipertexto que se hizo público en Internet, y con ello, su autor, Tim Berners-Lee, dio nacimiento a la WWW, y en ese momento y en los siguientes diez años, los usuarios de esta tecnología, principalmente académicos, no consideraron un plan consistente ni pudieron en marcha metodologías adecuadas para archivar y organizar la información con fines de preservarla como documentos historiográficos de este conocimiento generado en la incipiente era de la web, como en su momento se emprendió la organización de materiales en otros formatos electrónicos predigitales como audio y video en distintos formatos de cinta analógica, almacenados y organizados en la forma de videotecas y fonotecas, con metodologías muy semejantes a la de todo acervo documental.

Bajo el espíritu libertario y autónomo con que se gestó internet, se plantearon estándares de arquitectura topológica y protocolos necesarios para la comunicación mediada por computadora (TCP/IP y HTML, entre otros) y la necesidad de estandarizar los códigos y lenguajes en el rico despliegue visual de contenidos, típico de la web, una tarea admirable que continúa sin descanso, y con la activísima participación del mismo Berners-Lee. Sin embargo, los documentos y en general el conocimiento vertido en publicaciones en línea, la mayor parte único, se dejó al libre albedrío de individuos y organizaciones, con un criterio que no iba más allá de la metáfora visual de las “carpetitas” aportado por los sistemas de cómputo personal comerciales, Windows y MAC, sin otro destino que otra carpeta en algún servidor, y la arquitectura designada por ingenieros y web masters.

Pero sería equivocado pensar que no había interés e iniciativas muy importantes para archivar y preservar materiales producidos en la WWW, al contrario, se optó por un método bastante laborioso y manual en gran parte, la única manera que se entendía y que se hizo incluso hasta la era del CD-ROM, y se hace con el DVD, exactamente como las cinematecas y videotecas, incluso los discos duros, embodegarlos como las viejas bibliotecas y hemerotecas. Los documentos en web se archivaron recurriendo a la impresión en papel, para llenar carpetas, estas sí físicas, y metros y metros cuadrados de espacio en bodegas. Pero al pasar el tiempo, una parte importante de ese material, ya no está disponible en la misma web, cambió de ubicación o fue modificado, además de no ser copia fiel del original, sino una versión entre muchas, pero además siendo prácticamente imposible imprimir los elementos dinámicos del contenido, porque se adoptan criterios como por ejemplo, eliminar deliberadamente ciertos componentes como algunas imágenes, para “economizar”. Sencillamente se excluye la parte dinámica de la web, y con la Web 2.0 esta problemática se potencia de manera sustantiva.

Historia de la documentación web

Hasta hace unos años se emprendieron esfuerzos consistentes para cubrir esta deficiencia, y tanto los principales usuarios de estas bases de datos, la comunidad académica, y las instituciones, han emprendido incluso programas nacionales para la preservación de archivos en formato web, considerados como indispensables bajo el amparo de una política pública de patrimonio cultural, pero siempre con criterios heterogéneos, al libre albedrío o necesidades de los involucrados en los proyectos específicos.

El problema es complicado de resolver, aun con las herramientas hoy a disposición de cualquiera, porque con un ejemplo muy sencillo, que propone Brügger en su ensayo, ante la necesidad de “archivar/guardar” la edición completa de un periódico o cualquier publicación electrónica en línea de una fecha determinada, se puede hacer con herramientas de grabación “en vivo”, pero precisamente por esa condición, cuando se termine de guardar o grabar en directo, a una velocidad aceptable de ancho de banda, que tardaría un par de horas, al concluir se tendría una versión distinta de la que está en línea al término del proceso, que cambió en ese breve lapso de tiempo, en un grado que hace altamente inestable el resultado. Y aquí es donde vale la pena recurrir a las reflexiones de estos autores.

El ensayo de Barry Wellman es una visión histórica muy concisa de los estudios de internet, en pocas páginas devela tres fases: la “prehistoria”, la era de los expertos, marcada por el desarrollo de herramientas de groupware; la era del nacimiento de la WWW, los motores de búsqueda y el crecimiento de la población usuaria; y una la era del análisis y las políticas de preservación documental de internet.

Cita dos antecedentes míticos: el profético Network nation, en 1978, de Roxanne Hiltz y Murray Turoff, que vinculaba las ciencias sociales con las comunicaciones computarizadas, cuando no existía la palabra “internet”.  Hasta los primeros años de la década de los 90 este desarrollo y usufructo del mismo era privativo de los grupos de científicos en informática, que diseñaban y compartían herramientas bajo la familia de groupware, con las hojas y aplicaciones donde reinaba el modelo Lotus, y el conocimiento se generaba y se quedaba en los laboratorios, como compendia otro hito bibliográfico de esta “prehistoria”: Connections, de Sara Kiesler. El esplendor de este momento llegó a su punto máximo con las herramientas de telepresencia. Todo estaba listo para el despliegue social de internet con su glamorosa hija, la web.

En lo que Wellman llama la primera era de los estudios de internet, el desarrollo y “personalidad” de la red era determinada por los eruditos, muchos menores de treinta años, que decidieron ir más allá de compartir entretenidas piezas de groupware, al darse cuenta que la comunicación mediada por computadoras aportaba una conectividad sin igual. Sin embargo, nuestro autor cuestiona la visión aislada que llama “parroquiana” y utópica, al pensar que lo que sucedía en internet sólo era valioso para el medio mismo, al que se daba una categoría de transformación profunda, igualitaria, democratizadora y global, sin considerar las asimetrías geopolíticas en la adopción de estas herramientas y las diferencias de poder y estatus que pueden condicionar la interacción online.

En esta etapa entra en escena los distopianos, posmodernos próceres del ludismo que consideraban este nuevo medio deshumanizante y pernicioso, que podría sustituir las relaciones humanas. Ni panacea ni caja de Pandora, porque lejos de que las simples interacciones equivalgan a una comunidad, como muchos “twitteros” y “facebookeros” pregonan, y lejos de ser una maldición, como querían los apocalípticos, y para Wellman es innegable que internet es “una red social basada en computadoras, de hecho el componente más amplio del mundo, una red en la cual todos los puntos se conectan, directa indirectamente”.

Escribe que la segunda era de los estudios de internet empieza alrededor de 1998 cuando entidades gubernamentales, intereses comerciales y académicos apetecieron registros sistemáticos de lo que se publicaba en internet, pero esta euforia, se frenó como un coitus interruptus de los especuladores bursátiles que pregonaban una “nueva realidad”: primero el espantajo del Y2K y después con la burbuja de las empresas “punto com” en el 2000. Menciona un curioso efecto de este desplome económico y psicológico, con el impacto en la revista Wired, una especie de biblia exaltada del iluminismo tecnológico, con McLuhan como santón, que pasó de tener 240 páginas en 1996, que se redujeron a 180 en septiembre de 2001 para llegar a las 148 páginas  en septiembre de 2003, convirtiéndose en una publicación estilo mecánica popular del internet.

Sin embargo había dos elementos salvavidas para la explosión de la burbuja con la caída estrepitosa del NASDAQ (índice de cotizaciones de empresa tecnológicas que se creía lideraría la “nueva economía” de una “nueva sociedad”), tanto la guerra de navegadores Netscape vs. Explorer, que a la larga benefició la experiencia del usuario, y el desarrollo y refinamiento de los motores de búsqueda, primero entre muchos otros, Altavista, Lycos, Yahoo y el gigante Google, verdaderos motores de expansión y aprendizaje para mejorar, madurar y anidar en las nacientes comunidades virtuales y amasar el futuro fenómeno de YouTube, Blogger, Facebook, Twitter, entre decenas de competidores y emuladores, y una familia de miles de aplicaciones multiplicándose, configuradas para que el uso mejore la herramienta (dejamos para otra ocasión el debate sobre el software libre).

La tercera etapa de los estudios de internet, montada en este crecimiento exponencial, al grado de que se sustituye “naturalmente” en el camino comunidades virtuales por redes sociales y cibernautas por usuarios, a secas, como los ferrocarriles, la energía eléctrica, las carreteras, el teléfono, el uso del espectro radioeléctrico, y la convergencia digital, el hipermedio en la nube de la banda ancha. Estamos en el umbral de una conciencia clara sobre la necesidad de documentación y análisis, y la construcción de las herramientas conceptuales, metodológicas y técnicas, ante un medio único en su tipo, cuya característica es la volatilidad mutable.

Quedaba claro, sin embargo, que no se trataba de una nueva realidad o una nueva sociedad, sino de una herramienta poderosa que cambiaría para siempre la forma en que las personas se comunican y obtienen información y conocimiento, pero también lo producen y lo circulan en redes planetarias: 2 mil 267 millones 233 mil 742 de personas con acceso a internet (Internet World Stats (IWS) http://www.internetworldstats.com/ 31 de diciembre de 2011).

Llegó el momento de la documentación y el análisis, de los programas y las iniciativas, las políticas públicas nacionales, las grandes universidades y centros documentales emblemáticos.

Es aquí donde Niels Brügger explica con fino detalle la historiografía de los estudios de la archivonomía web: quien pone la mira analítica en el corazón del debate sobre el quehacer del investigador social en internet: la web documentada se discute básicamente como un medio y como texto, y se plantea dos preguntas nodales: si el documento web archivado es un nuevo tipo de documento, y si la respuesta es afirmativa: ¿debe este documento ser tratado en forma diferente cuado se usa como objeto de estudio?

En una segunda parte abordaremos este interesante estudio de Brügger, en que revisa la muy fresca historia de la archivonomía micro y macro de la web, las diferentes estrategias de archivo de documentos web, con ejemplos emblemáticos, y lo más importante de su ensayo, por un lado la visión filológica en el estudio y uso de documentos publicados en este medio, y el carácter específico de texto multicapas, sus propuestas de reglas y principios, con un enfoque eminentemente transdisciplinario.