Archive for the SOFTWARE Category

Wijnand Ijsselsteijn y Giuseppe Riva: La experiencia de la presencia en ambientes mediados. Al otro lado del espejo: Documentación y análisis sobre los Ambientes Virtuales de Inmersión III.

Posted in CIENCIA Y TECNOLOGÍA, Realidad Virtual, SOCIEDAD, SOFTWARE with tags , , , , , , , on mayo 27, 2018 by zewx

Sensorama.png

“Escapar de la realidad –ser capaces de hacer cualquier cosa que deseamos hacer, ir a cualquier lugar que queremos, parece ser una de las motivaciones básicas detrás del atractivo de los medios en general y la fascinación con los ambientes virtuales en particular”. Ijsselsteijn y Riva

Ciudad de México, 26 de mayo 2018. Por Alfonso Esparza.

En las próximas entregas nos concentraremos en trabajos que se han concentrado en el estudio del fenómeno de la presencia en ambientes mediados por computadora, como el caso de la Realidad Virtual, y uno de los estudios más importantes en este campo es el realizado por dos insignes especialistas: Wijnand Ijsselsteijn, científico especializado en inteligencia artificial y neuropsicología cognitiva y Giuseppe Riva, neurocientífico especializado en ciberpsicología, profundizan en su ensayo “Estar allí: La experiencia de la presencia en ambientes mediados”, publicado en 2003.

Y los autores empiezan por un cuestionamiento básico e inquietante, ¿dónde estoy?, que no es gratuito, porque se refiere a la experiencia a la que fue sometido el filósofo Daniel Dennett y que él mismo cuenta en el último capítulo de su libro  Brainstorms: Philosophical Essays on Mind and Psychology, publicado en 1978, y se refiere a una neurocirugía a la que fue sometido, en la que su cerebro fue separado quirúrgicamente de su cuerpo y cada conexión entre ambos restaurada por transceptores de radio microminiaturizados entre cada conducto de entrada y salida, y en estado consciente pudo ver su propio cerebro, en una tina de soporte vital, momento en que se dispararon algunas reflexiones según cuenta: “Siendo un filósofo de fuerte convicción física, creía de manera inquebrantable que la simbolización de mis pensamientos estaría ocurriendo en alguna parte de mi cerebro: empero, cuando pienso ‘aquí estoy’, donde ocurrió el pensamiento es aquí, fuera de la tina, donde yo, Dennett, estaba parado, observando mi cerebro”.

El filósofo hace una interesante reflexión sobre la percepción desde el 0unto de vista de una persona, que puede afectar en la percepción de su presencia física, y se refiere al Cinerama, un antecedente de la realidad virtual, en una sala de cine con tres proyectores y una pantalla envolvente, y se pregunta con humor por qué los espectadores se retuercen y sufren en su asiento ante la proyección de una montaña rusa, cuando saben que están perfectamente sentados y a salvo en sus butacas.

Los autores citan a uno de los pioneros más importante de la realidad virtual, el inventor y cineasta Morton Heilig (1926-1997), creador de la máquina Sensorama, quien también se refiere al Cinerama y estableció, hace más de cuatro décadas, que se dio cuenta de que “los creadores de cine ya no estaban conformes con que yo observe una montaña rusa, sino que estaban tratando de ponerme en ella físicamente en el paseo. La audiencia ya no rodea la pieza de arte; la pieza de arte rodea a la audiencia –justo como la realidad nos rodea. El espectador era invitado a zambullirse dentro de otro mundo. Ya no necesitamos identificarnos con el personaje del toro lado de la ‘ventana’. ¡Podemos atravesarla y ser parte de la acción!”.

Los autores señalan que esta experiencia refiere a varias de las principales características de los medios electrónicos interactivos, “principalmente el desplazamiento de la autopercepción de los participantes y una sensación de transparencia del medio, de una estimulación perceptual directa sin la conciencia de lejanía en el tiempo y el espacio de las realidades simuladas o reproducidas”.

Como experiencia de usuario, dicen Ijsselsteijn y Riva, “la sensación de ‘estar allí’, o presencia, no está intrínsecamente ligada a una tecnología específica –es un producto de la mente. En la vida diaria, normal rara vez estamos conscientes de nuestra sensación de presencia en el mundo. No es una experiencia sobre la cual reflexionemos usualmente. Como perceptores dudamos poco del mundo visible tridimensional que se extiende frente a nosotros y de que somos parte de ese espacio”.

Luego entonces con el advenimiento y mejoramiento de las tecnologías computacionales y redes y dispositivos de inmersión y el desarrollo de gráficos interactivos generados por computadora se pueden desarrollar simulaciones y reproducciones de la realidad cada vez más exactas lo cual conduce a tener cada vez mayor conciencia del fenómeno ontológico de la presencia, y “hoy en día se ha vuelto moneda corriente en áreas como los entornos virtuales, transmisiones avanzadas y visualizaciones cinemáticas, sistemas de teleoperación y aplicaciones avanzadas de telecomunicaciones”, y es un campo creciente de interés para una comunidad multidisciplinaria creciente que vuelca su atención a la presencia, en busca de su origen, cómo puede ser medida esta experiencia y qué efectos puede tener en el usuario de medios, advierten los autores.

En este ensayo los investigadores analizan la que llaman estructura de la presencia, sobre la cual “hay un consenso en que la experiencia de la presencia es una percepción compleja, multidimensional, formada a través de una interacción entre datos crudos (multi)sensoriales y varios procesos cognitivos –una experiencia en la cual factores atencionales también juegan un papel crucial. Dos categorías generales de variables pueden determinar la presencia de un usuario: las características del medio y las características del usuario. […] Ambas son conocidas por tener un impacto significativo en el sentido de presencia del individuo, tales que dependiendo de los niveles de una estimulación sensorial apropiada, enriquecida, consistente y cautivadora, pueden producirse variados niveles de presencia”.

En una referencia a las propuestas en el trabajo de Thomas B. Sheridan, se establecen tres categorías de determinantes de la presencia: 1) grado de la información sensorial presentada al participante; 2) el nivel de control que tiene el participante sobre los varios mecanismos sensores, y 3) la habilidad del participante para modificar el ambiente. Los tres factores se refieren a la forma del medio, a las propiedades físicas objetivas de presentación del medio y, adicionalmente, el contenido del medio es de vital importancia –los objetos, actores y entornos representados por el medio, en ocasiones enlazados juntos en un flujo lógico de eventos conocidos como narrativa o relato, que son esenciales para mantener cautivado al usuario.

“Como producto de la mente del individuo, es altamente probable que la experiencia presencial variará significativamente entre los individuos, basado en diferencias de habilidades perceptomotrices, estados mentales, rasgos, necesidades, preferencias, experiencia, etcétera […] La presencia en un ambiente mediado será mejorado en un entorno de inmersión y perceptualmente remarcado, así como en un proceso de selección atencional así como permitiendo la formación de una representación ambientalmente consistente”.

En esta medición del grado de presencia mediada, es importante lo establecido por los investigadores T. Schubert, F. Friedman y H. Regembrecht en su estudio Presencia, teleoperadores y Entornos Virtuales (2001), en coincidencia con J. Lessiter, E. Keogh y J. Davidoff, que se basaría en los componentes de “presencia espacial”, “participación” y “realismo”, añadiendo un cuarto factor atenuante: “efectos negativos”, conjunto en el que destaca con un papel central los mecanismos atencionales, para establecer el nivel de presencia, y se apunta que “a pasar del progreso significativo en la investigación de algunas metodologías de medición, sigue siendo un desafío de la investigación en este campo tener un modelo robusto y confiable.

Para los tipos de presencia los autores refieren otros estudios como el de M. Lombard y T. Ditton: Efectos posteriores y sentido de presencia en entornos virtuales: formulación de una agenda de investigación y desarrollo (1998), con la propuesta de seis diferentes conceptualizaciones de presencia: realismo, inmersión, transportación, riqueza social, actor social dentro del medio y el medio como actor social, y que pueden organizarse en dos grandes categorías: la presencia física, que se refiere a la sensación de estar físicamente ubicado en un espacio mediado, en el cual la presencia social se refiere a la sensación de estar juntos, de interacción social con un copartícipe de comunicación virtual o remotamente localizado. Y en la intersección de estas dos categorías puede entonces identificarse una co-presencia o una sensación de estar reunidos en un espacio compartido, combinando características significativas en ambas presencias, física y social”.

Ijsselsteijn y Riva establecen entonces que “históricamente el interés de la investigación en el campo de la presencia ha sido principalmente motivado en el trabajo en tres dominios relacionados: teleoperación, simulación y telecomunicaciones. En detalle, “Los sistemas avanzados de simulación, como los utilizados para entrenamiento de vuelo y de combate, hace tiempo que son reconocidos  por engendrar un sentido de presencia en sus participantes, y aunque la relación de la presencia con el desempeño de tareas ha sido centro de algún debate, hay pocas dudas de que la transferencia del entrenamiento a las condiciones del mundo real, se beneficia de una simulación realista. Aún más, el poder de cómputo y las posibilidades de visualización  se han incrementado sustancialmente y ha hecho posible crear ambientes virtuales de un creciente realismo, a una fracción del costo de sistemas profesionales de simulación”.

Esto “aunado a una creciente naturaleza social de las interfaces y el incremento de las comunicaciones mediadas con entidades no humanas (avatares, agentes encarnados), resulta abrumadoramente claro que debe desarrollarse un entendimiento más profundo, tanto en la teoría como en la práctica de cómo las personas interactúan mutuamente y con entes virtuales, a través de las comunicaciones mediadas. La experiencia de la presencia social dentro de diferentes contextos y aplicaciones se convierte en un concepto de importancia esencial”, y concluyen que “la investigación de la presencia aporta, por un lado, el puente necesario entre le investigación de medios, y por otro lado, un programa multidisciplinario sustancial en torno de las propiedades de la percepción y la conciencia del otro”.

En este ensayo los autores abordan el aspecto cultural en materia de presencia y refieren de nuevo los estudios realizados por Lombard y Ditton en la categorización del nivel de presencia, describiéndola como una “ilusión perceptual de no mediación”, un nivel de experiencia en el que “la separación entre los sistemas de realidad virtual y la realidad física exterior, desaparece de la conciencia fenoménica del usuario: el término perceptual muestra que la ilusión involucra respuestas continuas (tiempo real) de los sistemas humanos sensorial, cognitivo y de procesamiento hacia los objetos y entidades en el entorno de la persona”, y más aún, la ilusión de no mediación del sujeto, cuando el usuario “falla en percibir o darse cuenta de la existencia de un medio en su entorno comunicacional y responde como si el medio no estuviera presente”.

En este punto los investigadores aluden a los trabajos de Mel Slater y A. Steed, en la necesidad de diferenciar con claridad los fenómenos de la presencia y la inmersión: inmersión es simplemente una fidelidad general en relación con la realidad física provista por la visualización y los sistemas interactivos. “En esta visión la investigación de la presencia es esencialmente aquella que desarrolla experimentos que manipulan las variables que componen la inmersión, con el fin de construir una ecuación con la presencia en el lado izquierdo, y los factores de la inmersión por el lado derecho. Las diferencias individuales entre las personas también pueden ser incluidas como variables en el lado derecho, y, de acuerdo con esto, la ilusión perceptual de no mediación es provista por la fidelidad, en relación con la realidad física, provista por el medio”.

A esta visión oponen los autores la desarrollada por una aproximación ecológica/cultural, cuyo enfoque se concentra en la acción dentro de un contexto social, de cómo os actores explotan las facilidades de una situación dada, y no en la forma en que las cosas se ven y escuchan. Por ello ponderan que las raíces de esta visión se encuentran en la filosofía de Martin Heidegger y en la teoría de la percepción de James Gibson y la filosofía cultural de Michael Cole, ya que para ellos el entorno no proporciona información indiferenciada de los objetos de la misma forma a todas las personas, sino que ofrece distintas oportunidades dependiendo de los actores, su contexto social, sus objetivos y necesidades, en tanto que esas facilidades no son cosas en el exterior listas para ser “fotografiadas”, y que es también el punto de partida para otros investigadores como Pavel Zahoric y Rick Jenison, quienes subrayan que “la presencia es equivalente a una acción soportada exitosamente en el entorno”, y la experiencia de la realidad es definida como “relativa a la funcionalidad y no a las apariencias”.

En su trabajo Presencia como-estar-en-el-mundo, (1998), que abordaremos en otra ocasión, Zahoric y Jenison establecen con un ejemplo cotidiano que “dentro de cada configuración local, como las acciones cognitivas, como recordación y toma de decisión están distribuidas no solo entre los artefactos (el menú, el acomodo de sillas y mesas, la señal que indica los sanitarios) sino entre las reglas (pagar antes de salir del local; sentarse a la misma mesa con extraños requiere que se pida permiso) y entre personas que acuerdan la división del trabajo”, lo cual indica un contexto compuesto principalmente por referencias simbólicas, que permite a los actores orientarse y coordinarse.

Finalmente, en el aspecto social los autores W. Ijsselsteijn y G. Riva enfatizan que “la sensación de presencia en un ambiente virtual compartido se incrementará fomentando las interacciones con el entorno, donde las alteraciones del mismo provocado por las acciones de un participante son claramente percibidas por los otros participantes”.

Y así lo postulan el propio G. Riva en mancuerna con Giuseppe Mantovani en Presencia “real”: cómo diferentes ontologías generan diferentes criterios para la presencia, telepresencia y presencia virtual (1999), al explicar que “la acción en toda situación cotidiana no está hecha solo de momentos, que cada individuo singular ejecuta, sino parte de un juego estratégico en e cual algunos objetivos, tanto individuales como colectivos a los cuales están destinadas, a través de los esfuerzos conjuntos de varios actores. Para que sean logradas, muchas actividades humanas –trabajar, jugar, bailar, cortejar-, se requiere que conocimientos relevantes para dicho objetivo sea distribuido y que las acciones sean coordinadas entre los varios actores mediante modos culturales preexistentes a dichas interacciones (entre actores y entre estos y el entorno) y hacerlas posibles”.

Sin embargo, los individuos varían tremendamente en sus estrategias de negociación, tanto en las acciones como en sus significados, advierten Ijsselsteijn y Riva, así como en sus procesos de desempeño de las tareas para conseguirlo, de lo cual derivan algunas dificultades en la administración de la negociación, con dos consecuencias para el diseño de Entornos Virtuales Colaborativos (CVEs, por sus siglas en inglés):

– La única firma para entender la negociación es analizando  a los sujetos involucrados en el ambiente en el cual operan. Esto significa que el contexto social en el que ocurre la experiencia de realidad virtual juega un rol crucial.

– Nuevos procesos y actividades se desarrollarán durante las interacciones que desafían y cambian la relación inicial entre sujeto y contexto. De allí que los Entornos Virtuales orientados clínicamente tienen e ser lo suficientemente flexibles para maniobrar estos cambios sin imponer restricciones a la interacción.

Para redondear estos conceptos los autores citan los conceptos esgrimidos por los investigadores Elizabeth F. Churchill y David Snowdon en su trabajo Entornos Virtuales Colaborativos: una introducción y revisión de temas y sistemas (1998):

La transición entre actividades compartidas e individuales: los actores deben saber lo que realmente se está haciendo y lo que se ha hecho en el contexto de los objetivos de las labores.

– Puntos de vista y representaciones flexibles y múltiples: las labores frecuentemente necesitan hacer uso de representaciones, cada una encaminada a un punto de vista diferente y distintas subtareas.

Contexto compartido: se compone de referencias simbólicas que permite a los actores coordinarse y orientarse. Incluye un conocimiento compartido de las actividades en curso de cada uno, así como de las acciones pasadas, artefactos y entornos compartidos.

La conciencia de otros: incluye tanto el conocimiento de tareas compartidas, relacionadas con las actividades y la sensación de co-presencia.

Soporte de actividades comunicativas: la negociación a través de diálogo cara a cara es importante para la colaboración. De hecho, los estudios analíticos en el trabajo han detallado cómo contribuyen a dicha negociación elementos sutiles verbales y no verbales.

En el trabajo de Ijsselsteijn y Riva se concluye que “la presencia siempre está mediada por herramientas físicas (el cuerpo, dispositivos tecnológicos, etcétera) y conceptuales, que corresponden a una cultura determinada: la presencia “física” en un entorno, no es más “real” o más verdadera que la telepresencia o la inmersión en un ambiente virtual simulado.

El criterio de validez de la presencia no consiste en simplemente reproducir las condiciones de una presencia física (inmersión) sino en la construcción e entornos en los cuales los actores pueden funcionar de una forma ecológicamente válida; en línea con el énfasis que la aproximación ecológica coloca en la primacía de la acción en la percepción.

La acción no es emprendida por individuos aislados sino por miembros de una comunidad, que enfrenta situaciones ambiguas de una manera relativamente coordinada.

“Al final, podemos incluir en la investigación sobre la presencia un enfoque sociocultural que a) reconoce el carácter mediado de cada posible experiencia de la presencia; b) siempre considera la presencia como inmersa en un contexto social; c) destaca el componente de ambigüedad inherente  en situaciones cotidianas; d) enfatiza la función de confirmación que juega la cultura (artefactos y principios)” Y entonces “en este sentido experimentar la presencia requiere de la reproducción de funcionalidades físicas de la realidad externa; la posibilidad de interacción y acción libre, así como crear y compartir las redes culturales que le dan sentido –y que por tanto las hacen visibles– tanto personas como objetos que pueblan el ambiente”.

 

Anuncios

Alison McMahan: Narrativa interactiva en 3-D: esquemas de imágenes kinestésicas: cine/videojuegos/Realidad Virtual. Al otro lado del espejo: Documentación y análisis sobre los Ambientes Virtuales de Inmersión II.

Posted in ARTE, AUDIO, CINE, comunidades virtuales, Realidad Virtual, SOFTWARE with tags , , , , , , , , , on mayo 9, 2018 by zewx

cardboard-google

“La realidad virtual […] es un próximo paso natural para la proyección cinematográfica”.

A. McMahan

Ciudad de México, 9 de mayo 2018. Por Alfonso Esparza.

Las proyecciones del crecimiento del mercado de los equipos y contenidos de Realidad Virtual (VR) discurren conforme a lo pronosticado, se espera que para 2022 esta tecnología esté presente en millones de hogares en el mundo, según Forbes . La historia corre originada en un camino de mucha imaginación, alimentada por relatos de ciencia ficción en literatura y cine, y cuarenta años de investigación, experimentación ensayo de prototipos, y al final, cañonazos de miles de millones de dólares. El año 2016 puede considerarse como la primera prueba del ácido para los primeros equipos listos para el mercado de consumo masivo, año en que las ventas de algún tipo de dispositivo VR alcanzó la línea psicológica del primer billón (mil millones) de dólares en ventas. Año de Oculus Rift, HTC-VIVE, los equipos de máxima inmersión, seguidos por productos de experiencias virtuales en video 360, en plataformas móviles como Samsung Gear VR, en consola con la Playstation VR de Sony, que en dos años han lanzado al mercado modelos económicos, eficientes y personalizables, y lo más importante, en términos de masa crítica, una multiplicación asombrosa de aplicaciones, que la hacen una previsible migración hacia la comunicación virtual en 3-D.

El abaratamiento, optimización y oferta de contenido, que hará de esta plataforma el siguiente paradigma en la comunicación mediada por computadora, el salto de la pantalla plana 2-D a la interfaz 3-D interactiva con usabilidad-interactividad en primera persona, y en ello tiene que ver el pronunciamiento del gran capital de la industria tecnológica, y una piedra angular fue la compra de Oculus por Facebook, en 2 mil millones de dólares, inversiones habituadas a retornos de inversión ultrarrápidas, basadas en estrategias virales de rápida penetración-aceptación con un fuerte componente de ludopatía altamente sensorial-emocional, con un lenguaje en el que la habitabilidad-navegabilidad-jugabilidad se nutre y retroalimenta el sistema de sensores de rastreo correspondiente a la motricidad táctil-háptica* y la identidad psicológica con el yo-virtual encarnado en un avatar.

haptic* Táctil-háptica: sistema de retroalimentación con periféricos táctiles como guantes y trajes de neopreno con sensores y dispositivos de rastreo que arrojan datos sobre los movimientos corporales y de resistencia muscular por parte de la representación de la mano o del cuerpo mediante un avatar particularmente al manipular objetos 3-D y/o interactuar con ambientes virtuales.

La escritora e investigadora Alison McMahan, productora de nuevos medios, presidenta de Homunculus Productions, es pionera en la escritura en plataforma transmedia, ha dedicado parte de su labor al estudio de los lenguajes emergentes de los discursos postcinematográficos, los videojuegos, mapas interactivos geolocalizados, que ahora despliegan sus ramificaciones narrativas y genéricas hacia los códigos audiovisuales inscritos en la experiencia virtual de inmersión, la ruptura de la linealidad espaciotemporal-diegética y la mutación del yo y del estar allí, mediante la encarnación de los paradigmas diegéticos: el “tirador” en primera persona, el avatar y el “fantasma”, que en sus relaciones actanciales interactúan modificando la trama, con otros caracteres-personajes, sean representaciones de humanos, entes de IA, objetos y entornos virtuales.

Al revisar unos cuantos textos de su vasta producción ensayística, encontramos en Immersion, Engagement, and Presence. A method for analyzing 3-D Video Games (2003); Cognitive Schemata and Virtual Reality (2005), y The effect of multiform narrative on subjectivity (1999) puntos culminantes del trabajo de la doctora McMahon, en una iniciativa para referencial estudios seminales en distintas disciplinas, como elementos de discusión que abonan a la conceptualización de componentes clave en el conocimiento de estas tecnologías y sus múltiples implicaciones y consecuencias.

La vigencia de estos planteamientos, desarrollados y enriquecidos en dos décadas de debate con la emergencia del cross over y transmedia storytelling, que permiten los meta-universos en la heurística del código de la línea de comando en la deconstrucción hermenéutica de la interfaz 3-D.

La interacción como experiencia narratológica Espacial

Este panorama de desarrollo tecnológico, arranca a mediados de los años 60 del siglo pasado, con prototipos de interfaz tridimensional en pantallas bidimensionales, con periféricos que han mutado desde el cursor (mouse), la pluma electrónica, hasta las ultrasensibles pantallas multitáctiles de hoy de smartphones y tablets a muros electrónicos, siempre en la representación poligonal de perspectiva 3-D, que señala un desarrollo acelerado por el resto del siglo, en el que, en este punto de desarrollo, facilitada por el acceso a equipos cada vez más baratos, y la diversidad en la oferta de productos, de ficción y no ficción, para el conocimiento y el entretenimiento, y el desarrollo de aplicaciones en prácticamente cualquier campo, comercial, académico, social.

Los usuarios más exigentes, como los artistas, consideran que es apenas la edad de piedra (artículo de The New York Times): hacia una explosión de imaginería tridimensional manipulable en Realidad Virtual/Realidad Aumentada/Realidad Mixta/extendida y Holográfica, con dispositivos de progresiva factibilidad ergonómica y eficacia técnica que alcanzará su madurez en una década, con el arte en el diseño industrial, del esperable tsunami de marketing para la compra por impulso y contagiosa, panorámica que ha sido paralelamente objeto de estudio y análisis en sus dimensiones tecnológico-comunicativas, sociales, neuropsicológicas, en un creciente y especializado campo de investigación transdisciplinario, que sienta sus precedentes en las culturas de masas, señaladamente el cine y los videojuegos, y ahora los medios electrónicos interactivos de inmersión, con una narrativa multidisruptiva, en la que el usuario participa desde capas sensomotrices, cognitivas y volitivas “en-tiempo-real”, que definen el curso de las tramas posibles del universo de la historia, con posibilidades múltiples aleatorias en el curso factible, en algunos esquemas y programadas en otros.

En el curso de sus trabajos, McMahan ha contribuido paralelamente con la catalogación de las producciones que han marcado hitos en la historia de los videojuegos, con propuestas alternativas en la realización y co-realización de la narrativa eminentemente interactiva, protagónica, multilineal, arborescente, que abreva de los vocabularios cinematográficos, y alimenta el discurso de los entornos digitales 3-D propios de la realidad virtual, sobre todo la de máxima inmersión, como los modelos CAVE* y HMD (Head Mounted Display).

* El Sistema CAVE (Computer Automated Virtual Environment), diseñado por Josephine Anstey y Dave Pape.

Morfología y semántica de la Realidad Virtual: Inmersión

Alison McMahan parte de la definición del concepto de inmersión expuesto por su colega, Janet Murray (que veremos próximamente), que lo describe como:

“… Un término metafórico derivado de la experiencia física de ser sumergido en agua. Buscamos la misma sensación de una experiencia psicológicamente inmersiva de una zambullida en el océano o alberca: la sensación de hundirse en una realidad completamente distinta, tan diferente como el agua es del aire, que captura totalmente nuestra atención, todo nuestro aparato perceptual… en un medio participativo. La inmersión implica aprender a nadar, hacer las cosas que el nuevo entorno hace posible. El disfrute de la inmersión como una actividad participativa”. (Murray, Janet. Hamlet on the Holodeck: The Future of Narrative in Cyberspace (Cambridge, MA: The MIT Press, 1997), 98-99.)

En este plano son tres las condiciones para crear una sensación de inmersión en realidad virtual o en un videojuego de computadora en 3-D:

1) Las expectativas del usuario del juego o del ambiente virtual deberá coincidir muy de cerca con las convenciones del entorno; 2) las acciones del usuario deben tener un impacto no trivial en el entorno, y 3) las convenciones del mundo deben ser consistentes, incluso si no coinciden con el “metaespacio”.

En el entorno tridimensional propio de los videojuegos, cuando un jugador se involucra a un grado cercano a la obsesión, algunas veces es referido como un “juego profundo”

De acuerdo con Diane Carr, citada por McMahan, el término “juego profundo”, como se utiliza en las revistas de videojuegos, se refiere a

“un jugador que accede/acumula capas de significado que tiene un valor estratégico como en el contexto de un juego de tablero de “mazmorras y dragones” (Dungeons and Dragons), significaría conocer, por ejemplo, todos los monstruos y diferentes escuelas de magia, mientras que un estilo “superficial” de juego significaría correr y encontrar atajos”.*

*(Cinema/videogames/interfaces, revista ScreenPlay, London: Wallflower Press, 2002)

Como destaca Mark J. P. Wolf,

“la mayoría de los juegos en 3-D representa su espacio navegable utilizando las convenciones de la cinematografía clásica de Hollywood, hasta cierto grado, al menos. La diferencia, por supuesto, es que estos espacios son navegables; tiradores en primera persona y juegos en realidad virtual, por ejemplo, “proporcionan jugadores con una exploración espacial sin rupturas, permitiéndoles paneo, inclinación, rastreo y riel a través del espacio, el cual usualmente es presentado en perspectiva visual en primera persona y es navegable en tiempo real”.*

*(Wolf, Mark J. P. The Medium of the Video Game, Austin: University of Texas Press, 2001, p. 66).

Wireframe es el término utilizado para el contorno de objetos que son destacados, pero sin rellenarse los planos. Es aún una forma aceptable de representar la realidad virtual, tal y como se utiliza en películas como El Piso Trece  (The Thirteenth Floor, Josef Rusnak, 1998). El primer juego que utilizó 3-D basada en gráficos poligonales fue I, Robot, diseñado por Dave Theurer (1983).

El investigador Jeffrey Jacobson argumenta que

“los sistemas más sofisticados de presentación visual ahora se encuentran no en maquinaria científica especializada sino en las tarjetas de PC que cuestan 500 dólares. Las simulaciones interactivas sensibles más sofisticadas están ahora en los motores para dar energía a los juegos de computadora”. *

*(Michael Lewis y Jeffrey Jacobson, “Game Engines in Scientific Research” (Special Issue: Game Engines in Scientific Research), Communications of the ACM45, No. 1, 2002, p. 27.)

Presencia, telepresencia y teletransporte

Se explica que la presencia en esta pista narrativa se relaciona estrechamente con el fenómeno de atribución o externalización, que se asimila con la referenciación de las percepciones a un espacio externo, más allá de los límites de los órganos sensibles mismos.

Más aún cuando la percepción es mediada por una tecnología de comunicación, se es forzado a percibir dos ambientes separados simultáneamente: el entorno físico en el que se está presente, y el entorno presentado por el medio.

“En esta lógica telepresencia es el alcance al cual se siente el presente en el ambiente mediado, en lugar del entorno físico inmediato la telepresencia es definida como la experiencia de la presencia en un ambiente a través de un medio de comunicación, en otras palabras, “presencia” se refiere a la percepción natural de un ambiente, y “telepresencia” se refiere a la percepción mediada de un ambiente. Este puede ser tanto un ambiente “real”, temporal y espacialmente distante (por ejemplo un espacio visualizado a través de una videocámara) o un mundo virtual animado pero inexistente sintetizado por una computadora (por ejemplo un “mundo” animado creado en un videojuego)”. *

* (Steuer, Jonathan. “Defining Virtual Reality: Dimensions Determining Telepresence,” journal of Communication, 42, No. 4, 1992, pp. 73-93.)

La presencia como resultado de una combinación de todos o algunos de los siguientes factores: calidad de la interacción social; realismo en el ambiente (gráficos, sonidos, etcétera), del efecto de “transportación”, del grado de “inmersividad” generada por la interfaz, de la habilidad del usuario para la inmersión, involucramiento y presencia, logrando acción significativa con el ambiente e impacto social de lo que ocurra en el mismo, y de los usuarios respondiendo a la computadora misma como un agente social e inteligente.

McMahan hace alusión en una amplia nota al trabajo y definiciones conceptuales de Michael Heim, uno de los especialistas académicos pioneros en el tema y una de las voces más respetadas vigentes, definió en “La esencia de la Realidad Virtual” que

“La VR es un evento o entidad que es real en efecto pero no de hecho. El público sabe que al VR es una tecnología sintética que combina video 3-D, audio y otros componentes sensoriales para lograr una sensación de inmersión en un entorno interactivo generado por computadora”. De acuerdo con Heim existen siete elementos en la VR: simulación, interacción, artificialidad, inmersión, telepresencia, inmersión de cuerpo entero y comunicaciones en red.

Las discusiones sobre el realismo social frecuentemente se enfocan en el uso de avatares (representaciones textuales o gráficas de usuarios que incluyen un carácter diseñado para insertarse en un ambiente de ficción, que se completa con un conjunto de rasgos de personalidad, habilidades y estado de salud).

El realismo se subdivide en realismo social (el alcance de en el cual las interacciones sociales en el Entorno de Realidad Virtual corresponden con las interacciones en el mundo real y realismo perceptual (qué tan bien representados están los objetos, ambientes y eventos representados comparados con los existentes).

La investigación de Clive Fencott se enfoca en el realismo perceptual necesario para generar una sensación de presencia en el ambiente virtual. De acuerdo con él, “la presencia es un estado mental, por lo cual es el resultado directo de la percepción, no de la sensación. En otras palabras, las construcciones mentales que las personas edifican a partir de los estímulos, son más importantes que los estímulos en sí”.

Lombard y Ditton atribuyen a la transportación que con “sistemas de telepresencia se utilizan señales de video y gráficos de computadora para ubicar al usuario en una locación remota inaccesible” (Bolter y Grusin, Remediation, 214.)

Un concepto elaborado de presencia también puede ayudar a quienes trabajan con VR, videojuegos y diseño interactivo instruccional y desarrollar un vocabulario común y aprender uno de otro.

McMahan alude también al trabajo de John Laird, al comparar las posibilidades de la investigación de Inteligencia Artificial en robótica y tiradores en primera persona, prefiere estos últimos:

“los entornos simulados virtuales hace posible superar muchos de estos problemas, y en tanto preserva para una toma de decisiones e interacción inteligente en tiempo real, los videojuegos ofrecen una fuente de tecnología barata, confiable, flexible, para desarrollar un entorno virtual propio para investigar”. *

*(Laird, John E. “Research in Human-Level AI Using Computer Games“, Communications of the ACM 45, No. 1, January 2002, p. 32.)

La doctora McMahan apunta que los juegos de tiradores en primera persona y editores de juegos son utilizados en la investigación de realidad virtual porque promete un alto grado de “inmersividad”,  involucramiento y presencia en un formato manejable y accesible para un usuario común.

Foto-Realismo y simulación

Por simulación Heim quiere decir la tendencia en ciertos tipos de aplicaciones de VR que tratan de acercarse a la técnica foto-realista, utilizando gráficos o fotografías, e incluso sonido envolvente con un impulso hacia el “realismo”. Heim apunta que se cree que cualquier interacción mediada por una máquina es virtual (incluyendo las llamadas telefónicas con personas desconocidas). Por artificialidad, Heim se refiere a lo que otros académicos como Cubitt apuntan como simulación; en otras palabras, un ambiente con posibilidades de acción (un mundo) que es un constructo humano. Este puede ser mental, como los mapas mentales de los aborígenes australianos, o construidos, como VR en 3-D. Para Heim, inmersión se refiere al objetivo de la tecnología VR de “separar las sensaciones visuales y auditivas del mundo real y remplazarlas con sensaciones generadas por computadora”. A la inmersión de cuerpo completo Heim lo llama Proyección VR, siguiendo a Myron Krueger, y es definido como “Ambientes interactivos en los que el usuario se desplaza sin equipo que estorbe (como un HMD) la Proyección VR requiere más suspensión de la incredulidad en la parte del usuario.

Heim hace la distinción entre VR y telepresencia: la realidad virtual se proyecta en la telepresencia cuando se lleva la efectividad humana a una locación distante, por ejemplo, utilizando robótica. Para las comunicaciones en red, Heim sigue la definición de Jason Lanier: un mundo virtual es un constructo compartido, Una RB2 (Realidad Construida para Dos), la comunicación con otros es esencial en un ambiente; las redes de comunidades en línea incorpora fuertemente este elemento de VR. Heim integra los siete elementos en una nueva definición de VR: Una simulación artificial puede ofrecer a los usuarios una experiencia interactiva de telepresencia en una red que les permita sentirse inmersos en un ambiente de comunicaciones”.

Esquematismos Cognitivos y Realidad Virtual

Otro de los trabajos de gran calado firmado por Alison McMahan con Warren Buckland se acerca a una perspectiva de las neurociencias para explicar los procesos psicológicos, cognitivos, en la fisiología neuronal de la percepción y la experiencia de la realidad y la ficción. En este ensayo Buckland argumenta que son necesarios dos niveles de verosimilitud para que una ficción sea percibida como ficción: los espectadores deben “asumir un actitud de credulidad hacia los eventos de la ficción… y a las relaciones perceptuales que establecen hacia esos eventos”. *

* (Buckland, Warren. “Orientation in Film Space: A Cognitive Semiotic Approach” in Recherches en communication, 19 (2003), p. 89

Se refiere a la Tesis Participativa, o a la Hipótesis Observador Imaginario (IOH, por sus siglas en inglés), que establece que para comprender un filme y no involucrarse emocionalmente, los espectadores imaginan que son un observador que está “dentro” de la ficción”.

Dos tipos de espacios a los que se refiere Buckland son el espacio real y su representación cognitiva –espacio imaginativo. Existen tres clases de orientación: absoluta, intrínseca y contextual.

En sus argumentos y hallazgos Buckland se refiere a su vez al semántico cognitivo, George Lakoff, quien ha postulado una serie de Esquemas de Imágenes Kinestésicas, que estructura las entradas perceptuales en experiencias.

Directamente desde las capacidades innatas sensomotrices del cuerpo…

Los Esquemas de Imagen Kinestésica representan al cuerpo en la mente y se colocan como cognitivamente reales porque están directamente motivados en significados que son directamente motivados o no arbitrarios e inherentemente significativos.

La estructura de nuestra experiencia corporal compartida se convierte entonces en la base para el pensamiento racional abstracto por medio de esquemas basados en imágenes y estrategias creativas como la metáfora y la metonimia, que proyecta y extiende esta estructura desde el dominio físico hacia el dominio abstracto de los conceptos.

El esquema del contenedor, que estructura nuestra conciencia fundamental sobre nuestros cuerpos, se basa en elementos “interiores”, “límites” y “exterior”. En términos de extensión metafórica, Lakoff nota que el campo visual es comúnmente concebido como contenedor, desde que las cosas “entran” y “salen” de la vista.

La pantalla plana 2-D del cine en un habitáculo  de 6 paredes o un casco de VR se convierte en una pantalla-como-contenedor; y dentro del contenedor físico existe una multiplicidad de contenedores gráficamente representados, dentro de los cuales tiene lugar la acción del juego o ambiente virtual.

Lakoff refiere del concepto de un esquema como “vínculo”, plantea que los humanos nacen vinculados a sus madres a través del cordón umbilical, y continúa relacionado a través de la familia durante la infancia y niñez en un esquema de vínculo social.

El esquema parte-todo se alinea cerca del esquema de vínculo, desde que la colección de las partes solo pueden ser percibidas como un todo si las partes se vinculan juntas coherentemente. En las tecnologías de inmersión el esquema vinculante es casi siempre aplicable a la interfaz. Es en la interfaz (usualmente consistente en pantallas, visores, guante) que permite al usuario puentear la distancia entre una realidad virtual de “carnespacio” a una realidad virtual del “ciberespacio”.

El esquema Centro-Periferia es similar al esquema parte-todo en que se base en la conciencia de nuestros cuerpos teniendo centros (el tronco y los órganos internos) y periféricos (extremidades, cabello, etcétera). El centro gana su importancia del hecho básico de la preservación del cuerpo es más importante a la supervivencia que los periféricos.

Los niveles de focalización y del esquema centro-periferia empatan naturalmente. Niveles focalizados de narración enfatizan la experiencia directa de los eventos por parte del personaje. La perspectiva exocéntrica de la VR es análoga a la “focalización externa” en cine, y lo egocéntrico embona la “(superficie de) focalización interna”.

Sin embargo, la focalización en narrativa interactiva tiene una capa adicional de complejidad; primero está el usuario mismo, un cuerpo real en un espacio real, pero vinculado al espacio imaginario directamente por la interfaz. Por ejemplo, en una experiencia típica de CAVE, la persona usa las gafas que dictan la perspectiva y orientación de la imagen de la imagen de otras personas con gafas que se encuentran cerca pero que no están conectadas al sistema. La persona del “casco” tiene a su vez un control para conducir el desplazamiento por los espacios.

Ninguna persona tiene exactamente la misma perspectiva que los otros. Entonces allí está el avatar. Puede ser un avatar visible al que se refiere el usuario  exocéntricamente (como todos los otros juegos de visión “sobre-el-hombro” como las series de Tomb Rider en los que el usuario está siempre un paso adelante del avatar) o, como es más común en CAVE VR, egocéntricamente.

Las configuraciones comunes de los avatares por defecto en CAVE VR, es una “estatura” de 6 pies y la anchura de la cabeza de 2 pies. Otro ambientes virtuales como NICE, aunque siempre egocéntrica, permite al usuario tener un vistazo de su avatar; en NICE esto sucede cuando el usuario mira su reflejo en un estanque. (Sherman, William R. y Craig, Alan B. Understanding Virtual Reality: Interface, Application and Design. Morgan Kaufman Publishers: Amsterdam, 2003, p. 466).

Narrativa multiforme, multilineal, multijugador

Muchos investigadores de VR se enfocan en el efecto de variación de grados de control (agency*) y antropomorfismo en la sensación de presencia del usuario.  Kristine L. Nowak y Frank Biocca obtuvieron resultados sorprendentes al descubrir en un experimento que la variación del nivel de antropomorfismo en la imagen de los interactuantes, las personas responden de la misma manera a los agentes independientemente de que éstos fueran controlados por un humano o una computadora, probando que si actúa como humano, el usuario se relaciona con este como con un humano.

*agency: término adscrito a las capacidades de control sobre objetos y ambiente que tienen los distintos agentes de la narrativa.

Los usuarios que probaron la aplicación con avatares de imagen menos antropomórfica (ojos y boca flotantes en el espacio) reportaron un sentido de co-presencia y presencia social más alto que quienes interactuaron con avatares sin imagen alguna y quienes interactuaron con imágenes altamente antropomórficas (los investigadores concluyeron que esto creó expectativas más altas que llevaron a una presencia reducida cuando las expectativas no se completaron).

En su artículo El efecto de narrativa multiforme en la subjetividad (2014), The effect of multiform narrative on subjectivity, Alison McMahan se refiere nuevamente al lenguaje de los juegos en computadora, particularmente a las plataformas multiusuario en línea, como los  Multi-User Domains (MUDs), Object-Oriented MUDs (MOOs) y hasta salas virtuales de conversación, han llevado a nuevos modos de subjetividad para caracteres y espectadores por igual.

Comenta que en la teoría tradicional psicoanalítica del cine, la identificación del espectador ha sido definida como primaria (el espectador identifica con la cámara) o secundaria (identificación con el personaje). La ficción interactiva ha llevado al espectador a una situación en la cual múltiples identificaciones operan simultáneamente. Adicionalmente, el mundo diegético de la narrativa está infiltrado o abordado por el no-diegético, requiriendo diferentes tipos de reacción del espectador simultáneamente.

Una de las tramas multiformes más comunes utilizadas en las películas de ciencia ficción: la estructura paralela de trama. (Sawyer, Brian y Vourlis, John. Screenwriting structures for new media, Creative Screenwriting, vol. 2. no. 2 (1995), pp. 95-102.)

Una narrativa típicamente lineal conecta a los personajes causalmente relacionados con situaciones en estructuras de tres actos en una sola resolución. Las tramas multiformes, sin embargo, son usualmente conducidas por eventos; son no-lineales y al ser distribuidas por un sistema visual interactivo, como un juego en CD-ROM, requiere una respuesta física de los espectadores.

Las tres tramas multiformes básicas son: estructura lineal con ramificación escénica (también llamada la rama ‘cul-de-sac’); la trama explosiva de ramificación jerárquica y la estructura de trama paralela.

La habilidad del narrador, sea convencional o interactivo, “recae en la habilidad de sugerir un futuro abierto en cada punto de la narrativa, mientras por supuesto de antemano se ha planeado o “programado” el progreso o resolución. (Elsaesser, Thomas. Cinema Futures: Cain. Abel or Cable? The Screen Arts in the Digital Age (Amsterdam: Amsterdam University Press, 1998).)

El usuario puede participar al dar forma a la historia. Significa, simplemente, que tiene más opciones de cómo recibirla. El remitente real (o autor) sigue siendo el narrador del texto, localizado en el mundo real, el lector. El Narrador es parte del mundo textual y comunica una narrativa con otro miembro del mundo textual, el llamado Narrado. (Ryan, Marie-Laure, “Narrator”, en Encyclopedia of Contemporary Literary Theory: Approaches. Scholars, Terms (Toronto: University of Toronto Press, 1994). p. 601.)

Los narrados pueden ser individuos o entidades colectivas. Los narrados individuales participan en la trama de la misma manera en que lo hacen los narradores individuales: como testigos no participativos, personajes secundarios o protagonistas principales… Cuando el texto es dirigido a una colectividad, el narrado se construye como un conjunto de creencias presupuestas por el texto.

Definición de cyborgs en dos partes: primero, una entidad que es mitad humana y mitad máquina, y segundo, organismos en red o cibernéticos, como los seres humanos que se vinculan por medio de internet con otros sistemas de comunicación, que cooperan para resolver problemas sociales urgentes de nuevas formas.

Semiótica y cognición: El cuerpo en la mente y en el ambiente virtual.

En su ensayo “Semiótica cognitiva de la Realidad Virtual” (The Cognitive Semiotics of Virtual Reality), la mancuerna de la doctora Alison McMahan y su colega  Warren Buckland, profundizan en el análisis de la experiencia sensorial y cognitiva en la incursión de entornos virtuales.

La Tesis Participativa de la Hipótesis de Observador Imaginario (IOH) establece que para comprender el cine y conectarse emocionalmente, los espectadores deben imaginar que son observadores “dentro de la ficción”.

Los dos tipos de espacios a los que se refiere Buckland son el espacio real y su representación cognitiva –espacio imaginario.

Según el autor existen tres tipos de orientación espacial: 1) absoluta (puntos cardinales: norte, sur, este, oeste), que permiten 2) intrínseca, originada en las propiedades de los objetos (como la simetría, por ejemplo), y su marco de referencia en un espacio tridimensional, (arriba, abajo, izquierda, derecho, al frente y atrás), y 3) contextual, con marco de referencia de dos puntos relativos

El Esquema de Imagen Kinestésica representa el “cuerpo en la mente” y se despliegan cognitivamente reales porque están directamente motivadas como no arbitrarias e inherentemente significativas.

Son estructuras simples que emergen del cuerpo –de arriba hacia abajo; de atrás hacia adelante; del centro a la periferia; de la parte al todo; de dentro hacia afuera, patrones, vínculos, fuerzas, y demás.

La relación de estos esquemas con el lenguaje cinematográfico, Buckland aplica el esquema de contenedor al cuadro fílmico y diégesis (el mundo de la historia de la película). Para argumentar que el cuadro y diégesis son entendidos en términos de un esquema de imagen kinestésica para sugerir que son comprehendidas en términos de nuestras experiencias en nuestros contenedores corporales.

Realidad fílmica:

  • Realidad afílmica (la realidad que existe independientemente de la realidad fílmica).
  • Realidad profílmica (la realidad fotografiada por la cámara).
  • Realidad filmográfica (la película como objeto físico, estructurado por técnicas como la edición).
  • Realidad en pantalla (o filmopática) (la película como se proyecta en la pantalla.
  • Realidad diegética (el mundo de la historia de ficción creada por la película
  • Realidad espectatorial (la percepción del espectador y comprehensión de la película).
  • Realidad creacional (la intencionalidad del cineasta. (Souriau, 1951, 231-240).

Mientras que las realidades afílmicas y profílmicas son extratextuales, los siguientes tres tipos de realidad fílmica son textuales y son estructurales en relación entre ellas en términos de esquema de contenedor: lo filmográfico contiene la realidad en pantalla y ésta a la diégesis. Los dos últimos niveles de realidad fílmica y cognitiva se refieren a la comprensión de la película por el espectador y la película concebida por el creador.

En los términos de Souriau, el cuadro existe en los niveles de la realidad filmográfica y en la pantalla, y sirve como un contenedor para la diégesis.

El espacio en-pantalla y fuera-de-pantalla son en sí mismos entendidos en términos de contenedor, en tanto que contienen la diégesis de la película, o mundo de la historia de ficción. De allí que l esquema de contenedor opera a dos niveles del film –el cuadro (que actúa como límite entre el espacio en-pantalla y fuera-de-pantalla) y la diégesis (la cual actúa como límite entre la ficción y no ficción).

La ficción virtual equivalente a lo que Souriau llamó realidad filmográfica (el film como objeto físico, estructurado por técnicas como la edición) es para los usuarios de la realidad virtual (y jugadores de videojuegos que utilizan tecnología de menor inmersión como consolas cautivos en aparatos de televisión y consolas) con un nivel de involucramiento en el mundo ficcional virtual.

El focalizador es un agente narrativo fundamental que actúa como mediador entre los eventos ficcionales y el espectador. Con la asistencia del focalizador, el espectador llega a orientarse contextual e intrínsecamente en el espacio ficticio.

La perspectiva exocéntrica de la VR es análoga a lo que entendemos por focalización externa en el cine, y lo egocéntrico coincide con la focalización interna (superficie). Sin embargo, la focalización en narrativa interactiva tiene una capa adicional de complejidad: primero está el usuario, un cuerpo real en un espacio extradiegético, pero vinculado a la diégesis directamente a través de la interfaz.

El auditorio es un contenedor que contiene la pantalla y el cuadro. El cuadro es un contenedor que contiene la diégesis, el mundo de la historia ficcional (personajes, escenas y acciones), que junto con el auditorio y el cuadro son contenedores de objetos; lo que contienen son sustancias contenedoras –el auditorio contiene la pantalla y cuadro (las realidades filmográfica y de pantalla); la pantalla y el cuadro contienen la diégesis y esta contiene al mundo de la historia ficcional.

Este esquema, directamente motivado por el cuerpo del espectador, es metafóricamente proyectado en la película por el espectador en su continua representación mental de cada espacio en la diégesis del film como un contenedor coherente.

Los ambientes de la realidad virtual inmersiva como el CAVE, una encarnación más literal de nuestra proyección del esquema de contenedor que en el cine. El sistema CAVE tiene cuartos de 3 x 3 x 3 m y permite a los espectadores realmente “caminar” a través del espacio. Con este modelo, alguien, como un arquitecto, que tiene un esquema mental de una habitación en su mente y quiere hacerla accesible a otros mediante Realidad Virtual o Internet, en lugar de tener que trasladarla a una pantalla 2-D de una película, a un espacio mental 3-D, como hace el espectador de cine, los usuarios de VR simplemente camina hacia el CAVE, enciende la computadora y se coloca las gafas de 3-D. En otras palabras lo que Souriau llamó el nivel de pantalla o cinematográfico de la realidad fílmica deja de ser una proyección mental kinestésica de los espectadores, sino un contenedor materializado en el cual el usuario está inmerso.

Te allí que la realidad virtual (al menos una VR con una perspectiva egocéntrica o fílmica) es un próximo paso natural para la proyección cinematográfica.

En sistemas poligonales como los utilizados en la mayoría de ambientes 3-D de realidad virtual, insto incluye un alto grado de detalle, escala, mapas de altura, texturas, colores, iluminación e indicaciones de profundidad.

La pantalla plana 2-D del cine en una cueva de 6 paredes o un casco de VR se convierte en una pantalla-como-contenedor; y dentro del contenedor físico existe una multiplicidad de contenedores gráficamente representados, dentro de los cuales tiene lugar la acción del juego o del ambiente virtual.

Comunidad de Makers: Machinima

Los tutoriales de Machinima motiva a los “machinanimadores”, necesitan elegir entre las convenciones visuales de tiradores en primera persona y el cine, a escoger las convenciones de la cinematografía. Para un cineasta esto se siente como una oportunidad perdida: lo que es más atractivo acerca de las posibilidades de Machinima es su promesa de escapar de las limitaciones del clásico lenguaje cinemático de Hollywood, justo como la promesa de la VR es escapar de las limitaciones de la pantalla 2-D.

Sin embargo, Machinima está aún en sus primeros días, utilizado primordialmente  para realizar cortometrajes que sirven de portafolio para animadores o para cortes de escena en videojuegos. Es seguro pronosticar que esta herramienta basada en comunidad, se amplía (como los motores de código libre se expanden en sus posibilidades comerciales) evolucionará en su propia forma de relacionar las partes con su todo.

 

 

 

 

Breve historia de la realidad virtual 1950-2016 (tercera parte)

Posted in CIENCIA Y TECNOLOGÍA, informática, Realidad Virtual, SOFTWARE, Uncategorized with tags , , , , on mayo 29, 2017 by zewx

eye-tracking

29 de mayo de 2017. El avance imparable en más velocidad y memoria en los equipos de cómputo en los años 80 del siglo XX sentó las bases para que los programadores y científicos desarrollaran software avanzado de visualización y para finales de esa década ya se disponía de estaciones de bajo costo generadoras de gráficos, con alta resolución y velocidad de procesamiento necesarios abrir el mercado en las computadoras personales y consolas de videojuegos, como puntas de lanza de la industria, dispositivos que también han construido al paso de las siguientes tres décadas la socialización de la interfaz interactiva y cultura estética que actualmente ha rebasado con mucho a las comunidades de gamers, con la decisiva expansión a otros segmentos del mercado, que ha permitido el flujo de inversiones para el lanzamiento en 2016 de diversos productos que han madurado durante décadas en los laboratorios científicos.

Hoy en día la realidad virtual se dirige a cambiar la manera en que interactuamos y controlamos las computadoras, aunque hasta el momento se desconoce su impacto a largo plazo: si la RV estará en hogares, escuelas y trabajos, si la inmersión personal será la forma en que se verán las películas y el video en general, y se experimentará la música, el arte, con una cantidad indefinida de aplicaciones posibles en diversas áreas del conocimiento y la dinámica socioeconómica.

Lo único que se sabe cabalmente de esta plataforma es que crecerá su uso en los próximos años, y al mejorar y abaratarse los productos de hardware, software, y por tanto la variedad de contenidos, probablemente cada vez tendrá más presencia en diferentes aspectos de nuestras vidas cotidianas, y el único límite es la imaginación.

No puede soslayarse la necesidad de un análisis crítico sobre los efectos que tendrá en el mediano y largo plazo en la percepción y configuración neuronal, y en la información que los sistemas obtendrán de la interacción humano-máquina, que abre una importante interrogante en la privacidad por los usos que se den a los datos obtenidos de las emociones y reacciones derivadas de la exposición a estas tecnologías.

Breve historia de la realidad virtual 1950-2016 (primera parte)

Posted in CIENCIA Y TECNOLOGÍA, Realidad Virtual, SOFTWARE with tags , , , on febrero 2, 2017 by zewx

por z kevorkianthl9uyjpbx

Introducción

La millonaria inyección de capital en el desarrollo de la Realidad Virtual (VR por sus siglas en ingés) permitió que 2016 fuera el año de la presentación en sociedad de los dispositivos para el mercado de consumo, como el Oculus Rift, Vive/Valve, Playstation VR Sony y Samsung gear VR, Google daydream, pero hay muchos otros visores que confirmaron los pronósticos de la agencia especializada Deloitte Global en el sentido de que la RV vendería sus primeros mil millones de dólares en 2016, con $700 millones en ventas de hardware y el resto en contenidos. Se espera desarrollo de múltiples aplicaciones para empresas y consumidores pero en la mayor parte de la actividad comercial se enfoca en videojuegos. Se estiman ventas de alrededor de 2.5 millones de headsets y 10 millones de juegos vendidos.

visor-1Una vez que salieron al mercado inició la consabida carrera por el abaratamiento y mejoramiento de los aparatos, y aunque siguen siendo poco accesibles para el consumo masivo, en poco tiempo (estimado de 3 años) podría asegurarse que cada casa tendrá al menos uno de estos poderosos transportadores a una infinidad de aplicaciones de mundos virtuales, que hoy se acomoda en el perfil de los videojuegos pero que tendrá un fuerte impacto en la generación de contenidos de todo tipo, desde el entretenimiento hasta la educación.

Pero hay múltiples preocupaciones que atosigan a los propios desarrolladores y especialistas, por los cambios a nivel ontológico y psicológico que conlleva el uso las tecnologías de inmersión, las nuevas narrativas y posibilidades a la vuelta de la esquina, pero sobre todo inquieta el efecto físico-sensorial de la inmersión, llamado “motion sickness”, kinetosis, es decir el mareo que se experimenta, y que para muchos es intenso, pero también debe ponerse máxima atención a las consecuencias del escaneo y registro de los gestos y emociones del usuario, oro molido para los demiurgos del marketing y grave tema para la privacidad de las personas.

Este artículo, en varias entregas, se propone explorar los orígenes tecnológicos de la Realidad Virtual, y aunque se trata de una tecnología desarrollada en las últimas décadas, sus raíces antropológicas podrían rastrearse hasta el corazón mismo de la imaginación del ser humano en la creación de realidades alternas, que podría remontarse hasta las cuevas de Altamira.

Pioneros y mavericks. Los años 50.

od-bj507_vrfilm_fr_20160303125122En los años 50 del siglo XX se observa una confluencia de las telecomunicaciones con las tecnologías para la generación de gráficos por computadora, escenario propicio en que personajes como el ingeniero en radares de EUA, Douglas Engelbart, propusieran convertir los lenguajes informáticos en representaciones gráficas, como herramientas para la visualización digital, ideas ignoradas en los años 50 pero que en la siguiente década se socializaron y empezaron a construirse.

Al hacerse accesibles las primeras computadoras basadas en transistores en lugar de bulbos se creó la sinergia necesaria para la fabricación de equipos cada vez más amigables, hasta la llegada de las computadoras personales cuando se allanó intensamente el camino para un uso amplio y desarrollo indetenible de aplicaciones y procesadores más eficientes de gráficos generados por computadora, 2D, modelado 3D, animación y más tarde la conjunción de tecnologías que dieron lugar al desarrollo de la realidad virtual.

Los radares para sistemas de defensa fueron los primeros simuladores de datos en “tiempo real”.

Diseñadores y científicos trabajaron aceleradamente en modelos avanzados de modelado por computadora para expresar múltiples conjuntos de datos como imágenes y simulaciones.1_ianfewyzisge2lzahrdata

En 1962 Ivan Sutherland desarrolló una pluma de luz con imágenes trazadas en una computadora y creó el primer programa de diseño, el Sketchpad, y abrió el camino para que los diseñadores industriales crearan modelos y planos de automóviles, ciudades y productos industriales diversos.

Uno de los antecesores más influyentes de la realidad virtual fueron los simuladores de vuelo en las postrimerías de la segunda guerra mundial y hasta los años 90. Proceso en el cual los complejos militares e industriales destinaron millones de dólares al desarrollo de tecnología aeronáutica para simular los vuelos de aviones y después tanques y buques, sumándose a la tendencia de desarrollo tecnológico de origen militar.

Derecho a la información y brecha tecnológica / 1

Posted in CIENCIA Y TECNOLOGÍA, CULTURA, SOFTWARE with tags , , , , on diciembre 9, 2011 by zewx

Uno de los principales argumentos que han acompañado al desarrollo de las tecnologías de información y comunicación (TIC) plantea que se trata de un instrumento paradigmático, clave para la conformación la sociedad del conocimiento, previo paso por la sociedad de la información, que vendría gestándose desde hace varias décadas, desde que la computadora se hizo personal. En contraste con este supuesto casi místico, la retórica filotecnológica no aplica para los países atrasados y con serios rezagos en la distribución de la riqueza, con mucha pobreza y poca educación, como México.

De esta dialéctica entre los deseable y lo posible, más que una oportunidad histórica de cambio y avance social cuyo único parangón sería la invención de la imprenta, significa una circunstancia paradójica –por decir lo menos, sin ser alarmistas–, si concedemos algún crédito a quienes hace una década decían con optimismo que los países emergentes tenían la disyuntiva de aprovechar sólo lo mejor y más avanzado de la experiencia de prueba-error de las naciones desarrolladas en desarrollo tecnológico.

A diez años de distancia, estos postulados distan mucho de asemejarse a la realidad, cuando en los países “emergentes”, algunos como la India llevaron este potencial a su mejor expresión, pero en otros la brecha se aprecia más compleja y profunda, al adoptarse de una manera desproporcionada las peores prácticas en el aprovechamiento de las TIC –en primer lugar falta de políticas públicas y programas nacionales de alfabetización digital–, que hoy campean en los usos generalizados de individuos y organizaciones que –con emblemáticas excepciones–, precisamente nos dan parámetros observables para la reflexión académica transdisciplinaria.

A manera de introducción de una serie de piezas editoriales pensadas para motivar la discusión y el diálogo de estos importantes temas, en muchos sentidos estratégicos para el desarrollo de los modelos de conocimiento implicados en la adopción de las TIC, en  permanente transformación, proponemos algunos elementos que ayuden a perfilar un análisis colectivo.

 

La democratización de los medios de comunicación en las redes electrónicas, y la llamada “revolución digital” en el ámbito de una cultura globalizada, partiría de un axioma dual: libre acceso a la información, que requiere de dos condiciones para cumplirse: que la información esté disponible sin restricciones, y que el usuario cuente con los medios para obtenerla. Sin embargo en el origen de la ecuación está su contradicción, al obviar el uso de las comunicaciones mediadas por computadora, en el proceso acelerado de fusión de las computadoras y las telecomunicaciones, que incluso sorprendió mal parado al propio Bill Gates, que en un principio no creyó en Internet y después enmendó su error con su famoso libro La supercarretera de la información y las inversiones trogloditas para lanzar Explorer, al comprender el inconmensurable potencial económico del ciberespacio.

Según los apólogos de la Nueva Economía, editores de publicaciones emblemáticas como Wired, como el autor del libro Out of control, Kevin Kelly, que advirtieron que las grandes transformaciones serían inevitables, imparables, incluso violentas (Alvin Toffler en Cambio de poder) pero que a la larga harían del ciudadano común un ser más propenso a ser inteligente, lector y productor en potencia de conocimientos, con un acceso libre a la información, ergo, al conocimiento, con una serie de artefactos y servicios “inteligentes”, desde hogares automatizados hasta banca electrónica, donde el teléfono celular transitaría de la simple telecomunicación móvil, a ser una especie de control remoto de nuestras vidas digitales, hoy conceptos que deben revisarse, por supuesto, en tanto que su aplicación, aunque el futuro nos alcance a cada segundo, dista mucho de ser homogénea, e impone una brecha económica y cultural aún más formidable que la que nos tenía encerrados en el “tercer mundo”.

La industria está de plácemes dispuesta a hacer negocios multimillonarios basados en un nuevo y “definitivo” auge en la masificación de la computadora, ahora anidada en dispositivos de telecomunicación personal de banda ancha. Las millonarias ganancias se siguen basando, por un lado, en la obsolescencia planificada, una práctica de filosofía empresarial heredada y mejorada de la era industrial de los electrodomésticos, exportada ahora a las industrias del hardware y software de computadoras y dispositivos móviles, con una cadena productiva que no tiene fin, al contrario, se beneficia de la sustitución de aparatos que caducan por la emergencia de nuevos modelos, fetichizados en agresivas campañas de mercadotecnia viral, independientemente de que los productos sean de muy buena, mediana y hasta mala calidad, porque ante la velocidad de la cadena de producción, no hay lugar ni tiempo para la crítica. Esta práctica de mercado abarca la producción de software comercial, que “corre” de forma simbiótica en la categoría propietaria de los derechos y licencias de uso, que el consumidor final desconoce y no tiene otro remedio que aceptar.

En el curso se ha integrado un impresionante mercado compartido entre tecnologías digitales personales y corporativas y las telecomunicaciones de última generación 3G-4G (desde la variedad de iPhones y iPads en la historia reciente de Apple, hasta la malhadada leyenda negra del Windows Vista), ya que hay poca oportunidad para la crítica especializada oportuna, antes de la adopción masiva, a veces tensada hasta la histeria colectiva, en la estampida fanática de cada lanzamiento, desde Beijing hasta Los Angeles (1).

Internet: vástago rebelde y amorfo de la posmodernidad.

Con más de sesenta años de historia del cómputo en México, la globalización trajo consigo a un hijo prodigioso pero rebelde, llamado Internet, creado en los sótanos militares de la “guerra fría”, finalmente presentado en sociedad en los años 70 del siglo pasado, se lo fueron apropiando, primero los científicos académicos, luego las tribus tecnófilas posthippies, y finalmente los adolescentes del milenio, en un no tan largo proceso de socialización, que debe mucho a la comunidad hacker original, que también se ha transformado sustancialmente en el camino; algunos mantuvieron su espíritu libertario de altruismo radical, y que hoy son responsables tanto de la filosofía y logros del software libre, como de intrusiones a sistemas informáticos en nombre de las más diversas causas y banderas, y hasta creadores de virus y malaware.

Muchos otros se mudaron de la noche a la mañana de lóbregos cuartuchos de cocheras y azoteas, a los edificios futuristas del “valle del silicio”, con tantos millones de dólares en cada bolsillo como para fundar imperios multinacionales y decidir en parte la ruta de esta voraz entelequia llamada cibrespacio, en el cual habitan hoy en día 2 mil millones de personas de todos los países del mundo y que, según el cristal con que se mire, serían la semilla de una ciberciudadanía en proceso de formación hacia la sociedad del conocimiento, con capacidad de ubicuidad global pero arraigado corazón hiperlocal, o triste y sencillamente la formación del mercado más grande nunca soñado por los más afiebrados capitalistas.

LA WWW: Caja digital de Pandora y su gemela 2.0

La emergencia de la WWW a mediados de los 90, llevó en una década al primer gran signo de alerta, cuando miles de negocios florecieron o se mudaron a la Red en una fiebre del “oro digital”, que terminó en la infausta burbuja de las empresas “punto com” que explotó como agria bienvenida al siglo XXI, con una fuerte dosis de cruda realidad, nada virtual, sino eminentemente social, porque  muchos proveedores esperaban una curva de aprendizaje-consumo también a velocidad telemática, pero con las viejas estructuras y lógica de los consumidores cautivos en mundos cerrados como America On Line, cuyo modelo de tecnología Push fracasó escandalosamente, y que hoy vuelve por sus fueros con sus hijos y nietos super carismáticos como son los servicios de Facebook y Twitter, con un rostro chamaco, más amigable y “abierto”, que habla idiomas nativos porque los nativos son invitados gratis, sin que esto deje de ser un millonario negocio transnacional.
Al igual que Google y su asombroso y cada vez más “inteligente” sistema de búsqueda, de información, conocimiento y geolocalización, estos emporios del ciberespacio se ganaron la lotería gracias a la entusiasta y diligente contribución de todos y cada uno de nosotros, que enriquecemos este sistema cada vez que lo usamos, y que aprende con cada tecla que apretamos, en cada trozo de información que enviamos por correo electrónico, sea fotografía, información personal, intimidades o banalidades, porque no hay coma o punto que no se guarde en los servidores de estas empresas, cuya ubicación física es secreto corporativo.

Después de la “burbuja” de fin de siglo, lo que aprendieron los gigantes de las telecomunicaciones digitales fue que los entonces nuevos medios electrónicos en red llegaron para quedarse, por una sencilla razón, propiciaron exponencialmente la creación de comunidades virtuales, sólo habría que esperar un poco de tiempo para regresar con esas grandiosas ideas de los mundos virtuales, incluidos por supuesto enormes “malls” y pasatiempos de inmersión, donde las llamadas “redes sociales”, son el último grito de los hábitos de consumo, ahora en redes móviles que importan los servicios on-line incluidos Facebook y Twitter, y el megamashup llamado Google, son monarcas de la Web desde hace varios años, hoy presentes de manera incisiva los modelos de comportamiento en el mercado simbólico del cine y la televisión, y en un corto periodo de tiempo han posicionado modelos de negocio que hasta hace unos años eran sólo posibles en teoría, y por primera vez generan utilidades a partir de la administración de bases de datos construidas a partir de la arquitectura colaborativa para los usuarios de Internet, lo cual garantiza una multiplataforma de publicidad y empuje de productos y servicios que acompañan al cibernauta en cada acción que lleva a cabo según sus hábitos de navegación y sus gustos personales.

Sirva esta vertiginosa revisión para situarnos en la actualidad en que se presenta una gran disparidad entre el valor potencial de la red y la real capacidad de acceso individual, cuando la banda ancha se convierte en un factor decisivo, y al mismo tiempo en un bien que se encarecen países como México, donde curiosamente vivimos un momento similar al entusiasmo de los primeros años de la WWW, ahora gracias a la explosión de la Web 2.0, que supuestamente traería de la mano la democratización definitiva de Internet, antes de que nos diéramos cuenta, en un par de años, los grandes corporativos mediáticos vieron una oportunidad de oro para montarse en una plataforma aparentemente idónea para sus intereses, en la lógica de los medios masivos, por no mencionar las “estrategias de redes sociales” de la comunicación social de los gobiernos, convertida en una válvula de escape más que en una comunicación interactiva con los ciudadanos.

Y a todo ello, ¿dónde quedó el proyecto social, libre y abierto, de la información y el conocimiento para todos? La brecha tecnológica se vuelve cultura, histórica, cuando se asimila un conocimiento en el momento en que comienza a ser obsoleto, como es la de por sí rezagada producción de contenidos y conocimientos nativos para consumirse on-line, pero que resultan incompatibles con la movilidad que hoy representa el uso de dispositivos personales móviles, iniciativas que resultan irrisorias comparadas con las millonarias inversiones en aplicaciones de uso comercial.

Sirva esta apretada síntesis para proponer una serie de reflexiones encaminadas al diálogo transdisciplinario

Si hay algo que caracteriza al mercado de las telecomunicaciones es que la velocidad de su desarrollo y expansión transforma a su paso modelos sociales, culturales y evidentemente la forma en que se informan y comunican las personas y cómo esa comunicación influye en su vida cotidiana, en sus comportamientos, desempeño académico y profesional y hasta sus hábitos, ocio y hábitos patológicos.

La antítesis del optimismo tecnológico que es parte indispensable del motor mercadotécnico de la industria tiene que ver con los números mismos que la sustentan y en el caso de México es más que emblemático, en vías de convertirse en un síndrome estructural, si se observa que el crecimiento de este segmento de la economía crece 20 por ciento en el país, frente a un raquítico PIB de menos de 3 por ciento, que se estima para cerrar 2011, pero no precisamente porque el sector sea ejemplo de dinamismo, porque este crecimiento desproporcionado se debe principalmente a la altísima concentración del sector, y las prácticas monopólicas que acaparan un mercado en expansión principalmente de la telefonía celular, que se ha convertido en un servicio de  primera necesidad ante los altísimos costos tarifarios y de instalación de telefonía fija. (2)

Los líderes del mercado en franca “guerra” por los usuarios de múltiples servicios que cada vez se distribuyen más a través de la telefonía móvil, sobrepasan con mucho la capacidad de los órganos reguladores del Estado, en este caso la Comisión Federal de Telecomunicaciones (COFETEL), durante años paralizada por los poderes económicos dominantes, y cuyo “activismo” reciente se politiza y los nuevos actores favorecidos por la convergencia, ponen un campo minado que indefectiblemente lleva a tribunales y que al final del día implica parálisis institucional a costa, como siempre, de los ciudadanos y los usuarios, que se ven sometidos a las políticas leoninas de las empresas en la contratación de servicios fetichizados en la mercadotecnia, como paradigma de velocidad “vertiginosa” y acceso “total”, siendo en realidad pocas opciones, de mala calidad, caros y plagados de abusos en la “letra chica”.

Un ejemplo reciente en el país es el del abusivo redondeo por minuto en la telefonía celular, que se impuso durante años a los usuarios, ahora escandaliza a los legisladores, curiosamente cuanto entran otros poderosos actores con gran apetito por este jugoso pastel que se llama triple play, y cuádruple play si se agregan las telecomunicaciones móviles multimedia de banda ancha, tan mítico como el tesoro de Moctezuma.

Aunque esta disparidad se asemeja a la situación de muchos otros países en el mundo, el caso mexicano reviste especial problemática y ofrece en el plazo inmediato particulares visos de urgencia (3).

En busca de un mapa claro de la problemática podemos partir de cuatro coordenadas transversales, que responden a fenómenos estructurales y coyunturales que lo componen:

1) El uso de las TIC como nuevo umbral-referente del acceso al conocimiento.

2) El derecho a la información en la era digital, y la legislación que rige en el país.

3) Concentración monopólica de la industria-mercados.

4) La indigencia y el analfabetismo digital.

Un eje transversal, que da una dimensionalidad particular al problema, es la inteligencia colectiva potencial inscrita en el acceso a la Web 2.0 y en particular en la plataforma móvil, que da al usuario no sólo acceso a la información mundial, sino capacidad de generar contenidos y opinión, y a la larga influir en las decisiones económicas y políticas.

A mediados de la presente década se propuso este concepto como una especie de “tierra prometida” para los cibernautas, y que nos proponemos analizar en las siguientes entregas, teniendo en cuenta que este segundo auge libertario en la WWW se base, principalmente, en el consumo de banda ancha.

NOTAS:

(1) Según Hamadun Touré, de la Unión internacional de telecomunicaciones (UIT), en el año 2000 la cantidad de personas que ocupaba un teléfono eran cercana a los 500 millones, lo que en el 2011 llegó a los más de 5 mil millones. A principios del año 2000 había en el mundo solamente 250 millones de usuarios de Internet, cifra que llegó a 2 mil millones de usuarios en 2011.

(2) La Encuesta en Hogares sobre Disponibilidad y uso de las Tecnologías de la Información reveló que a mayo de 2010, en el país 38.9 millones de personas son usuarios de una computadora y 32.8 millones tiene acceso a Internet. El Instituto Nacional de Estadística y Geografía (INEGI), informó que los usuarios de internet registraron un aumento del 20.6% respecto al 2009. En México existen 8.44 millones de hogares equipados con computadora, lo que representa un 29.8% del total de hogares en el país y significa un crecimiento de 13.2% con relación a 2009. INEGI informó que en cuanto a conectividad 6.3 millones de hogares cuentan con conexión a Internet, lo cual representa 22.2% del total en México, lo que implica un crecimiento del 22.9% respecto de 2009. http://www.inegi.org.mx/Sistemas/temasV2/Default.aspx?s=est&c=19007

(3) El promedio de suscripciones de banda ancha inalámbrica en los 34 países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) es de 41.6%, donde Corea ocupa el primer sitio con 89.9% y México el último con sólo 0.5%. Fuente: CN Expansión: http://www.cnnexpansion.com/tecnologia/2011/06/23/mexico-desconectado-de-la-banda-ancha

Nicho Aural: una apuesta decidida por lo experimental en música y arte sonoro y visual / Entrevista con Eric Namour

Posted in CULTURA, MÚSICA, SOFTWARE with tags , , , , , , , on marzo 14, 2011 by zewx

La primera impresión al conocer a Eric Namour y platicar con él es que estamos ante un emprendedor de optimismo que contagia, que puntualiza sus palabras con enfático ademán e inspira seguridad y dinamismo; parecería que hablamos con alguien que tiene todo preparado y bajo control, “estamos listos desde hace seis meses”, es lo primero que me dice.

A pesar de que lleva poco tiempo en México y no conoce a fondo a los públicos y los mecanismos de gestión institucional, encabeza con sensibilidad y experiencia este programa piloto, Nicho Aural (programa #1 / #2 / #3. Productor y promotor con intensa actividad en Europa, y en particular últimamente en Londres, se integró en el diseño de la programación primero en el festival Radar de ediciones anteriores, y ahora dentro de Aural, como un núcleo duro de experimentación sonora y visual en el seno del las actividades como parte del Festival de México FMX 2011.

Como lo dijo Eric sin ambages, se trata de una propuesta piloto, es decir, que de alguna manera está a prueba, y tendrá en esta primera edición de Aural, una importante oportunidad para analizar el modelo de curaduría, que no se limita a presentar personalidades destacadas en el la música experimental de estilo libre, la improvisación, la música experimental, el arte sonoro y el ruido, sino que también se enriquece con talleres, conferencias, diálogos en mesas redondas y proyecciones, que dan sentido integrado en un circuito que propone una destacada exposición de lenguajes distintos, intercambios y exploraciones, trabajos y trayectorias de variada procedencia.


Es entonces una apuesta por una curaduría por el riesgo, la exploración de una paleta tan amplia desde el paisaje sonoro, el collage analógico, el ruido desde los temperamentos creativos personales y la sinergia entre músicos y artistas que con gran fuerza propositiva participan en una serie de actos y encuentros únicos en su factura y originalidad.

La propuesta tiene una solidez incuestionable que van de la escuela británica de Evan Parker y John Edwards, el virtuosismo posmoderno del percusionista Chris Corsano, la chamanería sonora-zen de un Germán Bringas en la improvisación y free jazz (director de Jazzorca Café y Jazzorca Records); Manrico Montero, de Mandorla Records, ambos mexicanos de distintas generaciones y profundidades temperamentales, que comparten cartel con Greg Kowlsky, Kan Mikami, Alan Licht, los también mexicanos Juanjosé Rivas y Mauricio Valdés, Mattin, de España, entre otros, con un multi-jam tremendo de clausura el domingo 20 de marzo. (Ver programación e información completa del Nicho Aural).

No puede eludirse sin embargo la realidad concreta en que se propone la producción de este tipo de experiencias para los públicos seguidores y nuevas generaciones de escuchas que se acercan, y enseña en primera instancia, que el financiamiento puede ser lo más complicado, y lo ha sido durante muchos años en México para este nicho de manifestaciones que cuentan con una importante plataforma de reconocimiento y consumo a nivel internacional pero pocos presupuestos, que tarde o temprano condicionan la amplitud de la producción, situación que obliga a considerar son seriedad si pueden o no ser gratuitos los conciertos y presentaciones y, aunque es parte de otro tema, es claro que el valor que la audiencia confiere a estos festivales debe repercutir en factores tan importantes como la propia calidad de la curaduría como es el caso del Nicho Aural, el financiamiento de una plataforma estable y amplia de artistas talleristas y conferenciantes, hasta la remuneración justa de los artistas extranjeros y nacionales y, por qué no, subproductos como dvds, talleres permanentes, etcétera.

La falta de un apoyo institucional consistente y más comprometido en distintas competencias (diplomáticas, culturales, de políticas públicas), condiciona en parte el criterio de la curaduría para la contratación de talento de Europa y Asia que en algunos casos puede resultar materialmente incosteable. El éxito probable de este ejercicio de experimentación en la propuesta misma, con un público heterogéneo que si bien es limitado, es un nicho importante de varias generaciones, sensible y bien informado, que dará sin duda el impulso y peso a futuras producciones y al mismo tiempo contribuir al reconocimiento e inclusión del talento nacional y sudamericano.

Larga vida a la Web: un llamado a la continuidad de los estándares abiertos y la neutralidad.

Posted in CIENCIA Y TECNOLOGÍA, SOFTWARE with tags , , , , , , , , , on marzo 4, 2011 by zewx

Autor: Tim Berners-Lee / CERN

Traducción: Alfonso Esparza

Corrección de traducción: Lorenza Sánchez

Del original en inglés: Long Live the Web: A Call for Continued Open Standards and Neutrality

Publicado originalmente en American Magazine, diciembre 2010

La Web es crítica no meramente para la revolución digital sino para nuestra continua prosperidad –e incluso nuestra libertad. Como la democracia misma, necesita ser defendida.

La World Wide Web cobró vida en mi escritorio en Ginebra, Suiza, en diciembre de 1990. Consistía en un sitio web y un navegador-visualizador, que resultaba estar en la misma computadora. Este sistema simple demostraba un concepto profundo: que cualquier persona podía compartir información con cualquiera otra, en cualquier lugar. Con este espíritu la Web se expandió desde la base hacia arriba. Hoy en su vigésimo aniversario, la Web está ampliamente integrada en nuestras vidas cotidianas. Damos por hecho que siempre estará allí, en cualquier instante, como la electricidad.

La Web evolucionó en una poderosa y ubicua herramienta porque fue construida en principios igualitarios y debido a que miles de individuos, universidades y compañías han trabajado, de manera independiente y en conjunto como parte del World Wide Web Consortium (3WC) para expender sus capacidades basadas en esos principios.

La Web como la conocemos, sin embargo, se ha visto amenazada. Algunos de sus habitantes exitosos han comenzado a claudicar de estos principios. Grandes sitos de redes sociales han amurallado la información de sus usuarios del resto de la Web. Los proveedores de Internet inalámbrico han sido tentados a hacer más lento el tráfico de sitios web con los que no han amarrado tratos. Los gobiernos –totalitarios y democráticos– monitorean los hábitos de los usuarios, poniendo en riesgo importantes derechos humanos.

Si nosotros, los usuarios, permitimos que procedan sin ser revisadas estas y otras tendencias, la Web podría desmembrarse en islas fragmentadas. Podríamos perder la libertad de conexión con cualquier sitio Web que deseemos. La epidemia podría extenderse a teléfonos inteligentes y tabletas, que son también portales a la vasta información que ofrece la Web.

¿Por qué habría de interesarte? Porque la Web es tuya. Es un recurso público del cual dependen tú, tu negocio, tu comunidad y tu gobierno. La Web también es vital para la democracia, un canal de comunicación que hace posible una continua conversación mundial. La Web es hoy más relevante para la libertad de expresión que cualquier otro medio. Contribuye a la era de las redes digitales con principios establecidos en la Constitución Política de EE.UU., la Carta Magna británica y otros importantes documentos: la garantía de no ser espiado, filtrado, censurado o desconectado.

Sin embargo la gente parece pensar que la Web es como parte de la naturaleza, y si empieza a espesarse, bueno, son de esas cosas que pasan y nada se puede hacer. No es así. Nosotros creamos la Web al diseñar protocolos de computadora y software; este proceso está completamente bajo nuestro control. Nosotros elegimos las propiedades que deseamos que tenga o no tengan. De ninguna manera está terminado (y ciertamente no ha muerto). Si queremos indagar lo que está haciendo el gobierno, observar lo que los grandes corporativos están haciendo, percatarnos de las reales condiciones del planeta, encontrar una cura a la enfermedad de Alzheimer, sin dejar de mencionar compartir nuestras fotos con los amigos, nosotros el público, la comunidad científica y la prensa debemos asegurarnos de que los principios de la Web se mantengan intactos –no sólo para preservar lo que hemos ganado sino también beneficiarnos de los grandes avances que están por venir.

Universalidad es el fundamento

Hay numerosos principios clave para asegurarnos de que la Web sea aún más valiosa. El principio de diseño primario que subyace en la utilidad y crecimiento de la Web es la universalidad. Cuando se crea un vínculo éste puede enlazarse con cualquier cosa. Eso quiere decir que las personas deben tener la posibilidad de publicar cualquier cosa en la Web, sin importar el tipo de computadora que tenga, el software que use o el lenguaje humano que hable y sin importar si tiene conexión inalámbrica o cableada. La Web debe ser accesible a personas con discapacidades. Deba funcionar con cualquier tipo de información, ya sea un documento o una fuente de datos o información de cualquier calidad –desde un simple “tweet” a un ensayo académico. Y debe ser también accesible desde cualquier clase de equipo que se conecte a Internet: fijo o móvil, de pantalla pequeña o grande.

Estas características podrán parecer obvias, de auto-mantenimiento o simplemente de poca trascendencia, pero son las causas de que el próximo sitio Web de éxito o la página web del equipo de fútbol local simplemente aparezca en la Web sin dificultad alguna. La universalidad es de gran demanda, para cualquier sistema.

La descentralización es otra importante característica del diseño. No se necesita solicitar aprobación de ninguna autoridad central para agregar una página o un hipervínculo: lo único que hay que hacer es usar tres simples protocolos estándar: escribir una página en formato HTML (Lenguaje de Marcado de Hipertexto), nombrarlo de acuerdo con la convención de nomenclatura de URI, y colocarla en Internet utilizando el HTTP (Protocolo de Transferencia de Hipertexto). La descentralización ha hecho posible una expansión de la innovación y lo seguirá haciendo en el futuro.

El URI es la clave de la universalidad. (Originalmente yo le puse URI al esquema de nomenclatura, por Identificador Universal de Recursos; actualmente conocido como URL, por localizador de recursos “uniformes”). Permite seguir cualquier vínculo, independientemente del contenido al que lleve o quien lo publique. Los vínculos convierten los contenidos de la Web en algo de mayor valor: un espacio interconectado de información.

Recientemente se han esgrimido numerosas amenazas a la universalidad de la Web. Las compañías de televisión por cable que venden conectividad a Internet están considerando si limitan a sus usuarios a descargar únicamente sus mezclas de contenidos de entretenimiento. Los sitios de redes sociales presentan una clase diferente de problemas. Facebook, LinkedIn, Friendster y otros, típicamente ofertan valor al capturar la información que publicas: fecha de nacimiento, correo electrónico, domicilio, gustos y vínculos que indican quién es amigo de quién y quiénes están en cada fotografía.

El sitio ensambla estos bits de información en grandes bases de datos y re-usan la información para proveer un servicio de valor agregado –pero sólo dentro de sus sitios. Una vez que ingresas tus datos en alguno de estos servicios, no puedes usarlos fácilmente en otros sitios. Cada sitio es un silo, aislado de los otros. Sí, las páginas de tu sitio están en Internet pero no tus datos. Se puede acceder a una página Web acerca de una lista de personas que has creado en un sitio, pero no se puede enviar esa lista o elementos de ésta a otro sitio.

El aislamiento se presenta porque cada fragmento de información no tiene una URI. Las conexiones entre los datos existen sólo dentro del sitio. Entonces mientras más se entra más se es encerrado. Tu sitio de red social se convierte en una plataforma central –un silo cerrado de contenido, que además no te permite tener un control total de la información existente. Mientras más se extiende el uso de esta arquitectura, más se fragmenta la Web, y menos disfrutamos de un solo espacio universal de información.

Otro de los riesgos es que un solo sitio de redes sociales –o un solo motor de búsqueda o un navegador– crece tanto que se convierte en monopolio, que tiende a limitar la innovación. Como ha sucedido desde que empezó la Web; la continua innovación de sus orígenes podría ser la mejor prueba y balance en contra de cualquier compañía o gobierno que trate de debilitar la universalidad. GnuSocial y Diaspora son proyectos en la Web que permiten a cualquiera crear su propia red social desde su propio servidor, conectando a cualquiera desde cualquier otro sitio. El proyecto Status.net que administra sitios como identi.ca te permite operar tu propia red de Twitter, pero sin la centralización de Twitter.

Los estándares abiertos conducen a la innovación

Permitir que cualquier sitio se enlace con otros es necesario pero no suficiente para una Web ampliamente desarrollada. Las tecnologías básicas de Web que los individuos y compañías necesitan para desarrollar poderosos servicios deben estar disponibles gratuitamente, sin regalías. Amazon.con, por ejemplo creció como una enorme librería en línea, después tienda de discos y después tienda de toda clase de artículos, porque tiene un acceso abierto y gratuito a los estándares técnicos en los cuales la Web opera. Amazon, como cualquier otro usuario pudo utilizar HTML, URI y HTTP sin pedir permiso a nadie y sin tener que pagar. De igual manera, fue capaz de hacer uso de las mejoras a dichos estándares desarrollados por la World Wide Web Consortium, permitiendo a los usuarios llenar un formato electrónico, pagar en línea, valuar los bienes que ha comprado, etcétera.

Al decir “estándares abiertos” me refiero a estándares que puedan involucrar en el diseño a cualquier experto comprometido, y que han sido calificados como aceptables, que están disponible gratuitamente en la Web y que están libre de regalías (no requiere pago) para usuarios y desarrolladores. Los estándares abiertos, libres de regalías que son fáciles de usar crean la diversa riqueza de los sitios Web desde los grandes nombres como Amazon, Craigslist y Wikipedia hasta oscuros blogs escritos por adultos aficionados y hasta videos caseros publicados por adolescentes.

Apertura significa también que puedas crear el sitio Web o tu propia empresa sin la necesidad de aprobación alguna. Cuando la Web empezó, no tuve que pedir permiso ni pagar regalías para utilizar los estándares abiertos de Internet como los bien conocidos TCP (protocolo de control de transmisión) y el protocolo de Internet IP. De manera similar, la política de patentes libre de regalías del Web Consortium establece que las compañías, universidades e individuos que contribuyan al desarrollo de un estándar deben aceptar que no cobrarán a ninguna persona que utilice dicho estándar.

Los estándares abiertos libres de cargos no impiden que un individuo o una compañía puedan desarrollar algún blog o programa para distribuir fotografías y cobrar por su uso. Está permitido. Incluso puedes pagar por el servicio si consideras que es “mejor” que otros. El punto es que los estándares abiertos incluyen diversas opciones, gratuitas o no.

De hecho, muchas compañías invierten en el desarrollo de extraordinarias aplicaciones precisamente porque confían en que las aplicaciones funcionarán para cualquiera, independientemente del equipo de cómputo, sistema operativo o proveedor de servicio de Internet que utilicen –todo esto es posible por los estándares abiertos de la Web. La misma confianza motiva a los científicos a emplear miles de horas desarrollando increíbles bases de datos que pueden compartir información sobre proteínas, digamos, en busca de la cura para una enfermedad. Esta confianza impulsa a los gobiernos como los de Gran Bretaña y EE.UU. a colocar cada vez más datos en línea para que los ciudadanos puedan examinarlos y contribuir a que el gobierno sea cada vez más trasparente. Los estándares abiertos cultivan una portentosa creatividad, alguien puede usarlos de maneras que nadie imaginaría. Descubrimos eso en la Web todos los días.

En contraste, no usar estándares abiertos crea mundos cerrados. El sistema “iTunes” de Apple, por ejemplo, identifican las canciones y videos utilizando URIs que son abiertos. Pero en lugar de “http” las direcciones empiezan con “iTunes”, que es propietario. Tú puedes acceder a un vínculo “iTunes” sólo utilizando el programa propietario de Apple. No puedes crear un vínculo a ningún tipo de información dentro del mundo “iTunes”–una canción o información acerca de un grupo. No puedes enviar dicho vínculo a nadie más para que lo vea. No estás ya en la Web. El mundo “iTunes” está centralizado y amurallado. Estás atrapado en una sola tienda en lugar de estar en un mercado abierto. Pese a sus maravillosas funciones, su evolución está limitada a lo que piensa una sola compañía.

Otras empresas también están creando mundos cerrados. La tendencia por ejemplo de algunas revistas de producir aplicaciones para smartphones y no para la Web es preocupante porque ese material está fuera de la Web. No puedes seleccionarlo o enviar por correo electrónico un vínculo a una página interior ni comentar en Tweeter. Es mejor construir una aplicación basada en Web que pueda utilizarse también en los navegadores para teléfonos, y las técnicas para hacerlo mejoran todo el tiempo.

Mucha gente piensa que estos mundos cerrados están bien. Son fáciles de usar y parecen dar a estas personas lo que quieren. Pero como ya se vio en los años 90 con el sistema de marcado por módem de America Online que ofrecía un restringido acceso a parte de la Web, pero estos “jardines amurallados” no importa cuan satisfactorios, nunca podrán competir con la diversidad, riqueza e innovación con el loco y trepidante mercado de la Web fuera de sus puertas. Si un jardín encerrado detenta empero una parte del mercado, puede retrasar el crecimiento en el exterior.

Mantener la Web separada de Internet

Mantener la Web universal y sus estándares abiertos ayuda a la gente a crear nuevos servicios. Pero un tercer principio –la separación de capas– divide el diseño de la Web del de Internet.

Esta separación es fundamental. La Web es una aplicación que funciona en Internet, que es una red electrónica que trasmite paquetes de información entre millones de computadoras de acuerdo con nos algunos protocolos abiertos. Una analogía remite A que la Web es como un aparato electrodoméstico que funciona con una red de electricidad. Un refrigerador o impresora pueden funcionar siempre y cuando sean utilizados ciertos protocolos estándar. De manera similar cualquier aplicación –entre ellas la Web, el correo electrónico o el mensajero instantáneo- pueden funcionar en Internet siempre y cuando se usen ciertos protocolos estándar, como TCP/IP.

Los fabricantes pueden mejorar los refrigeradores y las impresoras sin alterar la manera en que funciona la electricidad y las compañías de suministro pueden mejorar las redes de electricidad sin alterar el funcionamiento de los aparatos electrodomésticos. Las dos capas de tecnología trabajan juntas pero pueden avanzar independientemente. Lo mismo es cierto para Internet y la Web. La separación de capas es crucial para la innovación. En 1990 la Web se desplegó sobre Internet, sin tener que hacer ningún tipo de cambio a este último, así como ha sucedido con el resto de las mejoras. Y en este lapso la velocidad de conexión a Internet ha incrementado de 300 bits por segundo a 300 millones de bits por segundo (Mbps) sin que la Web tuviera que ser rediseñada para poder aprovechar estos avances.

Derechos humanos electrónicos

Aunque los diseños de Internet y la Web estén separados, un usuario de Web es también un usuario de Internet y por ello confía en un Internet libre de interferencias. En los primeros años de la Web era técnicamente muy difícil para las compañías o países manipular Internet para interferir con un usuario de Web individual. Sin embargo, la tecnología de interferencia ha adquirido mayor poder. En 2007 BitTorrent, una compañía cuyo protocolo de red uno-a-uno permite a las personas compartir música, videos y otros archivos directamente en Internet, presentó una queja ante la Comisión Federal de Comunicaciones (FCC) para acusar que el gigante proveedor (ISP) Comcast estaba bloqueando o disminuyendo el tráfico de los suscriptores que usaban la aplicación de BitTorrent. La FCC ordenó a la empresa cesar dicha acción, aunque en 2010 una corte federal resolvió que la FCC no podía exigirle eso a Comcast. En diversas ocasiones un buen ISP se encargará de administrar el tráfico, de tal forma que si el ancho de banda disminuye, el tráfico de menor importancia sea reducido de manera transparente, para que los usuarios estén enterados. Hay una importante línea trazada entre esa acción y utilizar el mismo poder para discriminar.

Esta distinción distingue al principio de neutralidad en la red. Ésta sostiene que si se ha pagado por una conexión a Internet de determinada calidad, como 300 Mbps, por ejemplo, las comunicaciones deben responder a esta calidad. La protección de este concepto prevendrá que un gran ISP te envíe videos provenientes de una compañía de medios contratada al rango de 300 Mbps y no de una de menor calidad perteneciente a la competencia. Esto incrementa la discriminación comercial. Pero otras complicaciones pueden surgir. ¿Qué pasaría si tu proveedor hiciera más fácil la conexión a una tienda de zapatos en línea en particular e hiciera difícil accesar a otras? Eso implicaría dominar el control. Y ¿que pasaría si el ISP dificultara el acceso a sitios Web de ciertos partidos políticos, religiones, etcétera?

Desafortunadamente, en agosto, Google y Verizon por alguna razón sugirieron que la neutralidad de la red no debería aplicar a las conexiones basadas en teléfonos móviles. Muchas personas en áreas rurales de Utah a Uganda tienen acceso a Internet únicamente a través de teléfonos móviles; exentar las conexiones inalámbricas de la neutralidad de red dejaría a estos usuarios fuera, expuestos a la discriminación de servicio. También resulta bizarro imaginar que mi derecho fundamental para acceder a una fuente de información de mi elección, aplicará sólo cuando esté en mi computadora conectada vía WiFi en casa, pero no cuando use mi teléfono celular.

Un medio de comunicaciones neutral es la base para una justa y competitiva economía de mercado, de la democracia y de la ciencia. El debate ha resurgido el año pasado acerca de si se requiere legislación del gobierno para proteger la neutralidad. Lo es. Aunque la Web e Internet generalmente discurren sin necesidad de regulación, algunos valores básicos deben preservarse legalmente.

Sin espiar

Existen otras amenazas que interfieren con Internet, incluido el fisgoneo. En 2008 la compañía Phorm creó un dispositivo para que un ISP pueda husmear en los paquetes de la información que está enviando. El ISP puede determinar cada URI que cualquier usuario visualice. La empresa puede generar con ello un perfil con los sitios que su cliente visitó con el fin de producir publicidad dirigida.

Acceder a la información de los paquetes de Internet es como intervenir las llamadas telefónicas o abrir los envíos postales. Las URI que visita un usuario revelan gran información de su propia persona. Una compañía que haya comprado de URI de solicitantes de empleo, podría utilizarlos con fines discriminatorios, en la contratación de personal según sus opiniones políticas, por ejemplo. Las compañías aseguradoras podrían excluir a quienes han buscado información acerca de enfermedades cardiacas en la Web. Incluso los depredadores podrían utilizar estos perfiles para acosar a individuos. Todos usaríamos la Web de forma muy diferente si supiéramos que nuestros clicks pueden ser monitoreados y la información compartida con terceros.

La libertad de expresión debe ser protegida también. La Web debe ser como una hoja de papel en blanco; lista para escribir en ella, sin control sobre lo que se escribirá. Hace unos meses Google acusó al gobierno de China de “hackear” en su base de datos para obtener los correos electrónicos de disidentes. Las presuntas irrupciones ocurrieron después de que Google se resistió a las demandas del gobierno para que fueran censurados ciertos documentos de su motor de búsqueda en idioma chino.

Los regímenes totalitarios no son los únicos que violan los derechos digitales de sus ciudadanos. En Francia una ley creada en 2009, llamada Hadopi, permite a una compañía del mismo nombre desconectar Internet de una casa durante un año si alguien en esa casa es señalado por alguna compañía de medios de haber duplicado música o videos. Después de mucha oposición en octubre el Consejo Constitucional de Francia requiere que un juez revise el caso antes de que el servicio sea revocado, pero de aprobarse la casa podría ser desconectada sin el proceso correspondiente. En el Reino Unido el Acta de Economía Digital que fue aprobada apresuradamente en abril de 2010 permite al gobierno ordenar a un ISP cancelar la conexión de Internet de quien sea que figure en alguna lista de sospechosos de infringir leyes de derechos de autor. En septiembre el Senado de Estados Unidos introdujo el Acta para el Combate de Infracciones y Falsificaciones en Línea, que permitirá al gobierno una lista negra de sitios Web –alojados dentro y fuera de territorio estadounidense– que son acusados de infringir y además de presionar o requerir a todos los ISPs bloquear el acceso a esos sitios.

En estos casos ningún proceso legal correspondiente protege a las personas antes de que sean desconectadas o que sus sitios sean bloqueados. En vista de los muchos sentidos en que la Web es crucial para nuestras vidas y nuestro trabajo, la desconexión es una forma de privación de la libertad. Revisando la Carta Magna quizá debiéramos consignar ahora: “ninguna persona u organización habrá de ser privado de la habilidad de conectarse con otros con el correspondiente procedimiento legal y la presunción de inocencia”.

Cuando tus derechos de red son violados la protesta pública es crucial. Ciudadanos de todo el mundo objetaron las demandas del gobierno de China a Google, a tal grado que la secretaria de Estado Hillary Clinton dijo que el gobierno de Estados Unidos respaldaba el desafío de Google y que la libertad de Internet –y con ésta la libertad de la Web– habría de ser un postulado formal en la política exterior. En octubre Finlandia implementó como derecho legal de todos los ciudadanos el acceso a una banda ancha de 1MBps.

Conectándose al futuro

Mientras sean preservados los principios básicos de la Web su evolución en curso no estará en las manos de alguna persona u organización –ni en las mías, ni de de nadie más. Si podemos preservar sus principios la Web promete algunas capacidades fantásticas en el futuro.

Por ejemplo, la última versión de HTML, llamada HTML5 no es sólo un lenguaje de etiquetas sino una plataforma de cómputo que hará incluso más poderosas de lo que hoy son las aplicaciones para Web. La proliferación de teléfonos inteligentes hará que la Web sea incluso aún más central en nuestras vidas. El acceso inalámbrico será de particular provecho para países en desarrollo donde muchas personas no tienen conectividad por cable pero sí inalámbrica. Se necesita hacer mucho más, por supuesto, incluida la accesibilidad de las personas con alguna discapacidad y el despliegue de páginas que se vean con igual claridad, desde enormes plasmas que cubren un muro hasta ventanas del tamaño de un reloj de pulsera.

Un gran ejemplo de las promesas futuras, que aumentan la fuerza de los principios básicos es la vinculación de datos. Hoy en día la Web es de gran eficacia en ayudar a las personas a publicar y descubrir documentos, pero los programas de la computadora no pueden leer o manipular los datos existentes en esos documentos. En cuanto este problema sea resuelto la Web será mucho más útil, porque los datos acerca de casi todos los aspectos de nuestras vidas son creados en un rango sorprendente. Encerrado entre todos esos datos está el conocimiento de cómo curar enfermedades, potenciar el valor de los negocios y gobernar el mundo de manera más efectiva.

Los científicos están hoy al frente de un magno esfuerzo por publicar información vinculada en la Web. Investigadores, por ejemplo, se están dando cuenta que en muchos casos ningún laboratorio por sí mismo o repositorio de datos en línea son suficientes para el descubrimiento de nuevas medicinas. La información necesaria para comprender complejas interacciones entre las enfermedades procesos biológicos en el cuerpo humano y una amplia variedad de agentes químicos está dispersa alrededor del mundo en miríadas de bases de datos, hojas desplegadas y documentos.

Uno de los éxitos se refiere al descubrimiento de fármacos para el tratamiento de Alzheimer. Un número de laboratorios de investigación, de corporaciones y gobiernos hacen a un lado su usual negativa para abrir sus datos, y decidieron crear la Iniciativa de Neuroimagen de la Enfermedad de Alzheimer. Se publicó información masiva de los pacientes y escaneo de cerebros como datos vinculados, en la que muchas veces se han sumergido para avanzar en sus investigaciones. En una demostración de la que fui testigo un científico formuló la pregunta: “¿Qué proteínas tienen que ver con la señal de transducción y están relacionadas con las neuronas piramidales?” al buscar en Google la pregunta tuvo 233,000 resultados –ni una sola respuesta. Pero al introducirla en el mundo de las bases de datos vinculadas, devolvió una pequeña cantidad de proteínas específicas que tienen esas propiedades.

Los sectores de inversiones y finanzas también se pueden beneficiar de los datos vinculados. La ganancia se genera, en gran parte, al encontrar patrones en un conjunto de fuentes de información crecientemente diverso. Los datos también están alrededor de nuestras vidas personales. En los sitios de las redes sociales y se indica que un recién llegado es un amigo eso establece una relación. Y esa relación son datos.

Los datos vinculados hacen surgir empero algunos asuntos con los que tendremos que lidiar. Por ejemplo, las nuevas capacidades de integración de datos podrían traer desafíos de privacidad que difícilmente son considerados en las legislaciones actuales en la materia. Debemos examinar las opciones culturales, legales y técnicas que preservarán la privacidad, sin menoscabo de los beneficios de las capacidades de vincular información.

Hoy es un momento excitante. Los desarrolladores de Web, compañías, gobiernos y ciudadanos deberían trabajar juntos abiertamente y de manera cooperativa como se ha hecho por ahora los principios fundamentales de la Web, así como los de Internet asegurando que los protocolos tecnológicos y las convenciones sociales que se habiliten, respeten los valores humanos básicos. La meta de la Web es servir a la humanidad. La construimos ahora para que los que vienen después sean capaces de crear cosas que nosotros mismos no somos capaces de imaginar.