Archive for the CIENCIA Y TECNOLOGÍA Category

La singularidad tecnológica y la superinteligencia posthumana. La salvación ¿demasiado tarde?

Posted in CIENCIA Y TECNOLOGÍA, Uncategorized with tags , , , , , , , , on abril 26, 2017 by zewx

singularity

El avance exponencial de distintas ciencias, particularmente la informática y la manipulación de la materia a niveles atómicos, puede ser lo que defina el futuro como utópico o distópico, ambos términos generalmente derivados de la ficción, permiten vislumbrar la solución a muchos de los más ingentes problemas de la humanidad, o la declinación inevitable de la sociedad industrial, nudo en el que se localiza actualmente el debate científico y filosófico.

Según explica el futurólogo Christopher Barnatt en su portal Explaining the Future, esta superinteligencia posthumana puede ser creada totalmente en computadoras; en la extensión artificial del cerebro humano, o el sistema híbrido de sistemas computacionales y cerebrales en una entidad de inteligencia colectiva, activada por un bucle de retroalimentación en que la inteligencia así estructurada llevaría a una tecnología aún más poderosa, y éste, a su vez una inteligencia superior, indefinidamente.

Barnatt menciona que una vez alcanzada la singularidad, para la cual no falta mucho, dicho sea de paso, podrán ser dominadas varias ciencias emergentes y convergentes como Inteligencia Artificial, nanotecnología, ingeniería genética, robótica, cibernética y biología sintética, a niveles nunca antes imaginados.

Indica que las preguntas relevantes tienen que ver con los alcances de la singularidad tecnológica para acabar con los problemas de la humanidad, y en términos prácticos se lograría que al menos 10 mil millones de personas puedan vivir con altos estándares de vida, cuando los alimentos, por ejemplo, puedan obtenerse a partir de cualquier desecho.

Sin embargo, los profetas de la distopía opinan que la singularidad tecnológica no llegará  a tiempo o no será suficiente para sustituir los combustibles fósiles, formados en miles de millones de años, y prácticamente agotados en apenas dos siglos de sociedad industrial y por ello el especialista advierte que estamos frente a la última oportunidad con acciones obligatorias para los próximos veinte años, y depende de que las grandes empresas e inversiones se organicen en planes de largo plazo, pero sobre todo, el compromiso de las personas en el mundo para crear y creer en una Era Verde, en la cual todas las tecnologías confiables de la postsingularidad puedan germinar y dar frutos casi inimaginables, apunta Barnatt.

Breve historia de la realidad virtual 1950-2016 (primera parte)

Posted in CIENCIA Y TECNOLOGÍA, Realidad Virtual, SOFTWARE with tags , , , on febrero 2, 2017 by zewx

por z kevorkianthl9uyjpbx

Introducción

La millonaria inyección de capital en el desarrollo de la Realidad Virtual (VR por sus siglas en ingés) permitió que 2016 fuera el año de la presentación en sociedad de los dispositivos para el mercado de consumo, como el Oculus Rift, Vive/Valve, Playstation VR Sony y Samsung gear VR, Google daydream, pero hay muchos otros visores que confirmaron los pronósticos de la agencia especializada Deloitte Global en el sentido de que la RV vendería sus primeros mil millones de dólares en 2016, con $700 millones en ventas de hardware y el resto en contenidos. Se espera desarrollo de múltiples aplicaciones para empresas y consumidores pero en la mayor parte de la actividad comercial se enfoca en videojuegos. Se estiman ventas de alrededor de 2.5 millones de headsets y 10 millones de juegos vendidos.

visor-1Una vez que salieron al mercado inició la consabida carrera por el abaratamiento y mejoramiento de los aparatos, y aunque siguen siendo poco accesibles para el consumo masivo, en poco tiempo (estimado de 3 años) podría asegurarse que cada casa tendrá al menos uno de estos poderosos transportadores a una infinidad de aplicaciones de mundos virtuales, que hoy se acomoda en el perfil de los videojuegos pero que tendrá un fuerte impacto en la generación de contenidos de todo tipo, desde el entretenimiento hasta la educación.

Pero hay múltiples preocupaciones que atosigan a los propios desarrolladores y especialistas, por los cambios a nivel ontológico y psicológico que conlleva el uso las tecnologías de inmersión, las nuevas narrativas y posibilidades a la vuelta de la esquina, pero sobre todo inquieta el efecto físico-sensorial de la inmersión, llamado “motion sickness”, kinetosis, es decir el mareo que se experimenta, y que para muchos es intenso, pero también debe ponerse máxima atención a las consecuencias del escaneo y registro de los gestos y emociones del usuario, oro molido para los demiurgos del marketing y grave tema para la privacidad de las personas.

Este artículo, en varias entregas, se propone explorar los orígenes tecnológicos de la Realidad Virtual, y aunque se trata de una tecnología desarrollada en las últimas décadas, sus raíces antropológicas podrían rastrearse hasta el corazón mismo de la imaginación del ser humano en la creación de realidades alternas, que podría remontarse hasta las cuevas de Altamira.

Pioneros y mavericks. Los años 50.

od-bj507_vrfilm_fr_20160303125122En los años 50 del siglo XX se observa una confluencia de las telecomunicaciones con las tecnologías para la generación de gráficos por computadora, escenario propicio en que personajes como el ingeniero en radares de EUA, Douglas Engelbart, propusieran convertir los lenguajes informáticos en representaciones gráficas, como herramientas para la visualización digital, ideas ignoradas en los años 50 pero que en la siguiente década se socializaron y empezaron a construirse.

Al hacerse accesibles las primeras computadoras basadas en transistores en lugar de bulbos se creó la sinergia necesaria para la fabricación de equipos cada vez más amigables, hasta la llegada de las computadoras personales cuando se allanó intensamente el camino para un uso amplio y desarrollo indetenible de aplicaciones y procesadores más eficientes de gráficos generados por computadora, 2D, modelado 3D, animación y más tarde la conjunción de tecnologías que dieron lugar al desarrollo de la realidad virtual.

Los radares para sistemas de defensa fueron los primeros simuladores de datos en “tiempo real”.

Diseñadores y científicos trabajaron aceleradamente en modelos avanzados de modelado por computadora para expresar múltiples conjuntos de datos como imágenes y simulaciones.1_ianfewyzisge2lzahrdata

En 1962 Ivan Sutherland desarrolló una pluma de luz con imágenes trazadas en una computadora y creó el primer programa de diseño, el Sketchpad, y abrió el camino para que los diseñadores industriales crearan modelos y planos de automóviles, ciudades y productos industriales diversos.

Uno de los antecesores más influyentes de la realidad virtual fueron los simuladores de vuelo en las postrimerías de la segunda guerra mundial y hasta los años 90. Proceso en el cual los complejos militares e industriales destinaron millones de dólares al desarrollo de tecnología aeronáutica para simular los vuelos de aviones y después tanques y buques, sumándose a la tendencia de desarrollo tecnológico de origen militar.

De las profundidades sinápticas a los artefactos culturales: Roger Bartra y su Antropología del cerebro (primera parte)

Posted in ARTE, CIENCIA Y TECNOLOGÍA, CULTURA on noviembre 28, 2015 by zewx

brainsoutEl libro Antropología del cerebro. Conciencia, cultura y libre albedrío, de Roger Bartra (Fondo de Cultura Económica, segunda ed. 2014)) es una sorpresa fascinante sobre esa materia nebulosa tan abigarrada de misterios, como el universo mismo, como es ese microcosmos electrobioquímico llamado cerebro, y el fenómeno de la conciencia; las conexiones humanas únicas desplegadas en la Cultura y sus relaciones con la realidad, sea ésta lo que sea: un caos cotidiano de sensaciones y decisiones en las que también orbitan la propia ciencia, el arte, y la manera como nos relacionamos unos con otros, donde los lenguajes y códigos han mutado como extensiones del sistema nervioso que se han confeccionado a lo largo de milenios y que se traspasan de generación en generación, de lo genético a lo aprendido.

En una hermosa alegoría del micro y macrocosmos, el cerebro humano encarna tantos misterios y especulaciones como el universo o las profundidades abisales, donde los escasos datos dan lugar a generosas historias científicas, pero en el caso de la bolsa encefálica del ser humano, la posibilidad de rebanarlo hasta lo absurdo, se descubren elementos que dan luz sobre algunos aspectos de su funcionamiento en un planeta global, masificado e hpermediatizado, pero otros prohíjan más interrogantes, y uno entre muchos otros casos, y que siguen maravillando a los científicos sin tener conclusiones claras, es el de Hellen Keller, del cual se conoce más profundamente por la propia iniciativa de esta deslumbrante mujer para documentar su caso y darle explicaciones ontológicas y epistemológicas de gran riqueza para las ciencias neurológicas.

Esta segunda edición ampliada, de 2014, impresiona a cada paso con un nutrido repaso por las más actualizadas investigaciones y teorías sobre el cerebro, la conciencia, la memoria, el conocimiento, la mente creativa, con un abanico impresionante de autores y experimentos que este antropólogo nos regala en su hermoso ensayo de menos de 300 páginas, una de esas lecturas que se saborean con lentitud, por la importancia de su contenido y las revelaciones que paso a poco dibuja el autor con sabia amenidad, para llevarnos suavemente de la mano, como en una charla peripatética a sus planteamientos para responder a la pregunta: ¿la conciencia, el lenguaje y la inteligencia son un fruto de la cultura o están estampados genéticamente en los circuitos neuronales?

Y justo ahí empieza la aventura de Bartra para explicar el funcionamiento de estos mecanismos: “la incapacidad y la disfuncionalidad del circuito somático cerebral son compensadas por funcionalidades y capacidades de índole cultural (…) El circuito neuronal es sensible al hecho de que es incompleto y de que necesita de un suplemento externo. Esta sensibilidad es parte de la conciencia”, y nos dice con claridad, para cerrar el capítulo de arranque: “Mi hipótesis supone que ciertas regiones del cerebro humano adquieren genéticamente una dependencia neurofisiológica del sistema simbólico de sustitución. Este sistema, obviamente, se transmite por mecanismos culturales y sociales”.

Esa es la clave y por supuesto que el autor irá paso a paso deshojado la cebolla de las numerosas investigaciones en distintas disciplinas de las ciencias del cerebro, desde las psicologistas hasta los fisiologistas, explicaciones antropológicas y lingüísticas-semióticas.

En 100 mil años el ancestro de los humanos duplicó el tamaño de su masa encefálica en un proceso evolutivo que sólo podría atribuirse a un motor social y cultural y las mutaciones de adaptación y supervivencia modificaron la estructura y anatomía cerebral-craneana con la expansión parietal y la forma de la corteza hacia una configuración esférica, braquicéfala que además redundó en una alteración de funciones y habilidades, atrofiándose unas como el olfato y modificándose otras como la vista y el oído, y fue como la asunción a un medio extraño y amenazante que produjo el sufrimiento necesario, señala Bartra, que para adaptarse sustituyó las sensibilidades perdidas con sistemas de señales y comunicación, aprendizaje y cultura hacia complejos sistemas simbólicos, incluido el lenguaje, detonante definitivo de lo que algunos científicos como Ian Tattersall prefieren considerar más una mutación que una adaptación al medio.

Bartra, siempre apoyado en los más recientes postulados científicos, calcula que al terminar el último periodo glaciar, hace más de 45 mil años, se desarrolló el proceso de expansión del exocerebro humano, como “un proceso estrechamente conectado al sistema nervioso central”, y esa es la esencia de su hipótesis, al contornear “procesos de plasticidad neuronal en circuitos que requieren de experiencias provenientes del medio externo para completarse de manera normal”.

 

En busca del método para la investigación documental web.

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, inteligencia colectiva, internet on agosto 23, 2012 by zewx

Por Alfonso Esparza C.

En el recorrido por el magnífico volumen de ensayos The Handbook of Internet Studies, editado en 2011 por Mia Consalvo y Charles Ess, trabajos como el de Niels Brügger “Web archiving: between past, present and future” cobran especial interés por su sistemática insistencia en la necesidad de un trabajo transdisciplinario que integre necesidades y experiencias en un modelo de trabajo creativo, en que tendrían un rol de primer orden las instituciones de preservación documental con programas y proyectos de documentación digital en proceso, para unificar iniciaivas, compartir experiencias, y evitar la duplicidad de funciones compatibles y factibles para ser compartidas, y sobre todo, no cometer errores de método que tienen un alto costo.

En el camino hacia la consolidación de las investigaciones de internet como objeto de estudio el ensayo de Brügger propone como punto de partida considerar al documento web como medio y como texto. La pregunta metodológica es si un nuevo tipo de documento debe ser tratado de una manera distinta de otros medios y textos. Para el autor la respuesta es afirmativa: en primer lugar porque se caracteriza por ser dinámico, efímero, cambiante, fundamentalmente diferente de los llamados medios masivos convencionales, a los que puede integrar en su contenido, y requiere nuevos métodos de investigación.

Estrategias de documentación web

Brügger  define sucintamente documentación web como cualquier forma deliberada y propositiva de preservar material publicado en ese medio, y distingue dos grandes géneros: micro y macro documentación. La pequeña escala emprendida por amateurs es micro archivar, a partir de necesidades de corto plazo, por una necesidad utilitaria para preservar un objeto de estudio en particular, como lo haría, por ejemplo,  un investigador o un estudiante al archivar los periódicos en versión digital en línea.

En contraste, macro archivar es un desarrollo de escala mayor que llevan a cabo instituciones con una especialización técnica y presupuesto a su disposición, con el fin de preservar materiales de interés para el patrimonio cultural en general. Aplica a grandes bibliotecas y museos que cuentan con equipo y software especializado.

El autor empieza por fijar un principio taxonómico para el material web, con dos características genéricas: es digital y se publica en internet. Puede clasificarse entonces como un subgrupo, por un lado un medio digital (junto con otros documentos electrónicos, consolas de juegos de computadora, CD-ROM/DVDs, etcétera) y por el otro lado, su existencia en internet, distribuido a través de una infraestructura de telecomunicaciones, mediante una serie de protocolos, hardware/software, etcétera que hacen posible una publicación con un sentido de transmisión, que está sucediendo simultáneamente en múltiples puntos.

En un análisis comprehensivo del material web como una unidad significante delimitada, se identifican cinco niveles analíticos, donde en un extremo se abarca todo el material que está presente en la red como un todo, y en el otro, la escala de un solo elemento, por ejemplo, una imagen o un hipervínculo en una página electrónica.

Una estratificación de cinco niveles el material a preservarse puede ser cualquier cosa desde la WWW como un todo a una “esfera web” a un sitio o un elemento en una página, siendo cada uno de estos cinco estratos un contexto mutuamente relacionado (WWW-esfera web- sitio web-página-web-elemento web).

Entre las diferentes capas del material documental una de las más importantes es la “esfera web”, conjunto de recursos digitales dinámicamente definidos distribuidos en múltiples sitios relacionados con un evento central, concepto o tema; el sitio web como unidad coherente de páginas, y una página electrónica individual.

El autor hace además una distinción entre material público y no-público, que resulta crítica en una investigación documental. En estas categorías se puede diferenciar según varias consideraciones:

1) Material no público o semi público: material documental mantenido en una intranet o sistema privado y que es accesible a un grupo reducido de personas; 2) material pre-público: bosquejos, diseños preliminares, versiones beta, borradores, dummies, etcétera; 3) material público que se ha publicado en otros medios como los impresos (periódicos, revistas, libros, bitácoras, etcétera) o se haya transmitido en estaciones convencionales de radio o televisión.

Especialmente en lo que respecta al periodo temprano de la historia de la WWW hay material preservado en medios no digitales, sin haber sido publicado pero que puede rastrearse desde la red almacenándose en otros medios, como los catálogos cinematográficos, entre muchos otros ejemplos.

Breve historia de la documentación web.

El simple acto de colocar un archivo de html en un servidor web conectado a internet para ser publicado, es ya de entrada una forma de preservación de un documento. La irrupción de la WWW en el mundo de los medios implicaba de entrada aunque con un alto componente arbitrario, la intención de preservar datos, documentos y archivos, hojas de cálculo, despliegues de pantalla, gráficas, etcétera, como respuesta a necesidades inmediatas. El quehacer académico documental no estaba animado entonces por una reflexión de lo realizado en el pasado ni se le consideraba como parte de un esfuerzo sistemático de salvaguardar los materiales de un patrimonio cultural digital.

Mucho de lo creado en esta primera fase está en poder de sus autores o desperdigado en internet, con varios ejemplos emblemáticos que ilustran esta circunstancia, como la primera pantalla web publicada por Tim Berners-Lee, en 1990, una reliquia extraviada.

Paradójicamente es este modelo amateur de documentación en la que se archiva gran parte de esa “prehistoria” de micro documentación que se suma a los documentos registrados en medios no digitales.

¿Bibliotecas estáticas de publicaciones digitales?

En el mismo periodo en que se documentaba de manera amateur por parte de individuos y pequeñas organizaciones, se fragua de manera concomitante un creciente profesionalismo e intenciones claramente formuladas de preservar la herencia cultural nacional publicada en internet.

El autor pone énfasis en la importancia de una innovación tecnológica toral en el desarrollo de la documentación web, los robots de búsqueda, que potencian las iniciativas de preservación documental.

Por ese entonces, a mediados de los noventa se formuló la idea de archivar virtualmente cualquier publicación de interés documental, sin importar su contenido o quién lo colocó en línea. Pero no sólo material similar a una publicación impresa, sino también el material dinámico multimedia.

Sin embargo, estas iniciativas emergen desde instituciones documentales como bibliotecas y hemerotecas, con criterios totalmente basados en la cultura de la biblioteconomía, al equiparar los documentos web con el material factible para ser impreso y encuadernado como los libros y los periódicos. Un ejemplo de esta aproximación es el Electronic Publications Pilot Project (EPPP) dirigido por la Biblioteca Nacional de Canadá en 1994, donde el criterio era seleccionar de todo documento web que tuviera la apariencia de publicación impresa, eran archivados y catalogados como tales, con los estándares convencionales de las bibliotecas públicas.

Más tarde esta misma institución los documentos en línea publicados en formatos como blogs y sitios web en general, son archivados con técnicas de selección y convenios de envíos de contenidos por parte de editores de publicaciones en internet relevantes para el archivo.

El Internet Archive fue creado en 1996 como organización no lucrativa, localizada en The Presidio, en San Francisco, Estados Unidos, con el propósito de preservar las colecciones históricas existentes en formato digital, y entre otros medios la web. Esta colección es construida con una estrategia de búsquedas en internet, subcontratada a una empresa privada, con criterios de vincular los datos y las estadísticas de rastreo de uso, es decir que se archiva lo que se vincula y lo que consumen los usuarios, de allí que la iniciativa sea transnacional de origen. La técnica de preservación empleada es la “instantánea” (snapshot), y cada ocho días es almacenado todo el material que se localiza mediante los buscadores con este método.

El Internet Archive dio inicio con un ejercicio bien delimitado, con la técnica basada en el evento, con las campañas presidenciales de 1996, en que se documentó todo lo vertido en los sitios web de los candidatos. Más allá de su “utilidad” estratégica, demostró la necesidad y potencial de la documentación web, en un momento en que su valor no era tan evidente.

Otros proyectos pioneros de preservación documental web es Kulturaw3, iniciado por la Real Biblioteca de Suecia, cuyo objetivo fundamental sería archivar todo lo relativo a este país y su cultura. Fue lanzado en 1996 con una primera cosecha documental en 1997, con la técnica de “instantánea”.

El archivo Pandora creado ese mismo año por la Biblioteca Nacional de Australia, con la técnica de selección con el enfoque de preservar “significativos sitios web de Australia y publicaciones en línea basadas en web”. Un limitado conjunto de sitios son seleccionados, archivados y catalogados, siendo una de las primeras iniciativas inspiradas en las colecciones de biblioteca, como el proyecto canadiense EPPP.

El Archivo Danés de Internet Netarchive.dk es una estrategia compartida entre la Biblioteca Universitaria del Estado y la Real Biblioteca, creado en 2005, luego de reformarse el fundamento constitucional.

En 2003 once de las más grandes bibliotecas nacionales de EE.UU. y el Internet Archive unieron fuerzas en la creación del Consorcio Internacional de Preservación de Internet. En 2004 el European Archive fue creado basado en la asociación entre bibliotecas, museos y otros órganos de preservación documental, que ha desarrollado desde entonces un circuito de conocimiento de las más recientes experiencias en la materia.

Una metodología dinámica, siempre subjetiva

El autor argumenta que una característica distintiva de archivar material publicado en web, independientemente de la estrategia del proceso, es una reconstrucción dinámicamente creada, la cadena de decisiones y criterios, incluso antes del arranque desde el URL de inicio, la selección entre las distintas estrategias y formas de archivar, en general y en detalle, implica que el documento archivado está basado en una decisión estrictamente subjetiva, por un individuo o institución.

Cuándo y desde dónde iniciar la selección y la ruta de búsqueda, y si serán incluidos o excluidos tipos específicos de archivos (imágenes, sonidos, flash, registro de chat o videoconferencia, hipervínculos activos, etcétera); si el material será recolectado de otros servidores, cómo será preservado este material; si será desde una perspectiva empírica y muy selectiva, o una planificada, de largo plazo, de escala regional, nacional o transnacional.

Aunque la problemática es la punta de un iceberg, se suma un elemento no menos relevante, que es el carácter cambiante y no estático del material que circula en la web, porque incluso los periódicos en línea con formato web podrían modificar sustancialmente o quitar de circulación un documento, y quedar disponible en versiones en cache o textos fantasmas del original, además de las deficiencias inherentes a la deliberada omisión en el proceso de selección. Hay sin embargo otras dos severas fuentes de error: las relacionadas con el tiempo, y los generados por problemas tecnológicos durante el proceso de documentar-archivar.

También destaca Brügger que el documento web está en riesgo de ser sujeto de la siguiente paradójica doble inconsistencia: por un lado el archivo no es exactamente como estaba realmente publicado originalmente en internet, porque en el proceso de guardar siempre se pierde algo. Por el otro lado, el archivo puede ser exactamente como nunca fue, porque siempre se obtiene algo diferente, siendo una gran paradoja que el documento preservado nunca es como la web “en vivo”, ya que el texto escrito, imágenes/gráficos, sonidos, imágenes dinámicas podrían faltar o algunas de las posibilidades de interactividad podrían no ser funcionales en la versión archivada.

Versiones de las versiones…

El proceso de archivar, en última instancia crea una versión única, pero no una copia del documento originalmente publicado, de lo cual se coligen dos consecuencias: se ha soslayado la relevancia de que un mismo sitio web “guardado” en distintos archivos en idéntica fecha y hora, difiere sustancialmente uno de otro.

La segunda consecuencia es que un documento nunca es la versión de un original y no se puede esperar encontrarlo en la forma en que fue publicado; tampoco se puede encontrar el original entre las distintas versiones, ni se puede reconstruir a partir de éstas.

La labor de los académicos especializados llevaría a un punto cercano a la crítica del texto, según la filología de manuscritos, en tanto que se trabajaría con versiones de un documento, en que las variantes son comparadas entre sí, en ausencia de algún original “autorizado” disponible. De allí que algunos de los métodos de la filología clásica del texto probablemente son relevantes para lo que Brügger y sus colegas llaman “filología web”, aunque es preciso, subraya, que debe ser analizado con la especificidad del material de medios incorporados en el documento web.

Al ahondar en el análisis el autor despliega una serie de características únicas a tomar en cuenta en el proceso de documentación:

–        Es un texto de varias capas, en el sentido de que puede ser examinado en niveles que se extienden desde el texto inmediatamente percibido (las unidades significantes que se ven y escuchan), hasta la variedad de elementos textuales subyacentes que no son percibidos de manea inmediata (el código fuente: HTML, XML, etcétera), así como las capas de la comunicación por internet (los modelos de protocolo TCP/IP, OSI o similar).

–        La escritura digital hace posible que el documento web archivado pueda ser continuamente re-escrito, en un sentido distinto al empleado tradicionalmente en los manuscritos, ya que la continua reescritura se da mayormente después de que el texto fue archivado, e incluso, en la perspectiva de una preservación documental de largo plazo, “migrar” a otros formatos.

–        La escritura digital permite en muchos casos comparar documentos archivados automáticamente.

–        Versiones idénticas del mismo material pueden existir en distintos archivos, muchas veces en sitios web pequeños y poco complicados, rara vez actualizados.

El futuro de la archivonomía web

Resulta imperativo el trabajo transdisciplinario entre las instituciones con iniciativas de preservación documental web y las comunidades de investigación de internet y establecer mecanismos de cooperación que no han sido aún establecidos.

La colaboración puede basarse en una variedad de formas, siendo tres las más obvias:

–        Las colaboraciones pueden se integradas en el día a día del quehacer académico en las operaciones del archivo web, por ejemplo al asociar al proyecto a un consejo asesor en que participen investigadores de internet y otros usuarios.

–        La colaboración puede ser ocasional, con relación a proyectos de investigación específicos o tareas concretas de archivar, por ejemplo, con investigadores que ya cooperan con instituciones que realizan programas de preservación documental web, en la planeación del proyecto de archivo, y no después de que se ha avanzado.

–        Estos dos tipos de colaboraciones pueden tener lugar en una escala global, con relación a proyectos transnacionales de investigación.

En lo que toca a la interacción entre los archivos y los investigadores se presentan tres desafíos que deben ser mencionados, advierte Brügger:

1) Debe ser iniciado un rastreo y preservación dirigidos de material heterogéneo que no ha sido hecho público, posiblemente con otros institutos dedicados a la preservación patrimonial como los museos.

2) Las instituciones dedicadas a la preservación documental web deben empezar a experimentar de manera más sistemática con las otras dos formas de archivo en la red: captura de pantallas y la entrega-distribución de material. Ambas tareas tienen la perspectiva de preservar tanto material como sea posible del patrimonio cultural de relevancia histórica y antropológica.

3) Las discusiones deben ser iniciadas de acuerdo con los alcances del software analítico utilizado en la web en vivo, que puedan ser aplicados al material archivado, teniendo en cuenta la composición específica de cada componente.

Finalmente, no menos trascendental es que la comunidad de investigadores de internet confronte a la brevedad el desafío de difundir el conocimiento sobre registro documental web tanto entre las otras disciplinas de las ciencias y humanidades (ciencia política, sociología, lingüística, literatura, artes, comunicación, historia, etcétera), tan sólo porque desde hace algunos años internet ha sido una parte integral de la infraestructura de comunicación de nuestras sociedades y el pensamiento contemporáneo.

Hacia una filología en los estudios documentales en la web / primera parte

Posted in CIENCIA Y TECNOLOGÍA, comunidades virtuales, internet on julio 10, 2012 by zewx

Por Alfonso Esparza

En el curso de una investigación de más largo aliento sobre los usos sociales de las telecomunicaciones en los últimos 30 años, la revisión de las fuentes arrojó una evidencia empírica que después comprobé: los estudios mismos de los medios electrónicos en red han cambiado, y como otras disciplinas han encontrado legitimidad en la sistematización de los modelos de análisis del objeto de estudio. En la lectura de materiales diversos, obtenidos de internet, algunos que datan de mediados y fines de los años 90 y otros tan recientes como el año 2011, me encontré con la serie de manuales de comunicación y medios de Wiley-Blackwell, con un grueso volumen: The handbook of internet Studies, editado por Mia Consalvo y Charles Ess, publicado en 2011.

Sus casi quinientas páginas no tienen el menor desperdicio, reúnen una familia de ensayos imprescindibles para entender este objeto de estudio que cambia “en tiempo real”, híbrido por excelencia, que se ha acomodado a la impronta de “nuevo medio”, aunque toma elementos de algunos tan antiguos como la escritura, y hoy tan comunes como la telefonía o la radio, que después del asombro casi mágico de los primeros días, en pocas décadas se integran a la vida social, transformándola en el camino.

La forma en que se almacena y distribuye la información en Internet y cómo impacta la vida de las personas, son los ejes de atención para la mayoría de especialistas de este volumen, muchos de los con más de 30 años de experiencia en las tecnologías digitales.

Esta lectura me llevó en un vuelo rasante por mi propia experiencia, a partir de 1996 con la incursión en el uso, publicación y desarrollo de contenido semillero de comunidades virtuales con las herramientas disponibles en Internet. Estaba ante el nacimiento de la web, encontré sentido en una visión de perspectiva sobre la importancia del conocimiento que empezaba a circular, de manera libre y desordenada, con un potencial sumamente pretencioso como plataforma multimedio de publicación global.

La lectura de estas dos piezas abrieron esa óptica, que ahora considero una asignatura indispensable para los académicos cuyo objeto de estudio es internet, explica que en la organización del conocimiento que se publica y circula en Internet desde hace por lo menos 25 años, hasta hace muy poco concitó el interés de preservación y la organización óptima de estos materiales, con lo cual se abren las puertas a una aventura problemática de gran envergadura, dentro de la cual se apetece una buena revisada.

Antes y después de internet

La lectura de estos dos ensayos y sopesar el contenido del grueso volumen por abordar, remite a la importancia del planteamiento transdisciplinario para la preservación del acervo digital en web en nuestro idioma (por no mencionar la tarea no menos importante de las leguas indígenas), habida cuenta de la compleja problemática metodológica y conceptual de la archivonomía para el multimedio digital en web, con un interesante e indispensable debate en la definición de lo que es un documento web, sus componentes, y metodologías para ser archivado, consultado por el público en general y los especialistas, investigadores y comunidades académicas en particular, en la medida en que incide, como efecto mariposa, desde el trabajo de gabinete de rastreo y registro de fuentes, hasta las grandes políticas nacionales de preservación patrimonial.

Es una problemática múltiple, que de entrada presenta un diferenciador paradigmático del documento web: el “efecto streaming” o del famoso “tiempo real”, es decir, la web “en vivo”, cambiante, que se metamorfosea a cada momento, y que en cada vez mayor proporción es un componente de información “volátil”, un flujo flotante en la comunicación binaria inscrita en la dinámica de chats, comunidades virtuales, weblogs, redes sociales, y por otro lado. No menos complicada resulta la estimación de la parte del conocimiento almacenada en sistemas cerrados o parcialmente restringidos, en ambientes de servicios propietarios (correos electrónicos, mensajeros instantáneos, e intranets, etcétera), que serían dos puntas de un iceberg que apenas se empieza a dimensionarse con una visión transdisciplinaria de largo plazo.

En el año 94 del siglo pasado se editó el primer mensaje en hipertexto que se hizo público en Internet, y con ello, su autor, Tim Berners-Lee, dio nacimiento a la WWW, y en ese momento y en los siguientes diez años, los usuarios de esta tecnología, principalmente académicos, no consideraron un plan consistente ni pudieron en marcha metodologías adecuadas para archivar y organizar la información con fines de preservarla como documentos historiográficos de este conocimiento generado en la incipiente era de la web, como en su momento se emprendió la organización de materiales en otros formatos electrónicos predigitales como audio y video en distintos formatos de cinta analógica, almacenados y organizados en la forma de videotecas y fonotecas, con metodologías muy semejantes a la de todo acervo documental.

Bajo el espíritu libertario y autónomo con que se gestó internet, se plantearon estándares de arquitectura topológica y protocolos necesarios para la comunicación mediada por computadora (TCP/IP y HTML, entre otros) y la necesidad de estandarizar los códigos y lenguajes en el rico despliegue visual de contenidos, típico de la web, una tarea admirable que continúa sin descanso, y con la activísima participación del mismo Berners-Lee. Sin embargo, los documentos y en general el conocimiento vertido en publicaciones en línea, la mayor parte único, se dejó al libre albedrío de individuos y organizaciones, con un criterio que no iba más allá de la metáfora visual de las “carpetitas” aportado por los sistemas de cómputo personal comerciales, Windows y MAC, sin otro destino que otra carpeta en algún servidor, y la arquitectura designada por ingenieros y web masters.

Pero sería equivocado pensar que no había interés e iniciativas muy importantes para archivar y preservar materiales producidos en la WWW, al contrario, se optó por un método bastante laborioso y manual en gran parte, la única manera que se entendía y que se hizo incluso hasta la era del CD-ROM, y se hace con el DVD, exactamente como las cinematecas y videotecas, incluso los discos duros, embodegarlos como las viejas bibliotecas y hemerotecas. Los documentos en web se archivaron recurriendo a la impresión en papel, para llenar carpetas, estas sí físicas, y metros y metros cuadrados de espacio en bodegas. Pero al pasar el tiempo, una parte importante de ese material, ya no está disponible en la misma web, cambió de ubicación o fue modificado, además de no ser copia fiel del original, sino una versión entre muchas, pero además siendo prácticamente imposible imprimir los elementos dinámicos del contenido, porque se adoptan criterios como por ejemplo, eliminar deliberadamente ciertos componentes como algunas imágenes, para “economizar”. Sencillamente se excluye la parte dinámica de la web, y con la Web 2.0 esta problemática se potencia de manera sustantiva.

Historia de la documentación web

Hasta hace unos años se emprendieron esfuerzos consistentes para cubrir esta deficiencia, y tanto los principales usuarios de estas bases de datos, la comunidad académica, y las instituciones, han emprendido incluso programas nacionales para la preservación de archivos en formato web, considerados como indispensables bajo el amparo de una política pública de patrimonio cultural, pero siempre con criterios heterogéneos, al libre albedrío o necesidades de los involucrados en los proyectos específicos.

El problema es complicado de resolver, aun con las herramientas hoy a disposición de cualquiera, porque con un ejemplo muy sencillo, que propone Brügger en su ensayo, ante la necesidad de “archivar/guardar” la edición completa de un periódico o cualquier publicación electrónica en línea de una fecha determinada, se puede hacer con herramientas de grabación “en vivo”, pero precisamente por esa condición, cuando se termine de guardar o grabar en directo, a una velocidad aceptable de ancho de banda, que tardaría un par de horas, al concluir se tendría una versión distinta de la que está en línea al término del proceso, que cambió en ese breve lapso de tiempo, en un grado que hace altamente inestable el resultado. Y aquí es donde vale la pena recurrir a las reflexiones de estos autores.

El ensayo de Barry Wellman es una visión histórica muy concisa de los estudios de internet, en pocas páginas devela tres fases: la “prehistoria”, la era de los expertos, marcada por el desarrollo de herramientas de groupware; la era del nacimiento de la WWW, los motores de búsqueda y el crecimiento de la población usuaria; y una la era del análisis y las políticas de preservación documental de internet.

Cita dos antecedentes míticos: el profético Network nation, en 1978, de Roxanne Hiltz y Murray Turoff, que vinculaba las ciencias sociales con las comunicaciones computarizadas, cuando no existía la palabra “internet”.  Hasta los primeros años de la década de los 90 este desarrollo y usufructo del mismo era privativo de los grupos de científicos en informática, que diseñaban y compartían herramientas bajo la familia de groupware, con las hojas y aplicaciones donde reinaba el modelo Lotus, y el conocimiento se generaba y se quedaba en los laboratorios, como compendia otro hito bibliográfico de esta “prehistoria”: Connections, de Sara Kiesler. El esplendor de este momento llegó a su punto máximo con las herramientas de telepresencia. Todo estaba listo para el despliegue social de internet con su glamorosa hija, la web.

En lo que Wellman llama la primera era de los estudios de internet, el desarrollo y “personalidad” de la red era determinada por los eruditos, muchos menores de treinta años, que decidieron ir más allá de compartir entretenidas piezas de groupware, al darse cuenta que la comunicación mediada por computadoras aportaba una conectividad sin igual. Sin embargo, nuestro autor cuestiona la visión aislada que llama “parroquiana” y utópica, al pensar que lo que sucedía en internet sólo era valioso para el medio mismo, al que se daba una categoría de transformación profunda, igualitaria, democratizadora y global, sin considerar las asimetrías geopolíticas en la adopción de estas herramientas y las diferencias de poder y estatus que pueden condicionar la interacción online.

En esta etapa entra en escena los distopianos, posmodernos próceres del ludismo que consideraban este nuevo medio deshumanizante y pernicioso, que podría sustituir las relaciones humanas. Ni panacea ni caja de Pandora, porque lejos de que las simples interacciones equivalgan a una comunidad, como muchos “twitteros” y “facebookeros” pregonan, y lejos de ser una maldición, como querían los apocalípticos, y para Wellman es innegable que internet es “una red social basada en computadoras, de hecho el componente más amplio del mundo, una red en la cual todos los puntos se conectan, directa indirectamente”.

Escribe que la segunda era de los estudios de internet empieza alrededor de 1998 cuando entidades gubernamentales, intereses comerciales y académicos apetecieron registros sistemáticos de lo que se publicaba en internet, pero esta euforia, se frenó como un coitus interruptus de los especuladores bursátiles que pregonaban una “nueva realidad”: primero el espantajo del Y2K y después con la burbuja de las empresas “punto com” en el 2000. Menciona un curioso efecto de este desplome económico y psicológico, con el impacto en la revista Wired, una especie de biblia exaltada del iluminismo tecnológico, con McLuhan como santón, que pasó de tener 240 páginas en 1996, que se redujeron a 180 en septiembre de 2001 para llegar a las 148 páginas  en septiembre de 2003, convirtiéndose en una publicación estilo mecánica popular del internet.

Sin embargo había dos elementos salvavidas para la explosión de la burbuja con la caída estrepitosa del NASDAQ (índice de cotizaciones de empresa tecnológicas que se creía lideraría la “nueva economía” de una “nueva sociedad”), tanto la guerra de navegadores Netscape vs. Explorer, que a la larga benefició la experiencia del usuario, y el desarrollo y refinamiento de los motores de búsqueda, primero entre muchos otros, Altavista, Lycos, Yahoo y el gigante Google, verdaderos motores de expansión y aprendizaje para mejorar, madurar y anidar en las nacientes comunidades virtuales y amasar el futuro fenómeno de YouTube, Blogger, Facebook, Twitter, entre decenas de competidores y emuladores, y una familia de miles de aplicaciones multiplicándose, configuradas para que el uso mejore la herramienta (dejamos para otra ocasión el debate sobre el software libre).

La tercera etapa de los estudios de internet, montada en este crecimiento exponencial, al grado de que se sustituye “naturalmente” en el camino comunidades virtuales por redes sociales y cibernautas por usuarios, a secas, como los ferrocarriles, la energía eléctrica, las carreteras, el teléfono, el uso del espectro radioeléctrico, y la convergencia digital, el hipermedio en la nube de la banda ancha. Estamos en el umbral de una conciencia clara sobre la necesidad de documentación y análisis, y la construcción de las herramientas conceptuales, metodológicas y técnicas, ante un medio único en su tipo, cuya característica es la volatilidad mutable.

Quedaba claro, sin embargo, que no se trataba de una nueva realidad o una nueva sociedad, sino de una herramienta poderosa que cambiaría para siempre la forma en que las personas se comunican y obtienen información y conocimiento, pero también lo producen y lo circulan en redes planetarias: 2 mil 267 millones 233 mil 742 de personas con acceso a internet (Internet World Stats (IWS) http://www.internetworldstats.com/ 31 de diciembre de 2011).

Llegó el momento de la documentación y el análisis, de los programas y las iniciativas, las políticas públicas nacionales, las grandes universidades y centros documentales emblemáticos.

Es aquí donde Niels Brügger explica con fino detalle la historiografía de los estudios de la archivonomía web: quien pone la mira analítica en el corazón del debate sobre el quehacer del investigador social en internet: la web documentada se discute básicamente como un medio y como texto, y se plantea dos preguntas nodales: si el documento web archivado es un nuevo tipo de documento, y si la respuesta es afirmativa: ¿debe este documento ser tratado en forma diferente cuado se usa como objeto de estudio?

En una segunda parte abordaremos este interesante estudio de Brügger, en que revisa la muy fresca historia de la archivonomía micro y macro de la web, las diferentes estrategias de archivo de documentos web, con ejemplos emblemáticos, y lo más importante de su ensayo, por un lado la visión filológica en el estudio y uso de documentos publicados en este medio, y el carácter específico de texto multicapas, sus propuestas de reglas y principios, con un enfoque eminentemente transdisciplinario.

Derecho a la información y brecha tecnológica / 1

Posted in CIENCIA Y TECNOLOGÍA, CULTURA, SOFTWARE with tags , , , , on diciembre 9, 2011 by zewx

Uno de los principales argumentos que han acompañado al desarrollo de las tecnologías de información y comunicación (TIC) plantea que se trata de un instrumento paradigmático, clave para la conformación la sociedad del conocimiento, previo paso por la sociedad de la información, que vendría gestándose desde hace varias décadas, desde que la computadora se hizo personal. En contraste con este supuesto casi místico, la retórica filotecnológica no aplica para los países atrasados y con serios rezagos en la distribución de la riqueza, con mucha pobreza y poca educación, como México.

De esta dialéctica entre los deseable y lo posible, más que una oportunidad histórica de cambio y avance social cuyo único parangón sería la invención de la imprenta, significa una circunstancia paradójica –por decir lo menos, sin ser alarmistas–, si concedemos algún crédito a quienes hace una década decían con optimismo que los países emergentes tenían la disyuntiva de aprovechar sólo lo mejor y más avanzado de la experiencia de prueba-error de las naciones desarrolladas en desarrollo tecnológico.

A diez años de distancia, estos postulados distan mucho de asemejarse a la realidad, cuando en los países “emergentes”, algunos como la India llevaron este potencial a su mejor expresión, pero en otros la brecha se aprecia más compleja y profunda, al adoptarse de una manera desproporcionada las peores prácticas en el aprovechamiento de las TIC –en primer lugar falta de políticas públicas y programas nacionales de alfabetización digital–, que hoy campean en los usos generalizados de individuos y organizaciones que –con emblemáticas excepciones–, precisamente nos dan parámetros observables para la reflexión académica transdisciplinaria.

A manera de introducción de una serie de piezas editoriales pensadas para motivar la discusión y el diálogo de estos importantes temas, en muchos sentidos estratégicos para el desarrollo de los modelos de conocimiento implicados en la adopción de las TIC, en  permanente transformación, proponemos algunos elementos que ayuden a perfilar un análisis colectivo.

 

La democratización de los medios de comunicación en las redes electrónicas, y la llamada “revolución digital” en el ámbito de una cultura globalizada, partiría de un axioma dual: libre acceso a la información, que requiere de dos condiciones para cumplirse: que la información esté disponible sin restricciones, y que el usuario cuente con los medios para obtenerla. Sin embargo en el origen de la ecuación está su contradicción, al obviar el uso de las comunicaciones mediadas por computadora, en el proceso acelerado de fusión de las computadoras y las telecomunicaciones, que incluso sorprendió mal parado al propio Bill Gates, que en un principio no creyó en Internet y después enmendó su error con su famoso libro La supercarretera de la información y las inversiones trogloditas para lanzar Explorer, al comprender el inconmensurable potencial económico del ciberespacio.

Según los apólogos de la Nueva Economía, editores de publicaciones emblemáticas como Wired, como el autor del libro Out of control, Kevin Kelly, que advirtieron que las grandes transformaciones serían inevitables, imparables, incluso violentas (Alvin Toffler en Cambio de poder) pero que a la larga harían del ciudadano común un ser más propenso a ser inteligente, lector y productor en potencia de conocimientos, con un acceso libre a la información, ergo, al conocimiento, con una serie de artefactos y servicios “inteligentes”, desde hogares automatizados hasta banca electrónica, donde el teléfono celular transitaría de la simple telecomunicación móvil, a ser una especie de control remoto de nuestras vidas digitales, hoy conceptos que deben revisarse, por supuesto, en tanto que su aplicación, aunque el futuro nos alcance a cada segundo, dista mucho de ser homogénea, e impone una brecha económica y cultural aún más formidable que la que nos tenía encerrados en el “tercer mundo”.

La industria está de plácemes dispuesta a hacer negocios multimillonarios basados en un nuevo y “definitivo” auge en la masificación de la computadora, ahora anidada en dispositivos de telecomunicación personal de banda ancha. Las millonarias ganancias se siguen basando, por un lado, en la obsolescencia planificada, una práctica de filosofía empresarial heredada y mejorada de la era industrial de los electrodomésticos, exportada ahora a las industrias del hardware y software de computadoras y dispositivos móviles, con una cadena productiva que no tiene fin, al contrario, se beneficia de la sustitución de aparatos que caducan por la emergencia de nuevos modelos, fetichizados en agresivas campañas de mercadotecnia viral, independientemente de que los productos sean de muy buena, mediana y hasta mala calidad, porque ante la velocidad de la cadena de producción, no hay lugar ni tiempo para la crítica. Esta práctica de mercado abarca la producción de software comercial, que “corre” de forma simbiótica en la categoría propietaria de los derechos y licencias de uso, que el consumidor final desconoce y no tiene otro remedio que aceptar.

En el curso se ha integrado un impresionante mercado compartido entre tecnologías digitales personales y corporativas y las telecomunicaciones de última generación 3G-4G (desde la variedad de iPhones y iPads en la historia reciente de Apple, hasta la malhadada leyenda negra del Windows Vista), ya que hay poca oportunidad para la crítica especializada oportuna, antes de la adopción masiva, a veces tensada hasta la histeria colectiva, en la estampida fanática de cada lanzamiento, desde Beijing hasta Los Angeles (1).

Internet: vástago rebelde y amorfo de la posmodernidad.

Con más de sesenta años de historia del cómputo en México, la globalización trajo consigo a un hijo prodigioso pero rebelde, llamado Internet, creado en los sótanos militares de la “guerra fría”, finalmente presentado en sociedad en los años 70 del siglo pasado, se lo fueron apropiando, primero los científicos académicos, luego las tribus tecnófilas posthippies, y finalmente los adolescentes del milenio, en un no tan largo proceso de socialización, que debe mucho a la comunidad hacker original, que también se ha transformado sustancialmente en el camino; algunos mantuvieron su espíritu libertario de altruismo radical, y que hoy son responsables tanto de la filosofía y logros del software libre, como de intrusiones a sistemas informáticos en nombre de las más diversas causas y banderas, y hasta creadores de virus y malaware.

Muchos otros se mudaron de la noche a la mañana de lóbregos cuartuchos de cocheras y azoteas, a los edificios futuristas del “valle del silicio”, con tantos millones de dólares en cada bolsillo como para fundar imperios multinacionales y decidir en parte la ruta de esta voraz entelequia llamada cibrespacio, en el cual habitan hoy en día 2 mil millones de personas de todos los países del mundo y que, según el cristal con que se mire, serían la semilla de una ciberciudadanía en proceso de formación hacia la sociedad del conocimiento, con capacidad de ubicuidad global pero arraigado corazón hiperlocal, o triste y sencillamente la formación del mercado más grande nunca soñado por los más afiebrados capitalistas.

LA WWW: Caja digital de Pandora y su gemela 2.0

La emergencia de la WWW a mediados de los 90, llevó en una década al primer gran signo de alerta, cuando miles de negocios florecieron o se mudaron a la Red en una fiebre del “oro digital”, que terminó en la infausta burbuja de las empresas “punto com” que explotó como agria bienvenida al siglo XXI, con una fuerte dosis de cruda realidad, nada virtual, sino eminentemente social, porque  muchos proveedores esperaban una curva de aprendizaje-consumo también a velocidad telemática, pero con las viejas estructuras y lógica de los consumidores cautivos en mundos cerrados como America On Line, cuyo modelo de tecnología Push fracasó escandalosamente, y que hoy vuelve por sus fueros con sus hijos y nietos super carismáticos como son los servicios de Facebook y Twitter, con un rostro chamaco, más amigable y “abierto”, que habla idiomas nativos porque los nativos son invitados gratis, sin que esto deje de ser un millonario negocio transnacional.
Al igual que Google y su asombroso y cada vez más “inteligente” sistema de búsqueda, de información, conocimiento y geolocalización, estos emporios del ciberespacio se ganaron la lotería gracias a la entusiasta y diligente contribución de todos y cada uno de nosotros, que enriquecemos este sistema cada vez que lo usamos, y que aprende con cada tecla que apretamos, en cada trozo de información que enviamos por correo electrónico, sea fotografía, información personal, intimidades o banalidades, porque no hay coma o punto que no se guarde en los servidores de estas empresas, cuya ubicación física es secreto corporativo.

Después de la “burbuja” de fin de siglo, lo que aprendieron los gigantes de las telecomunicaciones digitales fue que los entonces nuevos medios electrónicos en red llegaron para quedarse, por una sencilla razón, propiciaron exponencialmente la creación de comunidades virtuales, sólo habría que esperar un poco de tiempo para regresar con esas grandiosas ideas de los mundos virtuales, incluidos por supuesto enormes “malls” y pasatiempos de inmersión, donde las llamadas “redes sociales”, son el último grito de los hábitos de consumo, ahora en redes móviles que importan los servicios on-line incluidos Facebook y Twitter, y el megamashup llamado Google, son monarcas de la Web desde hace varios años, hoy presentes de manera incisiva los modelos de comportamiento en el mercado simbólico del cine y la televisión, y en un corto periodo de tiempo han posicionado modelos de negocio que hasta hace unos años eran sólo posibles en teoría, y por primera vez generan utilidades a partir de la administración de bases de datos construidas a partir de la arquitectura colaborativa para los usuarios de Internet, lo cual garantiza una multiplataforma de publicidad y empuje de productos y servicios que acompañan al cibernauta en cada acción que lleva a cabo según sus hábitos de navegación y sus gustos personales.

Sirva esta vertiginosa revisión para situarnos en la actualidad en que se presenta una gran disparidad entre el valor potencial de la red y la real capacidad de acceso individual, cuando la banda ancha se convierte en un factor decisivo, y al mismo tiempo en un bien que se encarecen países como México, donde curiosamente vivimos un momento similar al entusiasmo de los primeros años de la WWW, ahora gracias a la explosión de la Web 2.0, que supuestamente traería de la mano la democratización definitiva de Internet, antes de que nos diéramos cuenta, en un par de años, los grandes corporativos mediáticos vieron una oportunidad de oro para montarse en una plataforma aparentemente idónea para sus intereses, en la lógica de los medios masivos, por no mencionar las “estrategias de redes sociales” de la comunicación social de los gobiernos, convertida en una válvula de escape más que en una comunicación interactiva con los ciudadanos.

Y a todo ello, ¿dónde quedó el proyecto social, libre y abierto, de la información y el conocimiento para todos? La brecha tecnológica se vuelve cultura, histórica, cuando se asimila un conocimiento en el momento en que comienza a ser obsoleto, como es la de por sí rezagada producción de contenidos y conocimientos nativos para consumirse on-line, pero que resultan incompatibles con la movilidad que hoy representa el uso de dispositivos personales móviles, iniciativas que resultan irrisorias comparadas con las millonarias inversiones en aplicaciones de uso comercial.

Sirva esta apretada síntesis para proponer una serie de reflexiones encaminadas al diálogo transdisciplinario

Si hay algo que caracteriza al mercado de las telecomunicaciones es que la velocidad de su desarrollo y expansión transforma a su paso modelos sociales, culturales y evidentemente la forma en que se informan y comunican las personas y cómo esa comunicación influye en su vida cotidiana, en sus comportamientos, desempeño académico y profesional y hasta sus hábitos, ocio y hábitos patológicos.

La antítesis del optimismo tecnológico que es parte indispensable del motor mercadotécnico de la industria tiene que ver con los números mismos que la sustentan y en el caso de México es más que emblemático, en vías de convertirse en un síndrome estructural, si se observa que el crecimiento de este segmento de la economía crece 20 por ciento en el país, frente a un raquítico PIB de menos de 3 por ciento, que se estima para cerrar 2011, pero no precisamente porque el sector sea ejemplo de dinamismo, porque este crecimiento desproporcionado se debe principalmente a la altísima concentración del sector, y las prácticas monopólicas que acaparan un mercado en expansión principalmente de la telefonía celular, que se ha convertido en un servicio de  primera necesidad ante los altísimos costos tarifarios y de instalación de telefonía fija. (2)

Los líderes del mercado en franca “guerra” por los usuarios de múltiples servicios que cada vez se distribuyen más a través de la telefonía móvil, sobrepasan con mucho la capacidad de los órganos reguladores del Estado, en este caso la Comisión Federal de Telecomunicaciones (COFETEL), durante años paralizada por los poderes económicos dominantes, y cuyo “activismo” reciente se politiza y los nuevos actores favorecidos por la convergencia, ponen un campo minado que indefectiblemente lleva a tribunales y que al final del día implica parálisis institucional a costa, como siempre, de los ciudadanos y los usuarios, que se ven sometidos a las políticas leoninas de las empresas en la contratación de servicios fetichizados en la mercadotecnia, como paradigma de velocidad “vertiginosa” y acceso “total”, siendo en realidad pocas opciones, de mala calidad, caros y plagados de abusos en la “letra chica”.

Un ejemplo reciente en el país es el del abusivo redondeo por minuto en la telefonía celular, que se impuso durante años a los usuarios, ahora escandaliza a los legisladores, curiosamente cuanto entran otros poderosos actores con gran apetito por este jugoso pastel que se llama triple play, y cuádruple play si se agregan las telecomunicaciones móviles multimedia de banda ancha, tan mítico como el tesoro de Moctezuma.

Aunque esta disparidad se asemeja a la situación de muchos otros países en el mundo, el caso mexicano reviste especial problemática y ofrece en el plazo inmediato particulares visos de urgencia (3).

En busca de un mapa claro de la problemática podemos partir de cuatro coordenadas transversales, que responden a fenómenos estructurales y coyunturales que lo componen:

1) El uso de las TIC como nuevo umbral-referente del acceso al conocimiento.

2) El derecho a la información en la era digital, y la legislación que rige en el país.

3) Concentración monopólica de la industria-mercados.

4) La indigencia y el analfabetismo digital.

Un eje transversal, que da una dimensionalidad particular al problema, es la inteligencia colectiva potencial inscrita en el acceso a la Web 2.0 y en particular en la plataforma móvil, que da al usuario no sólo acceso a la información mundial, sino capacidad de generar contenidos y opinión, y a la larga influir en las decisiones económicas y políticas.

A mediados de la presente década se propuso este concepto como una especie de “tierra prometida” para los cibernautas, y que nos proponemos analizar en las siguientes entregas, teniendo en cuenta que este segundo auge libertario en la WWW se base, principalmente, en el consumo de banda ancha.

NOTAS:

(1) Según Hamadun Touré, de la Unión internacional de telecomunicaciones (UIT), en el año 2000 la cantidad de personas que ocupaba un teléfono eran cercana a los 500 millones, lo que en el 2011 llegó a los más de 5 mil millones. A principios del año 2000 había en el mundo solamente 250 millones de usuarios de Internet, cifra que llegó a 2 mil millones de usuarios en 2011.

(2) La Encuesta en Hogares sobre Disponibilidad y uso de las Tecnologías de la Información reveló que a mayo de 2010, en el país 38.9 millones de personas son usuarios de una computadora y 32.8 millones tiene acceso a Internet. El Instituto Nacional de Estadística y Geografía (INEGI), informó que los usuarios de internet registraron un aumento del 20.6% respecto al 2009. En México existen 8.44 millones de hogares equipados con computadora, lo que representa un 29.8% del total de hogares en el país y significa un crecimiento de 13.2% con relación a 2009. INEGI informó que en cuanto a conectividad 6.3 millones de hogares cuentan con conexión a Internet, lo cual representa 22.2% del total en México, lo que implica un crecimiento del 22.9% respecto de 2009. http://www.inegi.org.mx/Sistemas/temasV2/Default.aspx?s=est&c=19007

(3) El promedio de suscripciones de banda ancha inalámbrica en los 34 países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) es de 41.6%, donde Corea ocupa el primer sitio con 89.9% y México el último con sólo 0.5%. Fuente: CN Expansión: http://www.cnnexpansion.com/tecnologia/2011/06/23/mexico-desconectado-de-la-banda-ancha

Web 2.0: ¿Redes sociales vs Inteligencia colectiva?

Posted in CIENCIA Y TECNOLOGÍA, SOCIEDAD with tags , , , , on abril 5, 2011 by zewx

Por: Alfonso Esparza
A veinte años de la creación de la WWW es oportuno un balance del desarrollo y estado actual del concepto Web 2.0, que emergió como una plataforma-ideario para impulsar la ciberciudadanización y garantizar el ejercicio de las capacidades y derechos de los usuarios, para propiciar el desarrollo de la inteligencia colectiva como base de la sociedad del conocimiento.

La actual masificación de las llamadas redes sociales plantean interrogantes del grado de cumplimiento de esos principios y las implicaciones de la creciente popularidad de comunidades en línea en servicios privados como Facebook y Twitter. Apremia la necesidad de un debate sobre si se preservan o restringen la libertad y derechos de información, y delinear la discusión sobre la privacidad de los datos personales y la propiedad intelectual, en un medio de agresivo darwinismo digital corporativo, con modelos de negocio basados en los intangibles de información y tiempo en una territorialidad virtual.

Este breve análisis parte de una reflexión antropológica basada en el concepto de la sociedad del conocimiento como un incipiente modelo en construcción en que las sociedades contemporáneas tienden a organizarse de acuerdo ya no tanto a sus identidades tradicionales –basadas en la identidad de sus lazos familiares, la tierra en que nace y vive, y habilidades avaladas institucionalmente– sino que cada vez valen más por sus saberes y conocimientos de experiencia existencial, más que profesional, y su capacidad para compartirlos y aprender del conocimiento único de los otros.

El acelerado avance tecnológico es un eje transversal indiscutible que atraviesa este desplazamiento del conocimiento simbólico, de los medios a la sustancia de la potencialidad de la inteligencia colectiva, sin importar si proviene de un indigente o de un ministro, pero que paradójicamente en un plano histórico representa un lento tránsito hacia una era posmedia.

En pocos años el desarrollo de las TIC ha aumentado en forma exponencial el acceso a una información cada vez más diversificada, personalizada y que en principio facilita la colaboración con herramientas progresivamente flexibles. Sin embargo algunos filósofos de la ciencia consideran que el e-mail, el navegador, la computadora y el “ratón”, forman parte de la era medieval de la revolución digital. El científico del MIT, Michael Dertouzos (fallecido en 2001), advirtió hace catorce años la tendencia a las aplicaciones “unitalla” que se diseñan para ser usadas por todos, en lugar de herramientas compartidas que son específicas para funciones humanas reales. La manera de realizarlo, dice, es a través de grupos de interés común, que llegan a acuerdos sobre convenciones compartidas, y puede ser tan simple como estandarizar las formas electrónicas para comprar y vender bienes y para canalizar información.

De las redes telemáticas a las comunidades virtuales
Desde que el vocablo Internet se hizo “oficial” en 1983, sólo pasaron siete años para la mítica historia de Tim Berners-Lee, que con algunos conceptos generados décadas atrás y algunos adelantos en la informática, le permitieron en diciembre de 1990 ensamblar las piezas para el nacimiento de la World Wide Web: lenguaje HTML, protocolo HTTP y el sistema de localización URL. Pocos años antes, en 1985 se había fundado The WELL, la primera comunidad virtual en el mundo. Pronto coincidirían estas coordenadas.

El siguiente paso en el desarrollo de las TIC debió pasar primero por el estallido de la “burbuja” de la economía “punto com” en el otoño de 2001, inflación especulativa de las posibilidades de una tecnología en el escenario económico de un capitalismo tardío urgido de reproducirse. El rebote después de la debacle edifica una “nueva economía”, con el acceso cada vez más amplio a las telecomunicaciones, un mercado multimillonario hecho posible por la convergencia tecnológica (1) en que los principales valores intangibles son: información + tiempo.

Las grandes compañías de redes sociales, trasnacionales por excelencia, aceleran sus procesos mediante la captación masiva de usuarios “en línea”, en “todos lados” y “en tiempo real”, algo posible con la proliferación de teléfonos celulares y dispositivos de banda ancha de tercera generación, que hacen la computadora un objeto en gran medida prescindible para conectarse incluso en varias redes sociales simultáneamente.

¿Dónde quedó la WWW?
En los años que siguieron a la aceptación de la WWW como uno de los productos más atractivos de Internet, la filosofía de su creador se ha mantenido vigente, incluso como un marco ético en su sentido social abierto, que es consensuado en cuanto a usos recomendados y estándares en el organismo que fundó y preside el propio Berners-Lee, la World Wide Web Consortium (W3C), y a pesar de las embestidas del gran capital trasnacional –en particular los fabricantes de hardware, software, telefónicas, cableras y por supuesto la industria del entretenimiento–, el ciberespacio sigue siendo público.

En un paso más en esa dirección se acuña en 2004 el concepto Web 2.0, del uso de Internet centrado en el individuo, para integrar un ideario que podría traducirse no sólo en su masificación sino traer consigo una modificación radical del esquema de los medios masivos convencionales, en un proceso secular de ciudadanización del ciberespacio. Su principal promotor, Tim O’Reilly, propone en sus postulados: 1) asumir la WWW como plataforma de inteligencia colectiva; 2) poner fin al ciclo de las actualizaciones de versiones del software; 3) impulsar los modelos de programación ligera y la ética de la simplicidad; 4) el software libre no limitado a un solo dispositivo, y 5) las experiencias enriquecedoras de los usuarios.

Con su lanzamiento se desplegó una creciente variedad de herramientas flexibles en una feroz competencia por el usuario que potenciaron su popularidad en el término “redes sociales” de servicios mundialmente populares como Wikipedia, YouTube, Flickr, WordPress, Blogger, MySpace, Facebook y Twitter entre otros. Juan José Lozano, en Redes sociales, una nueva forma de comunicación, describe:

“Todas estas redes sociales se basan en la “teoría de seis grados de separación” que quiere probar que cualquier usuario en la Tierra puede estar conectado a cualquier otra persona del planeta a través de una cadena de conocidos que no tiene más de 5 intermediarios. Dada esta teoría, las redes sociales tienen un componente viral muy importante, donde cada integrante de la red puede sugerir/invitar a sus contactos a ser parte de esa red, incrementando el grado de proximidad”.

Muros vs URLs
El propio Tim Berners-Lee, creador de la WWW, en un extenso artículo para la Scientific American en diciembre de 2010, critica severamente que los servicios como Google y Facebook minan con una velocidad impresionante el desarrollo libre y abierto de la WWW.

Para los futurólogos empero esta coyuntura es un paso muy preliminar hacia formas más autenticadas y valiosas en la construcción del conocimiento distribuido y la inteligencia colectiva, más allá del medio y la máquina, prevalece el debate que se remonta hasta los orígenes de la computadora personal, sus sistemas operativos y la fabricación y uso de software: propiedad privada o colectiva de la información y el conocimiento que entraña de suyo una revolución económica en ciernes. La reflexión del creador de la WWW alerta sobre el efecto mariposa de las decisiones que se tomen hoy, que pueden llevar a los conocimientos y experiencias creados dentro los muros y murallas de las “redes sociales” o públicamente en los URLs de sitios web provistos con las herramientas que realmente dan sentido de colaboración a una comunidad.

En un enfoque antropológico, Pierre Lévy plantea que

“A nivel de la sociedad se está consolidando un nuevo modo de producción del conocimiento denominado por Gibbons como socialmente distribuido, donde la identificación de los problemas y la investigación dedicada a solucionarlos se hace a través de una compleja interacción entre especialistas, usuarios y otros actores organizados en redes de colaboración”.

El desarrollo de los servicios informáticos de “redes sociales” se condensó en un modelo de negocio basado en el conocimiento de los usuarios y apropiación de sus contenidos para crear un mundo virtual estandarizado y con alto potencial de consumo.

Estas redes se constituyen en un enorme reservorio de información personal de individuos conectados, que es procesada y etiquetada por los propios usuarios en un ambiente altamente estandarizado que alienta el anonimato y facilita la manipulación psicológica basada en un ciber prestigio, que puede ser diseñado y modelado para lograr efectos propagandísticos que incluso pueden llegar al infundio propalado como verdad y la charlatanería.

Los empresarios de las TIC, fabricantes de su propio culto, ponen sello de propiedad intelectual e industrial al trabajo colectivo en herramientas informáticas muy costosas e ineficientes. Esta nueva generación impulsa modelos monopólicos en una ecología de negocios sumamente agresiva. Ya no tienen que invertir mucho en investigación y desarrollo cuando pueden atraer o comprar el conocimiento, el desarrollo y el producto, como la actual situación de MySpace, que está al borde de la quiebra y podrá ser comprada para reinventarla o desaparecerla, cuando hace un par de años era el medio idóneo para “medir” la popularidad en línea de grupos de música independiente.

La docilidad con que los usuarios de Facebook documentan sus vidas con lujo de detalle fotográfico, minuciosamente etiquetado, con nombres, edades, gustos, edades, grupos, preferencias, hábitos, vertidos en bases de datos que en un momento pueden definir la política de una empresa convirtiéndose en una valiosa mercancía de intangibles agregados. La empresa decide unilateralmente la manera en que se consulta, publica y organiza la información; pueden haber cambios importantes en los que las usuarios personas no tienen opinión y generalmente los reglamentos no se leen, y los contenidos, que pueden ser filtrados o censurados, transfiriéndose automáticamente la propiedad intelectual a un sistema cerrado y privado.

En la desterritorialización y la comunicación en tiempo real de los mundos virtuales, con escenarios fluidos de nomadismo simbólico permanente, se recrea en el medio una identidad individual y colectiva despersonalizadas, en el simulacro de una comunidad donde la participación física se ve suplantada por una serie de funciones y roles potenciados por el anonimato en un ambiente fetichizado, altamente viral y cautivo. Sus elementos esenciales cumplen características de una adicción basada en comportamiento condicionado con flujos incesantes pero efímeros de estímulos y símbolos canalizados principalmente al comportamiento y al consumo emocional.

Ante este panorama es estratégico que en las economías emergentes se impulse decididamente los principios éticos de los estándares abiertos y libres para el desarrollo de todo tipo de plataformas, particularmente las que son orientadas al usuario final de las TIC, en la forma de políticas públicas en dos órdenes: 1) la formación de recursos humanos con perfil de desarrolladores de herramientas basadas en web para la administración de contenidos, y 2) la apropiación de las herramientas disponibles en el ciberespacio para crear modos de comunicación propios, basados en la cultura local que sobre todo garanticen el derecho de acceso a la información, como base fundamental de una sociedad basada en el conocimiento.

Notas
(1) La Encuesta en Hogares sobre Disponibilidad y uso de las Tecnologías de la Información reveló que a mayo de 2010, en el país 38.9 millones de personas son usuarios de una computadora y 32.8 millones tiene acceso a Internet. El Instituto Nacional de Estadística y Geografía (INEGI), informó que los usuarios de internet registraron un aumento del 20.6% respecto al 2009. En México existen 8.44 millones de hogares equipados con computadora, lo que representa un 29.8% del total de hogares en el país y significa un crecimiento de 13.2% con relación a 2009. INEGI informó que en cuanto a conectividad 6.3 millones de hogares cuentan con conexión a Internet, lo cual representa 22.2% del total en México, lo que implica un crecimiento del 22.9% respecto de 2009.

Referencias bibliográficas

Lévy, Pierre (2004), Inteligencia colectiva, Organización Panamericana de la Salud
Berners-Lee, Tim (2010), Long Live the Web: A Call for Continued Open Standards and Neutrality, Scientific American Magazine, diciembre 2010
Cobo Romaní, Cristóbal y Pardo Kuklinski, Hugo (2007), Planeta Web 2.0. Inteligencia colectiva o medios Fast food. FLACSO, México.