Archivo para Internet

Derecho a la información y brecha tecnológica / 1

Posted in CIENCIA Y TECNOLOGÍA, CULTURA, SOFTWARE with tags , , , , on diciembre 9, 2011 by zewx

Uno de los principales argumentos que han acompañado al desarrollo de las tecnologías de información y comunicación (TIC) plantea que se trata de un instrumento paradigmático, clave para la conformación la sociedad del conocimiento, previo paso por la sociedad de la información, que vendría gestándose desde hace varias décadas, desde que la computadora se hizo personal. En contraste con este supuesto casi místico, la retórica filotecnológica no aplica para los países atrasados y con serios rezagos en la distribución de la riqueza, con mucha pobreza y poca educación, como México.

De esta dialéctica entre los deseable y lo posible, más que una oportunidad histórica de cambio y avance social cuyo único parangón sería la invención de la imprenta, significa una circunstancia paradójica –por decir lo menos, sin ser alarmistas–, si concedemos algún crédito a quienes hace una década decían con optimismo que los países emergentes tenían la disyuntiva de aprovechar sólo lo mejor y más avanzado de la experiencia de prueba-error de las naciones desarrolladas en desarrollo tecnológico.

A diez años de distancia, estos postulados distan mucho de asemejarse a la realidad, cuando en los países “emergentes”, algunos como la India llevaron este potencial a su mejor expresión, pero en otros la brecha se aprecia más compleja y profunda, al adoptarse de una manera desproporcionada las peores prácticas en el aprovechamiento de las TIC –en primer lugar falta de políticas públicas y programas nacionales de alfabetización digital–, que hoy campean en los usos generalizados de individuos y organizaciones que –con emblemáticas excepciones–, precisamente nos dan parámetros observables para la reflexión académica transdisciplinaria.

A manera de introducción de una serie de piezas editoriales pensadas para motivar la discusión y el diálogo de estos importantes temas, en muchos sentidos estratégicos para el desarrollo de los modelos de conocimiento implicados en la adopción de las TIC, en  permanente transformación, proponemos algunos elementos que ayuden a perfilar un análisis colectivo.

 

La democratización de los medios de comunicación en las redes electrónicas, y la llamada “revolución digital” en el ámbito de una cultura globalizada, partiría de un axioma dual: libre acceso a la información, que requiere de dos condiciones para cumplirse: que la información esté disponible sin restricciones, y que el usuario cuente con los medios para obtenerla. Sin embargo en el origen de la ecuación está su contradicción, al obviar el uso de las comunicaciones mediadas por computadora, en el proceso acelerado de fusión de las computadoras y las telecomunicaciones, que incluso sorprendió mal parado al propio Bill Gates, que en un principio no creyó en Internet y después enmendó su error con su famoso libro La supercarretera de la información y las inversiones trogloditas para lanzar Explorer, al comprender el inconmensurable potencial económico del ciberespacio.

Según los apólogos de la Nueva Economía, editores de publicaciones emblemáticas como Wired, como el autor del libro Out of control, Kevin Kelly, que advirtieron que las grandes transformaciones serían inevitables, imparables, incluso violentas (Alvin Toffler en Cambio de poder) pero que a la larga harían del ciudadano común un ser más propenso a ser inteligente, lector y productor en potencia de conocimientos, con un acceso libre a la información, ergo, al conocimiento, con una serie de artefactos y servicios “inteligentes”, desde hogares automatizados hasta banca electrónica, donde el teléfono celular transitaría de la simple telecomunicación móvil, a ser una especie de control remoto de nuestras vidas digitales, hoy conceptos que deben revisarse, por supuesto, en tanto que su aplicación, aunque el futuro nos alcance a cada segundo, dista mucho de ser homogénea, e impone una brecha económica y cultural aún más formidable que la que nos tenía encerrados en el “tercer mundo”.

La industria está de plácemes dispuesta a hacer negocios multimillonarios basados en un nuevo y “definitivo” auge en la masificación de la computadora, ahora anidada en dispositivos de telecomunicación personal de banda ancha. Las millonarias ganancias se siguen basando, por un lado, en la obsolescencia planificada, una práctica de filosofía empresarial heredada y mejorada de la era industrial de los electrodomésticos, exportada ahora a las industrias del hardware y software de computadoras y dispositivos móviles, con una cadena productiva que no tiene fin, al contrario, se beneficia de la sustitución de aparatos que caducan por la emergencia de nuevos modelos, fetichizados en agresivas campañas de mercadotecnia viral, independientemente de que los productos sean de muy buena, mediana y hasta mala calidad, porque ante la velocidad de la cadena de producción, no hay lugar ni tiempo para la crítica. Esta práctica de mercado abarca la producción de software comercial, que “corre” de forma simbiótica en la categoría propietaria de los derechos y licencias de uso, que el consumidor final desconoce y no tiene otro remedio que aceptar.

En el curso se ha integrado un impresionante mercado compartido entre tecnologías digitales personales y corporativas y las telecomunicaciones de última generación 3G-4G (desde la variedad de iPhones y iPads en la historia reciente de Apple, hasta la malhadada leyenda negra del Windows Vista), ya que hay poca oportunidad para la crítica especializada oportuna, antes de la adopción masiva, a veces tensada hasta la histeria colectiva, en la estampida fanática de cada lanzamiento, desde Beijing hasta Los Angeles (1).

Internet: vástago rebelde y amorfo de la posmodernidad.

Con más de sesenta años de historia del cómputo en México, la globalización trajo consigo a un hijo prodigioso pero rebelde, llamado Internet, creado en los sótanos militares de la “guerra fría”, finalmente presentado en sociedad en los años 70 del siglo pasado, se lo fueron apropiando, primero los científicos académicos, luego las tribus tecnófilas posthippies, y finalmente los adolescentes del milenio, en un no tan largo proceso de socialización, que debe mucho a la comunidad hacker original, que también se ha transformado sustancialmente en el camino; algunos mantuvieron su espíritu libertario de altruismo radical, y que hoy son responsables tanto de la filosofía y logros del software libre, como de intrusiones a sistemas informáticos en nombre de las más diversas causas y banderas, y hasta creadores de virus y malaware.

Muchos otros se mudaron de la noche a la mañana de lóbregos cuartuchos de cocheras y azoteas, a los edificios futuristas del “valle del silicio”, con tantos millones de dólares en cada bolsillo como para fundar imperios multinacionales y decidir en parte la ruta de esta voraz entelequia llamada cibrespacio, en el cual habitan hoy en día 2 mil millones de personas de todos los países del mundo y que, según el cristal con que se mire, serían la semilla de una ciberciudadanía en proceso de formación hacia la sociedad del conocimiento, con capacidad de ubicuidad global pero arraigado corazón hiperlocal, o triste y sencillamente la formación del mercado más grande nunca soñado por los más afiebrados capitalistas.

LA WWW: Caja digital de Pandora y su gemela 2.0

La emergencia de la WWW a mediados de los 90, llevó en una década al primer gran signo de alerta, cuando miles de negocios florecieron o se mudaron a la Red en una fiebre del “oro digital”, que terminó en la infausta burbuja de las empresas “punto com” que explotó como agria bienvenida al siglo XXI, con una fuerte dosis de cruda realidad, nada virtual, sino eminentemente social, porque  muchos proveedores esperaban una curva de aprendizaje-consumo también a velocidad telemática, pero con las viejas estructuras y lógica de los consumidores cautivos en mundos cerrados como America On Line, cuyo modelo de tecnología Push fracasó escandalosamente, y que hoy vuelve por sus fueros con sus hijos y nietos super carismáticos como son los servicios de Facebook y Twitter, con un rostro chamaco, más amigable y “abierto”, que habla idiomas nativos porque los nativos son invitados gratis, sin que esto deje de ser un millonario negocio transnacional.
Al igual que Google y su asombroso y cada vez más “inteligente” sistema de búsqueda, de información, conocimiento y geolocalización, estos emporios del ciberespacio se ganaron la lotería gracias a la entusiasta y diligente contribución de todos y cada uno de nosotros, que enriquecemos este sistema cada vez que lo usamos, y que aprende con cada tecla que apretamos, en cada trozo de información que enviamos por correo electrónico, sea fotografía, información personal, intimidades o banalidades, porque no hay coma o punto que no se guarde en los servidores de estas empresas, cuya ubicación física es secreto corporativo.

Después de la “burbuja” de fin de siglo, lo que aprendieron los gigantes de las telecomunicaciones digitales fue que los entonces nuevos medios electrónicos en red llegaron para quedarse, por una sencilla razón, propiciaron exponencialmente la creación de comunidades virtuales, sólo habría que esperar un poco de tiempo para regresar con esas grandiosas ideas de los mundos virtuales, incluidos por supuesto enormes “malls” y pasatiempos de inmersión, donde las llamadas “redes sociales”, son el último grito de los hábitos de consumo, ahora en redes móviles que importan los servicios on-line incluidos Facebook y Twitter, y el megamashup llamado Google, son monarcas de la Web desde hace varios años, hoy presentes de manera incisiva los modelos de comportamiento en el mercado simbólico del cine y la televisión, y en un corto periodo de tiempo han posicionado modelos de negocio que hasta hace unos años eran sólo posibles en teoría, y por primera vez generan utilidades a partir de la administración de bases de datos construidas a partir de la arquitectura colaborativa para los usuarios de Internet, lo cual garantiza una multiplataforma de publicidad y empuje de productos y servicios que acompañan al cibernauta en cada acción que lleva a cabo según sus hábitos de navegación y sus gustos personales.

Sirva esta vertiginosa revisión para situarnos en la actualidad en que se presenta una gran disparidad entre el valor potencial de la red y la real capacidad de acceso individual, cuando la banda ancha se convierte en un factor decisivo, y al mismo tiempo en un bien que se encarecen países como México, donde curiosamente vivimos un momento similar al entusiasmo de los primeros años de la WWW, ahora gracias a la explosión de la Web 2.0, que supuestamente traería de la mano la democratización definitiva de Internet, antes de que nos diéramos cuenta, en un par de años, los grandes corporativos mediáticos vieron una oportunidad de oro para montarse en una plataforma aparentemente idónea para sus intereses, en la lógica de los medios masivos, por no mencionar las “estrategias de redes sociales” de la comunicación social de los gobiernos, convertida en una válvula de escape más que en una comunicación interactiva con los ciudadanos.

Y a todo ello, ¿dónde quedó el proyecto social, libre y abierto, de la información y el conocimiento para todos? La brecha tecnológica se vuelve cultura, histórica, cuando se asimila un conocimiento en el momento en que comienza a ser obsoleto, como es la de por sí rezagada producción de contenidos y conocimientos nativos para consumirse on-line, pero que resultan incompatibles con la movilidad que hoy representa el uso de dispositivos personales móviles, iniciativas que resultan irrisorias comparadas con las millonarias inversiones en aplicaciones de uso comercial.

Sirva esta apretada síntesis para proponer una serie de reflexiones encaminadas al diálogo transdisciplinario

Si hay algo que caracteriza al mercado de las telecomunicaciones es que la velocidad de su desarrollo y expansión transforma a su paso modelos sociales, culturales y evidentemente la forma en que se informan y comunican las personas y cómo esa comunicación influye en su vida cotidiana, en sus comportamientos, desempeño académico y profesional y hasta sus hábitos, ocio y hábitos patológicos.

La antítesis del optimismo tecnológico que es parte indispensable del motor mercadotécnico de la industria tiene que ver con los números mismos que la sustentan y en el caso de México es más que emblemático, en vías de convertirse en un síndrome estructural, si se observa que el crecimiento de este segmento de la economía crece 20 por ciento en el país, frente a un raquítico PIB de menos de 3 por ciento, que se estima para cerrar 2011, pero no precisamente porque el sector sea ejemplo de dinamismo, porque este crecimiento desproporcionado se debe principalmente a la altísima concentración del sector, y las prácticas monopólicas que acaparan un mercado en expansión principalmente de la telefonía celular, que se ha convertido en un servicio de  primera necesidad ante los altísimos costos tarifarios y de instalación de telefonía fija. (2)

Los líderes del mercado en franca “guerra” por los usuarios de múltiples servicios que cada vez se distribuyen más a través de la telefonía móvil, sobrepasan con mucho la capacidad de los órganos reguladores del Estado, en este caso la Comisión Federal de Telecomunicaciones (COFETEL), durante años paralizada por los poderes económicos dominantes, y cuyo “activismo” reciente se politiza y los nuevos actores favorecidos por la convergencia, ponen un campo minado que indefectiblemente lleva a tribunales y que al final del día implica parálisis institucional a costa, como siempre, de los ciudadanos y los usuarios, que se ven sometidos a las políticas leoninas de las empresas en la contratación de servicios fetichizados en la mercadotecnia, como paradigma de velocidad “vertiginosa” y acceso “total”, siendo en realidad pocas opciones, de mala calidad, caros y plagados de abusos en la “letra chica”.

Un ejemplo reciente en el país es el del abusivo redondeo por minuto en la telefonía celular, que se impuso durante años a los usuarios, ahora escandaliza a los legisladores, curiosamente cuanto entran otros poderosos actores con gran apetito por este jugoso pastel que se llama triple play, y cuádruple play si se agregan las telecomunicaciones móviles multimedia de banda ancha, tan mítico como el tesoro de Moctezuma.

Aunque esta disparidad se asemeja a la situación de muchos otros países en el mundo, el caso mexicano reviste especial problemática y ofrece en el plazo inmediato particulares visos de urgencia (3).

En busca de un mapa claro de la problemática podemos partir de cuatro coordenadas transversales, que responden a fenómenos estructurales y coyunturales que lo componen:

1) El uso de las TIC como nuevo umbral-referente del acceso al conocimiento.

2) El derecho a la información en la era digital, y la legislación que rige en el país.

3) Concentración monopólica de la industria-mercados.

4) La indigencia y el analfabetismo digital.

Un eje transversal, que da una dimensionalidad particular al problema, es la inteligencia colectiva potencial inscrita en el acceso a la Web 2.0 y en particular en la plataforma móvil, que da al usuario no sólo acceso a la información mundial, sino capacidad de generar contenidos y opinión, y a la larga influir en las decisiones económicas y políticas.

A mediados de la presente década se propuso este concepto como una especie de “tierra prometida” para los cibernautas, y que nos proponemos analizar en las siguientes entregas, teniendo en cuenta que este segundo auge libertario en la WWW se base, principalmente, en el consumo de banda ancha.

NOTAS:

(1) Según Hamadun Touré, de la Unión internacional de telecomunicaciones (UIT), en el año 2000 la cantidad de personas que ocupaba un teléfono eran cercana a los 500 millones, lo que en el 2011 llegó a los más de 5 mil millones. A principios del año 2000 había en el mundo solamente 250 millones de usuarios de Internet, cifra que llegó a 2 mil millones de usuarios en 2011.

(2) La Encuesta en Hogares sobre Disponibilidad y uso de las Tecnologías de la Información reveló que a mayo de 2010, en el país 38.9 millones de personas son usuarios de una computadora y 32.8 millones tiene acceso a Internet. El Instituto Nacional de Estadística y Geografía (INEGI), informó que los usuarios de internet registraron un aumento del 20.6% respecto al 2009. En México existen 8.44 millones de hogares equipados con computadora, lo que representa un 29.8% del total de hogares en el país y significa un crecimiento de 13.2% con relación a 2009. INEGI informó que en cuanto a conectividad 6.3 millones de hogares cuentan con conexión a Internet, lo cual representa 22.2% del total en México, lo que implica un crecimiento del 22.9% respecto de 2009. http://www.inegi.org.mx/Sistemas/temasV2/Default.aspx?s=est&c=19007

(3) El promedio de suscripciones de banda ancha inalámbrica en los 34 países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) es de 41.6%, donde Corea ocupa el primer sitio con 89.9% y México el último con sólo 0.5%. Fuente: CN Expansión: http://www.cnnexpansion.com/tecnologia/2011/06/23/mexico-desconectado-de-la-banda-ancha

Anuncios

Web 2.0: ¿Redes sociales vs Inteligencia colectiva?

Posted in CIENCIA Y TECNOLOGÍA, SOCIEDAD with tags , , , , on abril 5, 2011 by zewx

Por: Alfonso Esparza
A veinte años de la creación de la WWW es oportuno un balance del desarrollo y estado actual del concepto Web 2.0, que emergió como una plataforma-ideario para impulsar la ciberciudadanización y garantizar el ejercicio de las capacidades y derechos de los usuarios, para propiciar el desarrollo de la inteligencia colectiva como base de la sociedad del conocimiento.

La actual masificación de las llamadas redes sociales plantean interrogantes del grado de cumplimiento de esos principios y las implicaciones de la creciente popularidad de comunidades en línea en servicios privados como Facebook y Twitter. Apremia la necesidad de un debate sobre si se preservan o restringen la libertad y derechos de información, y delinear la discusión sobre la privacidad de los datos personales y la propiedad intelectual, en un medio de agresivo darwinismo digital corporativo, con modelos de negocio basados en los intangibles de información y tiempo en una territorialidad virtual.

Este breve análisis parte de una reflexión antropológica basada en el concepto de la sociedad del conocimiento como un incipiente modelo en construcción en que las sociedades contemporáneas tienden a organizarse de acuerdo ya no tanto a sus identidades tradicionales –basadas en la identidad de sus lazos familiares, la tierra en que nace y vive, y habilidades avaladas institucionalmente– sino que cada vez valen más por sus saberes y conocimientos de experiencia existencial, más que profesional, y su capacidad para compartirlos y aprender del conocimiento único de los otros.

El acelerado avance tecnológico es un eje transversal indiscutible que atraviesa este desplazamiento del conocimiento simbólico, de los medios a la sustancia de la potencialidad de la inteligencia colectiva, sin importar si proviene de un indigente o de un ministro, pero que paradójicamente en un plano histórico representa un lento tránsito hacia una era posmedia.

En pocos años el desarrollo de las TIC ha aumentado en forma exponencial el acceso a una información cada vez más diversificada, personalizada y que en principio facilita la colaboración con herramientas progresivamente flexibles. Sin embargo algunos filósofos de la ciencia consideran que el e-mail, el navegador, la computadora y el “ratón”, forman parte de la era medieval de la revolución digital. El científico del MIT, Michael Dertouzos (fallecido en 2001), advirtió hace catorce años la tendencia a las aplicaciones “unitalla” que se diseñan para ser usadas por todos, en lugar de herramientas compartidas que son específicas para funciones humanas reales. La manera de realizarlo, dice, es a través de grupos de interés común, que llegan a acuerdos sobre convenciones compartidas, y puede ser tan simple como estandarizar las formas electrónicas para comprar y vender bienes y para canalizar información.

De las redes telemáticas a las comunidades virtuales
Desde que el vocablo Internet se hizo “oficial” en 1983, sólo pasaron siete años para la mítica historia de Tim Berners-Lee, que con algunos conceptos generados décadas atrás y algunos adelantos en la informática, le permitieron en diciembre de 1990 ensamblar las piezas para el nacimiento de la World Wide Web: lenguaje HTML, protocolo HTTP y el sistema de localización URL. Pocos años antes, en 1985 se había fundado The WELL, la primera comunidad virtual en el mundo. Pronto coincidirían estas coordenadas.

El siguiente paso en el desarrollo de las TIC debió pasar primero por el estallido de la “burbuja” de la economía “punto com” en el otoño de 2001, inflación especulativa de las posibilidades de una tecnología en el escenario económico de un capitalismo tardío urgido de reproducirse. El rebote después de la debacle edifica una “nueva economía”, con el acceso cada vez más amplio a las telecomunicaciones, un mercado multimillonario hecho posible por la convergencia tecnológica (1) en que los principales valores intangibles son: información + tiempo.

Las grandes compañías de redes sociales, trasnacionales por excelencia, aceleran sus procesos mediante la captación masiva de usuarios “en línea”, en “todos lados” y “en tiempo real”, algo posible con la proliferación de teléfonos celulares y dispositivos de banda ancha de tercera generación, que hacen la computadora un objeto en gran medida prescindible para conectarse incluso en varias redes sociales simultáneamente.

¿Dónde quedó la WWW?
En los años que siguieron a la aceptación de la WWW como uno de los productos más atractivos de Internet, la filosofía de su creador se ha mantenido vigente, incluso como un marco ético en su sentido social abierto, que es consensuado en cuanto a usos recomendados y estándares en el organismo que fundó y preside el propio Berners-Lee, la World Wide Web Consortium (W3C), y a pesar de las embestidas del gran capital trasnacional –en particular los fabricantes de hardware, software, telefónicas, cableras y por supuesto la industria del entretenimiento–, el ciberespacio sigue siendo público.

En un paso más en esa dirección se acuña en 2004 el concepto Web 2.0, del uso de Internet centrado en el individuo, para integrar un ideario que podría traducirse no sólo en su masificación sino traer consigo una modificación radical del esquema de los medios masivos convencionales, en un proceso secular de ciudadanización del ciberespacio. Su principal promotor, Tim O’Reilly, propone en sus postulados: 1) asumir la WWW como plataforma de inteligencia colectiva; 2) poner fin al ciclo de las actualizaciones de versiones del software; 3) impulsar los modelos de programación ligera y la ética de la simplicidad; 4) el software libre no limitado a un solo dispositivo, y 5) las experiencias enriquecedoras de los usuarios.

Con su lanzamiento se desplegó una creciente variedad de herramientas flexibles en una feroz competencia por el usuario que potenciaron su popularidad en el término “redes sociales” de servicios mundialmente populares como Wikipedia, YouTube, Flickr, WordPress, Blogger, MySpace, Facebook y Twitter entre otros. Juan José Lozano, en Redes sociales, una nueva forma de comunicación, describe:

“Todas estas redes sociales se basan en la “teoría de seis grados de separación” que quiere probar que cualquier usuario en la Tierra puede estar conectado a cualquier otra persona del planeta a través de una cadena de conocidos que no tiene más de 5 intermediarios. Dada esta teoría, las redes sociales tienen un componente viral muy importante, donde cada integrante de la red puede sugerir/invitar a sus contactos a ser parte de esa red, incrementando el grado de proximidad”.

Muros vs URLs
El propio Tim Berners-Lee, creador de la WWW, en un extenso artículo para la Scientific American en diciembre de 2010, critica severamente que los servicios como Google y Facebook minan con una velocidad impresionante el desarrollo libre y abierto de la WWW.

Para los futurólogos empero esta coyuntura es un paso muy preliminar hacia formas más autenticadas y valiosas en la construcción del conocimiento distribuido y la inteligencia colectiva, más allá del medio y la máquina, prevalece el debate que se remonta hasta los orígenes de la computadora personal, sus sistemas operativos y la fabricación y uso de software: propiedad privada o colectiva de la información y el conocimiento que entraña de suyo una revolución económica en ciernes. La reflexión del creador de la WWW alerta sobre el efecto mariposa de las decisiones que se tomen hoy, que pueden llevar a los conocimientos y experiencias creados dentro los muros y murallas de las “redes sociales” o públicamente en los URLs de sitios web provistos con las herramientas que realmente dan sentido de colaboración a una comunidad.

En un enfoque antropológico, Pierre Lévy plantea que

“A nivel de la sociedad se está consolidando un nuevo modo de producción del conocimiento denominado por Gibbons como socialmente distribuido, donde la identificación de los problemas y la investigación dedicada a solucionarlos se hace a través de una compleja interacción entre especialistas, usuarios y otros actores organizados en redes de colaboración”.

El desarrollo de los servicios informáticos de “redes sociales” se condensó en un modelo de negocio basado en el conocimiento de los usuarios y apropiación de sus contenidos para crear un mundo virtual estandarizado y con alto potencial de consumo.

Estas redes se constituyen en un enorme reservorio de información personal de individuos conectados, que es procesada y etiquetada por los propios usuarios en un ambiente altamente estandarizado que alienta el anonimato y facilita la manipulación psicológica basada en un ciber prestigio, que puede ser diseñado y modelado para lograr efectos propagandísticos que incluso pueden llegar al infundio propalado como verdad y la charlatanería.

Los empresarios de las TIC, fabricantes de su propio culto, ponen sello de propiedad intelectual e industrial al trabajo colectivo en herramientas informáticas muy costosas e ineficientes. Esta nueva generación impulsa modelos monopólicos en una ecología de negocios sumamente agresiva. Ya no tienen que invertir mucho en investigación y desarrollo cuando pueden atraer o comprar el conocimiento, el desarrollo y el producto, como la actual situación de MySpace, que está al borde de la quiebra y podrá ser comprada para reinventarla o desaparecerla, cuando hace un par de años era el medio idóneo para “medir” la popularidad en línea de grupos de música independiente.

La docilidad con que los usuarios de Facebook documentan sus vidas con lujo de detalle fotográfico, minuciosamente etiquetado, con nombres, edades, gustos, edades, grupos, preferencias, hábitos, vertidos en bases de datos que en un momento pueden definir la política de una empresa convirtiéndose en una valiosa mercancía de intangibles agregados. La empresa decide unilateralmente la manera en que se consulta, publica y organiza la información; pueden haber cambios importantes en los que las usuarios personas no tienen opinión y generalmente los reglamentos no se leen, y los contenidos, que pueden ser filtrados o censurados, transfiriéndose automáticamente la propiedad intelectual a un sistema cerrado y privado.

En la desterritorialización y la comunicación en tiempo real de los mundos virtuales, con escenarios fluidos de nomadismo simbólico permanente, se recrea en el medio una identidad individual y colectiva despersonalizadas, en el simulacro de una comunidad donde la participación física se ve suplantada por una serie de funciones y roles potenciados por el anonimato en un ambiente fetichizado, altamente viral y cautivo. Sus elementos esenciales cumplen características de una adicción basada en comportamiento condicionado con flujos incesantes pero efímeros de estímulos y símbolos canalizados principalmente al comportamiento y al consumo emocional.

Ante este panorama es estratégico que en las economías emergentes se impulse decididamente los principios éticos de los estándares abiertos y libres para el desarrollo de todo tipo de plataformas, particularmente las que son orientadas al usuario final de las TIC, en la forma de políticas públicas en dos órdenes: 1) la formación de recursos humanos con perfil de desarrolladores de herramientas basadas en web para la administración de contenidos, y 2) la apropiación de las herramientas disponibles en el ciberespacio para crear modos de comunicación propios, basados en la cultura local que sobre todo garanticen el derecho de acceso a la información, como base fundamental de una sociedad basada en el conocimiento.

Notas
(1) La Encuesta en Hogares sobre Disponibilidad y uso de las Tecnologías de la Información reveló que a mayo de 2010, en el país 38.9 millones de personas son usuarios de una computadora y 32.8 millones tiene acceso a Internet. El Instituto Nacional de Estadística y Geografía (INEGI), informó que los usuarios de internet registraron un aumento del 20.6% respecto al 2009. En México existen 8.44 millones de hogares equipados con computadora, lo que representa un 29.8% del total de hogares en el país y significa un crecimiento de 13.2% con relación a 2009. INEGI informó que en cuanto a conectividad 6.3 millones de hogares cuentan con conexión a Internet, lo cual representa 22.2% del total en México, lo que implica un crecimiento del 22.9% respecto de 2009.

Referencias bibliográficas

Lévy, Pierre (2004), Inteligencia colectiva, Organización Panamericana de la Salud
Berners-Lee, Tim (2010), Long Live the Web: A Call for Continued Open Standards and Neutrality, Scientific American Magazine, diciembre 2010
Cobo Romaní, Cristóbal y Pardo Kuklinski, Hugo (2007), Planeta Web 2.0. Inteligencia colectiva o medios Fast food. FLACSO, México.

Larga vida a la Web: un llamado a la continuidad de los estándares abiertos y la neutralidad.

Posted in CIENCIA Y TECNOLOGÍA, SOFTWARE with tags , , , , , , , , , on marzo 4, 2011 by zewx

Autor: Tim Berners-Lee / CERN

Traducción: Alfonso Esparza

Corrección de traducción: Lorenza Sánchez

Del original en inglés: Long Live the Web: A Call for Continued Open Standards and Neutrality

Publicado originalmente en American Magazine, diciembre 2010

La Web es crítica no meramente para la revolución digital sino para nuestra continua prosperidad –e incluso nuestra libertad. Como la democracia misma, necesita ser defendida.

La World Wide Web cobró vida en mi escritorio en Ginebra, Suiza, en diciembre de 1990. Consistía en un sitio web y un navegador-visualizador, que resultaba estar en la misma computadora. Este sistema simple demostraba un concepto profundo: que cualquier persona podía compartir información con cualquiera otra, en cualquier lugar. Con este espíritu la Web se expandió desde la base hacia arriba. Hoy en su vigésimo aniversario, la Web está ampliamente integrada en nuestras vidas cotidianas. Damos por hecho que siempre estará allí, en cualquier instante, como la electricidad.

La Web evolucionó en una poderosa y ubicua herramienta porque fue construida en principios igualitarios y debido a que miles de individuos, universidades y compañías han trabajado, de manera independiente y en conjunto como parte del World Wide Web Consortium (3WC) para expender sus capacidades basadas en esos principios.

La Web como la conocemos, sin embargo, se ha visto amenazada. Algunos de sus habitantes exitosos han comenzado a claudicar de estos principios. Grandes sitos de redes sociales han amurallado la información de sus usuarios del resto de la Web. Los proveedores de Internet inalámbrico han sido tentados a hacer más lento el tráfico de sitios web con los que no han amarrado tratos. Los gobiernos –totalitarios y democráticos– monitorean los hábitos de los usuarios, poniendo en riesgo importantes derechos humanos.

Si nosotros, los usuarios, permitimos que procedan sin ser revisadas estas y otras tendencias, la Web podría desmembrarse en islas fragmentadas. Podríamos perder la libertad de conexión con cualquier sitio Web que deseemos. La epidemia podría extenderse a teléfonos inteligentes y tabletas, que son también portales a la vasta información que ofrece la Web.

¿Por qué habría de interesarte? Porque la Web es tuya. Es un recurso público del cual dependen tú, tu negocio, tu comunidad y tu gobierno. La Web también es vital para la democracia, un canal de comunicación que hace posible una continua conversación mundial. La Web es hoy más relevante para la libertad de expresión que cualquier otro medio. Contribuye a la era de las redes digitales con principios establecidos en la Constitución Política de EE.UU., la Carta Magna británica y otros importantes documentos: la garantía de no ser espiado, filtrado, censurado o desconectado.

Sin embargo la gente parece pensar que la Web es como parte de la naturaleza, y si empieza a espesarse, bueno, son de esas cosas que pasan y nada se puede hacer. No es así. Nosotros creamos la Web al diseñar protocolos de computadora y software; este proceso está completamente bajo nuestro control. Nosotros elegimos las propiedades que deseamos que tenga o no tengan. De ninguna manera está terminado (y ciertamente no ha muerto). Si queremos indagar lo que está haciendo el gobierno, observar lo que los grandes corporativos están haciendo, percatarnos de las reales condiciones del planeta, encontrar una cura a la enfermedad de Alzheimer, sin dejar de mencionar compartir nuestras fotos con los amigos, nosotros el público, la comunidad científica y la prensa debemos asegurarnos de que los principios de la Web se mantengan intactos –no sólo para preservar lo que hemos ganado sino también beneficiarnos de los grandes avances que están por venir.

Universalidad es el fundamento

Hay numerosos principios clave para asegurarnos de que la Web sea aún más valiosa. El principio de diseño primario que subyace en la utilidad y crecimiento de la Web es la universalidad. Cuando se crea un vínculo éste puede enlazarse con cualquier cosa. Eso quiere decir que las personas deben tener la posibilidad de publicar cualquier cosa en la Web, sin importar el tipo de computadora que tenga, el software que use o el lenguaje humano que hable y sin importar si tiene conexión inalámbrica o cableada. La Web debe ser accesible a personas con discapacidades. Deba funcionar con cualquier tipo de información, ya sea un documento o una fuente de datos o información de cualquier calidad –desde un simple “tweet” a un ensayo académico. Y debe ser también accesible desde cualquier clase de equipo que se conecte a Internet: fijo o móvil, de pantalla pequeña o grande.

Estas características podrán parecer obvias, de auto-mantenimiento o simplemente de poca trascendencia, pero son las causas de que el próximo sitio Web de éxito o la página web del equipo de fútbol local simplemente aparezca en la Web sin dificultad alguna. La universalidad es de gran demanda, para cualquier sistema.

La descentralización es otra importante característica del diseño. No se necesita solicitar aprobación de ninguna autoridad central para agregar una página o un hipervínculo: lo único que hay que hacer es usar tres simples protocolos estándar: escribir una página en formato HTML (Lenguaje de Marcado de Hipertexto), nombrarlo de acuerdo con la convención de nomenclatura de URI, y colocarla en Internet utilizando el HTTP (Protocolo de Transferencia de Hipertexto). La descentralización ha hecho posible una expansión de la innovación y lo seguirá haciendo en el futuro.

El URI es la clave de la universalidad. (Originalmente yo le puse URI al esquema de nomenclatura, por Identificador Universal de Recursos; actualmente conocido como URL, por localizador de recursos “uniformes”). Permite seguir cualquier vínculo, independientemente del contenido al que lleve o quien lo publique. Los vínculos convierten los contenidos de la Web en algo de mayor valor: un espacio interconectado de información.

Recientemente se han esgrimido numerosas amenazas a la universalidad de la Web. Las compañías de televisión por cable que venden conectividad a Internet están considerando si limitan a sus usuarios a descargar únicamente sus mezclas de contenidos de entretenimiento. Los sitios de redes sociales presentan una clase diferente de problemas. Facebook, LinkedIn, Friendster y otros, típicamente ofertan valor al capturar la información que publicas: fecha de nacimiento, correo electrónico, domicilio, gustos y vínculos que indican quién es amigo de quién y quiénes están en cada fotografía.

El sitio ensambla estos bits de información en grandes bases de datos y re-usan la información para proveer un servicio de valor agregado –pero sólo dentro de sus sitios. Una vez que ingresas tus datos en alguno de estos servicios, no puedes usarlos fácilmente en otros sitios. Cada sitio es un silo, aislado de los otros. Sí, las páginas de tu sitio están en Internet pero no tus datos. Se puede acceder a una página Web acerca de una lista de personas que has creado en un sitio, pero no se puede enviar esa lista o elementos de ésta a otro sitio.

El aislamiento se presenta porque cada fragmento de información no tiene una URI. Las conexiones entre los datos existen sólo dentro del sitio. Entonces mientras más se entra más se es encerrado. Tu sitio de red social se convierte en una plataforma central –un silo cerrado de contenido, que además no te permite tener un control total de la información existente. Mientras más se extiende el uso de esta arquitectura, más se fragmenta la Web, y menos disfrutamos de un solo espacio universal de información.

Otro de los riesgos es que un solo sitio de redes sociales –o un solo motor de búsqueda o un navegador– crece tanto que se convierte en monopolio, que tiende a limitar la innovación. Como ha sucedido desde que empezó la Web; la continua innovación de sus orígenes podría ser la mejor prueba y balance en contra de cualquier compañía o gobierno que trate de debilitar la universalidad. GnuSocial y Diaspora son proyectos en la Web que permiten a cualquiera crear su propia red social desde su propio servidor, conectando a cualquiera desde cualquier otro sitio. El proyecto Status.net que administra sitios como identi.ca te permite operar tu propia red de Twitter, pero sin la centralización de Twitter.

Los estándares abiertos conducen a la innovación

Permitir que cualquier sitio se enlace con otros es necesario pero no suficiente para una Web ampliamente desarrollada. Las tecnologías básicas de Web que los individuos y compañías necesitan para desarrollar poderosos servicios deben estar disponibles gratuitamente, sin regalías. Amazon.con, por ejemplo creció como una enorme librería en línea, después tienda de discos y después tienda de toda clase de artículos, porque tiene un acceso abierto y gratuito a los estándares técnicos en los cuales la Web opera. Amazon, como cualquier otro usuario pudo utilizar HTML, URI y HTTP sin pedir permiso a nadie y sin tener que pagar. De igual manera, fue capaz de hacer uso de las mejoras a dichos estándares desarrollados por la World Wide Web Consortium, permitiendo a los usuarios llenar un formato electrónico, pagar en línea, valuar los bienes que ha comprado, etcétera.

Al decir “estándares abiertos” me refiero a estándares que puedan involucrar en el diseño a cualquier experto comprometido, y que han sido calificados como aceptables, que están disponible gratuitamente en la Web y que están libre de regalías (no requiere pago) para usuarios y desarrolladores. Los estándares abiertos, libres de regalías que son fáciles de usar crean la diversa riqueza de los sitios Web desde los grandes nombres como Amazon, Craigslist y Wikipedia hasta oscuros blogs escritos por adultos aficionados y hasta videos caseros publicados por adolescentes.

Apertura significa también que puedas crear el sitio Web o tu propia empresa sin la necesidad de aprobación alguna. Cuando la Web empezó, no tuve que pedir permiso ni pagar regalías para utilizar los estándares abiertos de Internet como los bien conocidos TCP (protocolo de control de transmisión) y el protocolo de Internet IP. De manera similar, la política de patentes libre de regalías del Web Consortium establece que las compañías, universidades e individuos que contribuyan al desarrollo de un estándar deben aceptar que no cobrarán a ninguna persona que utilice dicho estándar.

Los estándares abiertos libres de cargos no impiden que un individuo o una compañía puedan desarrollar algún blog o programa para distribuir fotografías y cobrar por su uso. Está permitido. Incluso puedes pagar por el servicio si consideras que es “mejor” que otros. El punto es que los estándares abiertos incluyen diversas opciones, gratuitas o no.

De hecho, muchas compañías invierten en el desarrollo de extraordinarias aplicaciones precisamente porque confían en que las aplicaciones funcionarán para cualquiera, independientemente del equipo de cómputo, sistema operativo o proveedor de servicio de Internet que utilicen –todo esto es posible por los estándares abiertos de la Web. La misma confianza motiva a los científicos a emplear miles de horas desarrollando increíbles bases de datos que pueden compartir información sobre proteínas, digamos, en busca de la cura para una enfermedad. Esta confianza impulsa a los gobiernos como los de Gran Bretaña y EE.UU. a colocar cada vez más datos en línea para que los ciudadanos puedan examinarlos y contribuir a que el gobierno sea cada vez más trasparente. Los estándares abiertos cultivan una portentosa creatividad, alguien puede usarlos de maneras que nadie imaginaría. Descubrimos eso en la Web todos los días.

En contraste, no usar estándares abiertos crea mundos cerrados. El sistema “iTunes” de Apple, por ejemplo, identifican las canciones y videos utilizando URIs que son abiertos. Pero en lugar de “http” las direcciones empiezan con “iTunes”, que es propietario. Tú puedes acceder a un vínculo “iTunes” sólo utilizando el programa propietario de Apple. No puedes crear un vínculo a ningún tipo de información dentro del mundo “iTunes”–una canción o información acerca de un grupo. No puedes enviar dicho vínculo a nadie más para que lo vea. No estás ya en la Web. El mundo “iTunes” está centralizado y amurallado. Estás atrapado en una sola tienda en lugar de estar en un mercado abierto. Pese a sus maravillosas funciones, su evolución está limitada a lo que piensa una sola compañía.

Otras empresas también están creando mundos cerrados. La tendencia por ejemplo de algunas revistas de producir aplicaciones para smartphones y no para la Web es preocupante porque ese material está fuera de la Web. No puedes seleccionarlo o enviar por correo electrónico un vínculo a una página interior ni comentar en Tweeter. Es mejor construir una aplicación basada en Web que pueda utilizarse también en los navegadores para teléfonos, y las técnicas para hacerlo mejoran todo el tiempo.

Mucha gente piensa que estos mundos cerrados están bien. Son fáciles de usar y parecen dar a estas personas lo que quieren. Pero como ya se vio en los años 90 con el sistema de marcado por módem de America Online que ofrecía un restringido acceso a parte de la Web, pero estos “jardines amurallados” no importa cuan satisfactorios, nunca podrán competir con la diversidad, riqueza e innovación con el loco y trepidante mercado de la Web fuera de sus puertas. Si un jardín encerrado detenta empero una parte del mercado, puede retrasar el crecimiento en el exterior.

Mantener la Web separada de Internet

Mantener la Web universal y sus estándares abiertos ayuda a la gente a crear nuevos servicios. Pero un tercer principio –la separación de capas– divide el diseño de la Web del de Internet.

Esta separación es fundamental. La Web es una aplicación que funciona en Internet, que es una red electrónica que trasmite paquetes de información entre millones de computadoras de acuerdo con nos algunos protocolos abiertos. Una analogía remite A que la Web es como un aparato electrodoméstico que funciona con una red de electricidad. Un refrigerador o impresora pueden funcionar siempre y cuando sean utilizados ciertos protocolos estándar. De manera similar cualquier aplicación –entre ellas la Web, el correo electrónico o el mensajero instantáneo- pueden funcionar en Internet siempre y cuando se usen ciertos protocolos estándar, como TCP/IP.

Los fabricantes pueden mejorar los refrigeradores y las impresoras sin alterar la manera en que funciona la electricidad y las compañías de suministro pueden mejorar las redes de electricidad sin alterar el funcionamiento de los aparatos electrodomésticos. Las dos capas de tecnología trabajan juntas pero pueden avanzar independientemente. Lo mismo es cierto para Internet y la Web. La separación de capas es crucial para la innovación. En 1990 la Web se desplegó sobre Internet, sin tener que hacer ningún tipo de cambio a este último, así como ha sucedido con el resto de las mejoras. Y en este lapso la velocidad de conexión a Internet ha incrementado de 300 bits por segundo a 300 millones de bits por segundo (Mbps) sin que la Web tuviera que ser rediseñada para poder aprovechar estos avances.

Derechos humanos electrónicos

Aunque los diseños de Internet y la Web estén separados, un usuario de Web es también un usuario de Internet y por ello confía en un Internet libre de interferencias. En los primeros años de la Web era técnicamente muy difícil para las compañías o países manipular Internet para interferir con un usuario de Web individual. Sin embargo, la tecnología de interferencia ha adquirido mayor poder. En 2007 BitTorrent, una compañía cuyo protocolo de red uno-a-uno permite a las personas compartir música, videos y otros archivos directamente en Internet, presentó una queja ante la Comisión Federal de Comunicaciones (FCC) para acusar que el gigante proveedor (ISP) Comcast estaba bloqueando o disminuyendo el tráfico de los suscriptores que usaban la aplicación de BitTorrent. La FCC ordenó a la empresa cesar dicha acción, aunque en 2010 una corte federal resolvió que la FCC no podía exigirle eso a Comcast. En diversas ocasiones un buen ISP se encargará de administrar el tráfico, de tal forma que si el ancho de banda disminuye, el tráfico de menor importancia sea reducido de manera transparente, para que los usuarios estén enterados. Hay una importante línea trazada entre esa acción y utilizar el mismo poder para discriminar.

Esta distinción distingue al principio de neutralidad en la red. Ésta sostiene que si se ha pagado por una conexión a Internet de determinada calidad, como 300 Mbps, por ejemplo, las comunicaciones deben responder a esta calidad. La protección de este concepto prevendrá que un gran ISP te envíe videos provenientes de una compañía de medios contratada al rango de 300 Mbps y no de una de menor calidad perteneciente a la competencia. Esto incrementa la discriminación comercial. Pero otras complicaciones pueden surgir. ¿Qué pasaría si tu proveedor hiciera más fácil la conexión a una tienda de zapatos en línea en particular e hiciera difícil accesar a otras? Eso implicaría dominar el control. Y ¿que pasaría si el ISP dificultara el acceso a sitios Web de ciertos partidos políticos, religiones, etcétera?

Desafortunadamente, en agosto, Google y Verizon por alguna razón sugirieron que la neutralidad de la red no debería aplicar a las conexiones basadas en teléfonos móviles. Muchas personas en áreas rurales de Utah a Uganda tienen acceso a Internet únicamente a través de teléfonos móviles; exentar las conexiones inalámbricas de la neutralidad de red dejaría a estos usuarios fuera, expuestos a la discriminación de servicio. También resulta bizarro imaginar que mi derecho fundamental para acceder a una fuente de información de mi elección, aplicará sólo cuando esté en mi computadora conectada vía WiFi en casa, pero no cuando use mi teléfono celular.

Un medio de comunicaciones neutral es la base para una justa y competitiva economía de mercado, de la democracia y de la ciencia. El debate ha resurgido el año pasado acerca de si se requiere legislación del gobierno para proteger la neutralidad. Lo es. Aunque la Web e Internet generalmente discurren sin necesidad de regulación, algunos valores básicos deben preservarse legalmente.

Sin espiar

Existen otras amenazas que interfieren con Internet, incluido el fisgoneo. En 2008 la compañía Phorm creó un dispositivo para que un ISP pueda husmear en los paquetes de la información que está enviando. El ISP puede determinar cada URI que cualquier usuario visualice. La empresa puede generar con ello un perfil con los sitios que su cliente visitó con el fin de producir publicidad dirigida.

Acceder a la información de los paquetes de Internet es como intervenir las llamadas telefónicas o abrir los envíos postales. Las URI que visita un usuario revelan gran información de su propia persona. Una compañía que haya comprado de URI de solicitantes de empleo, podría utilizarlos con fines discriminatorios, en la contratación de personal según sus opiniones políticas, por ejemplo. Las compañías aseguradoras podrían excluir a quienes han buscado información acerca de enfermedades cardiacas en la Web. Incluso los depredadores podrían utilizar estos perfiles para acosar a individuos. Todos usaríamos la Web de forma muy diferente si supiéramos que nuestros clicks pueden ser monitoreados y la información compartida con terceros.

La libertad de expresión debe ser protegida también. La Web debe ser como una hoja de papel en blanco; lista para escribir en ella, sin control sobre lo que se escribirá. Hace unos meses Google acusó al gobierno de China de “hackear” en su base de datos para obtener los correos electrónicos de disidentes. Las presuntas irrupciones ocurrieron después de que Google se resistió a las demandas del gobierno para que fueran censurados ciertos documentos de su motor de búsqueda en idioma chino.

Los regímenes totalitarios no son los únicos que violan los derechos digitales de sus ciudadanos. En Francia una ley creada en 2009, llamada Hadopi, permite a una compañía del mismo nombre desconectar Internet de una casa durante un año si alguien en esa casa es señalado por alguna compañía de medios de haber duplicado música o videos. Después de mucha oposición en octubre el Consejo Constitucional de Francia requiere que un juez revise el caso antes de que el servicio sea revocado, pero de aprobarse la casa podría ser desconectada sin el proceso correspondiente. En el Reino Unido el Acta de Economía Digital que fue aprobada apresuradamente en abril de 2010 permite al gobierno ordenar a un ISP cancelar la conexión de Internet de quien sea que figure en alguna lista de sospechosos de infringir leyes de derechos de autor. En septiembre el Senado de Estados Unidos introdujo el Acta para el Combate de Infracciones y Falsificaciones en Línea, que permitirá al gobierno una lista negra de sitios Web –alojados dentro y fuera de territorio estadounidense– que son acusados de infringir y además de presionar o requerir a todos los ISPs bloquear el acceso a esos sitios.

En estos casos ningún proceso legal correspondiente protege a las personas antes de que sean desconectadas o que sus sitios sean bloqueados. En vista de los muchos sentidos en que la Web es crucial para nuestras vidas y nuestro trabajo, la desconexión es una forma de privación de la libertad. Revisando la Carta Magna quizá debiéramos consignar ahora: “ninguna persona u organización habrá de ser privado de la habilidad de conectarse con otros con el correspondiente procedimiento legal y la presunción de inocencia”.

Cuando tus derechos de red son violados la protesta pública es crucial. Ciudadanos de todo el mundo objetaron las demandas del gobierno de China a Google, a tal grado que la secretaria de Estado Hillary Clinton dijo que el gobierno de Estados Unidos respaldaba el desafío de Google y que la libertad de Internet –y con ésta la libertad de la Web– habría de ser un postulado formal en la política exterior. En octubre Finlandia implementó como derecho legal de todos los ciudadanos el acceso a una banda ancha de 1MBps.

Conectándose al futuro

Mientras sean preservados los principios básicos de la Web su evolución en curso no estará en las manos de alguna persona u organización –ni en las mías, ni de de nadie más. Si podemos preservar sus principios la Web promete algunas capacidades fantásticas en el futuro.

Por ejemplo, la última versión de HTML, llamada HTML5 no es sólo un lenguaje de etiquetas sino una plataforma de cómputo que hará incluso más poderosas de lo que hoy son las aplicaciones para Web. La proliferación de teléfonos inteligentes hará que la Web sea incluso aún más central en nuestras vidas. El acceso inalámbrico será de particular provecho para países en desarrollo donde muchas personas no tienen conectividad por cable pero sí inalámbrica. Se necesita hacer mucho más, por supuesto, incluida la accesibilidad de las personas con alguna discapacidad y el despliegue de páginas que se vean con igual claridad, desde enormes plasmas que cubren un muro hasta ventanas del tamaño de un reloj de pulsera.

Un gran ejemplo de las promesas futuras, que aumentan la fuerza de los principios básicos es la vinculación de datos. Hoy en día la Web es de gran eficacia en ayudar a las personas a publicar y descubrir documentos, pero los programas de la computadora no pueden leer o manipular los datos existentes en esos documentos. En cuanto este problema sea resuelto la Web será mucho más útil, porque los datos acerca de casi todos los aspectos de nuestras vidas son creados en un rango sorprendente. Encerrado entre todos esos datos está el conocimiento de cómo curar enfermedades, potenciar el valor de los negocios y gobernar el mundo de manera más efectiva.

Los científicos están hoy al frente de un magno esfuerzo por publicar información vinculada en la Web. Investigadores, por ejemplo, se están dando cuenta que en muchos casos ningún laboratorio por sí mismo o repositorio de datos en línea son suficientes para el descubrimiento de nuevas medicinas. La información necesaria para comprender complejas interacciones entre las enfermedades procesos biológicos en el cuerpo humano y una amplia variedad de agentes químicos está dispersa alrededor del mundo en miríadas de bases de datos, hojas desplegadas y documentos.

Uno de los éxitos se refiere al descubrimiento de fármacos para el tratamiento de Alzheimer. Un número de laboratorios de investigación, de corporaciones y gobiernos hacen a un lado su usual negativa para abrir sus datos, y decidieron crear la Iniciativa de Neuroimagen de la Enfermedad de Alzheimer. Se publicó información masiva de los pacientes y escaneo de cerebros como datos vinculados, en la que muchas veces se han sumergido para avanzar en sus investigaciones. En una demostración de la que fui testigo un científico formuló la pregunta: “¿Qué proteínas tienen que ver con la señal de transducción y están relacionadas con las neuronas piramidales?” al buscar en Google la pregunta tuvo 233,000 resultados –ni una sola respuesta. Pero al introducirla en el mundo de las bases de datos vinculadas, devolvió una pequeña cantidad de proteínas específicas que tienen esas propiedades.

Los sectores de inversiones y finanzas también se pueden beneficiar de los datos vinculados. La ganancia se genera, en gran parte, al encontrar patrones en un conjunto de fuentes de información crecientemente diverso. Los datos también están alrededor de nuestras vidas personales. En los sitios de las redes sociales y se indica que un recién llegado es un amigo eso establece una relación. Y esa relación son datos.

Los datos vinculados hacen surgir empero algunos asuntos con los que tendremos que lidiar. Por ejemplo, las nuevas capacidades de integración de datos podrían traer desafíos de privacidad que difícilmente son considerados en las legislaciones actuales en la materia. Debemos examinar las opciones culturales, legales y técnicas que preservarán la privacidad, sin menoscabo de los beneficios de las capacidades de vincular información.

Hoy es un momento excitante. Los desarrolladores de Web, compañías, gobiernos y ciudadanos deberían trabajar juntos abiertamente y de manera cooperativa como se ha hecho por ahora los principios fundamentales de la Web, así como los de Internet asegurando que los protocolos tecnológicos y las convenciones sociales que se habiliten, respeten los valores humanos básicos. La meta de la Web es servir a la humanidad. La construimos ahora para que los que vienen después sean capaces de crear cosas que nosotros mismos no somos capaces de imaginar.

Editores y escuelas en línea. Libros de texto en plataforma web

Posted in CIENCIA Y TECNOLOGÍA with tags , , , on agosto 11, 2008 by zewx

La versatilidad de las herramientas electrónicas y la riqueza de un multimedio interactivo como la Web, abren un amplio universo de posibilidades para favorecer nuevos modelos de educación que mejoren la calidad y oportunidad de los conocimientos compartidos entre estudiantes, maestros y especialistas.

Una de las aplicaciones más exitosas en el campo de la enseñanza es la asociación entre editores de libros de texto e instituciones académicas, con la publicación de sitios web que sirven como respaldos adicionales a los materiales didácticos impresos. Con este sencillo modelo los estudiantes tienen un vínculo directo del texto a un sitio en Internet que les ofrece un índice electrónico de temas útiles a la lección referida en los libros de texto.

Este sistema, que funciona en cada vez más escuelas de Estados Unidos y Europa en los niveles medio y superior, pretende aprovechar al máximo dos tecnologías: el libro y la Web, para unificarlas en un proceso dinámico en la generación y distribución de conocimientos actualizados.

- Un libro de texto, que típicamente se utiliza de 7 a 10 años puede actualizarse y corregirse en un sitio web.
- Los autores de libros pueden interactuar con los estudiantes en una conversación basada en Internet.
- La colaboración editorial electrónica ahorra cientos de horas a la semana en la búsqueda de fuentes valiosas de información.
- Las comunidades de usuarios de libros de textos forman redes de conocimiento en línea.

El modelo es muy sencillo y funciona de la siguiente manera: El editor contacta a un grupo de maestros de alguna materia o asignatura determinada, el cual se dedica a buscar y actualizar sitios web y otra información basada en Internet, para mejorar y ampliar el horizonte de los temas y materiales presentados en el libro de texto, y el producto de esa búsqueda y actualización se publica en un sitio electrónico. Cada lección en el libro impreso tiene un indicador acompañado de un código que se introduce al acudir a la página electrónica y automáticamente conduce al material complementario de la lección, con una veta inconmensurable de conocimientos que enriquecen y profundizan en el tema en particular.

Una lección de óptica en un texto de nivel bachillerato, por ejemplo, recomienda recursos informativos y sitios en Internet, utensilios virtuales de laboratorio, museos de la ciencia con aplicaciones interactivas, instrucciones para construir lentes y mucho más.

Para ello es menester la integración de ese equipo básico de investigadores electrónicos, que se dedique a facilitar y actualizar estos contenidos para una población creciente de estudiantes en línea. En algunos proyectos como SciLinks, de Arlington, Virginia, este grupo está conformado por seis maestros calificados de tiempo completo y un pequeño ejército de colaboradores en línea entre maestros, estudiantes universitarios y asesores que supervisan la actualidad y pertinencia de las guías de consulta en web.

El circuito virtuoso se completa en la asociación con importantes cadenas editoriales de libros de texto. Casas tan reconocidas como McGraw-Hill y Prentice Hall han ingresado de lleno a producir exitosos complementos en Internet de sus textos en papel con nuevas oportunidades de competitividad y negocio.

Estas distintas fuerzas productivas en el conocimiento académico, se asocian hoy en una tendencia clara hacia la convergencia entre el texto impreso y el material multimedio en la Red, pues hay que tener en cuenta que si bien el avance en la tecnología digital tiende a migrar masivamente el conocimiento de la tinta y el papel a los bits y bytes, el libro tiene aún mucho que dar a nuestra civilización. La competencia en el ofrecimiento de contenidos en Internet para complementar e interactuar con la milenaria tradición del libro, es una de esas fuerzas que conducirá el cambio en favor de una más sana explotación de los recursos naturales, y de miles de estudiantes que enriquecen sus conocimientos a través de un modelo de comunidades virtuales de enseñanza-aprendizaje.

Empresas en la Nueva Economía. Después de la burbuja punto com

Posted in CIENCIA Y TECNOLOGÍA with tags , , , , on agosto 11, 2008 by zewx

A una década de distancia el vertiginoso ascenso y abrupta caída de la burbuja digital, aquella que se pregonaba con bombo y platillo alrededor de 1997, luego de que poco antes la World Wide Web quiso ser vista como la nueva fiebre del oro intangible, es buen momento para evaluar lo que sucedió y lo que puede suceder con el oasis de la economía “punto com”. Las expectativas de una monumental migración de la economía tradicional a una intrincada red de comercios electrónicos y transacciones en línea, pero con todo y las agresivas políticas de promoción tecnológica y hasta con el ficticio Godzilla de fin de milenio, que pronosticaban el fin del mundo por el desquiciamiento de sus máquinas, la burbuja no pudo hacer otra cosa que desinflarse, ya que al final los usuarios dijeron “momento”, porque esa carrera loca contra el tiempo tenía que venir desde abajo.

Y ya que la marcha hacia la digitalización es lentísima tal vez, pero segura, incierta por fortuna, y al parecer con gran peso en el sentido de comunidades, y lasa tecnologías centradas en el individuo, analicemos los fundamentos de los códigos y escenarios de la nueva economía.

Las grandes innovaciones tecnológicas son aplicadas primordialmente para mejorar los procesos de negocios de las empresas, pero difícilmente pueden medirse concretamente sus efectos. A principios del siglo XX tomó 20 años a la industria medir los beneficios en el uso de motores eléctricos, pero eso no detiene a los empresarios en adquirir tecnología de vanguardia. En nuestra era digital esta paradoja de la productividad es aún más evidente, pues los tiempos se acortan y la competencia se multiplica, pero los inversionistas tienen la certeza que de no estar en la revolución digital puede significar la bancarrota.

Sin embargo, antes de proseguir debemos establecer la significación de una paradoja: la digitalización de la economía puede interpretarse como una nueva fase de la reproducción del capitalismo, pero su falta de control la hacen potencialmente abierta a cambios incluso radicales en la economía, como en el concepto de micro-regiones, que se abordará en otro momento.

Entre muchos modelos de negocios electrónicos, es importante diferenciar la segmentación de los mercados virtuales en cuatro áreas distintas:

1. Espacio de información. Son los canales a través de los cuales una compañía puede proveer información acerca de sí misma, sus productos y servicios. El área más grande de este espacio es la WWW, donde las compañías pueden instalar sitios electrónicos, que permiten un acceso global. 2. Espacio de comunicación. Son los mecanismos que permiten a una empresa intercambiar información con sus accionistas, proveedores, aliados estratégicos y clientes. Internet permite las comunicaciones rápidas de bajo costo, sin importar las barreras geográficas, con el uso de correo electrónico, grupos de noticias y discusión, salas virtuales de conversación, etcétera. Estos nuevos canales son utilizados para persuadir, negociar, colaborar y crear comunidades. 3. Espacio de distribución. Es un nuevo canal de distribución que pueden utilizar las compañías para la entrega de sus productos y servicios, especialmente aquellos sin componentes físicos, como el software, música, servicios en línea, etcétera. 4. Espacio de transacciones. Un sitio de negocios en Internet no debe limitarse a proporcionar versiones electrónicas de folletos impresos, sino el espacio par completar el ciclo de ventas en línea, permitiendo al usuario desde solicitar información de los productos y servicios, hasta cerrar una compra en línea, con soporte en tiempo real.

Las actividades de una firma en uno a más de estos mercados digitales será motivada por las crecientes ganancias, al incrementarse los ingresos, cuando se produce:

1. Una expansión de la base de clientes, al llegar a nuevos segmentos y geografías del mercado. 2. Un incremento en el monto de compras de los clientes, a través de mayores opciones de selección y oferta de productos. 3. Aumento en la frecuencia de compra, al ofrecer ventajas en segundas compras y recompensar los pedidos en línea.

Pero también se reducen costos:

1. disminuyendo los costos de desarrollo de nuevos productos y servicios. 2. Un gasto publicitario más efectivo. 3. Renovación de inventario más eficiente. 4. Reingeniería de negocios. 5. Más efectividad en la inversión de capital.

Estas acciones pueden ser aplicadas dentro y fuera de la organización:

Hacia afuera: Adicionalmente al servicio de las necesidades del cliente, las actividades en cualquiera de los mercados virtuales, también puede alcanzar a otras comunidades de inversionistas de la firma, como podrían ser socios en la cadena de distribución, organizaciones industriales, medios de comunicación e incluso candidatos a empleados. Hacia adentro: Las relaciones dentro de la empresa pueden fortalecerse a través de los mercados virtuales, como el mejoramiento del movimiento de bienes, servicios e información dentro de la empresa.

La velocidad es paradigma

La efervescente competencia en una economía globalizada y multiconectada, incorporada en un ambiente de innovación continua, con productos y servicios basados en la tecnología, ha propiciado el acortamiento de los ciclos entre la introducción de un artículo y su reemplazo por otros superiores.

La habilidad para innovar y alcanzar más rápidamente los mercados se está convirtiendo en un valor determinante de las ventajas competitivas, y las máximas ganancias se obtienen de productos que tienen ciclos de vida más cortos, y un ejemplo muy ilustrativo es el de la industria automotriz, que en 1990 se tomaba 6 años desde el diseño hasta su llegada al mercado, y hoy en día sólo toma dos años, tiempo que tiende a disminuir.

Ante los frenéticos cambios que se experimentan en la economía de Internet, la gente empieza a hablar en términos tecnológicos de “año web” (equivalente a 3 meses de un año normal), debido a que las reglas del juego económico parecen cambiar a ese ritmo.

Las principales ventajas de esta dinámica son para los consumidores, al tener más alternativas a su disposición y elegir las que más le convengan, interviniendo decisivamente en su evolución, sobre todo en: tiempo, porque el consumidor podrá elegir el servicios más rápido en entrega; diversidad en productos y servicios, eligiendo los que mejor satisfagan sus necesidades, e interacción con la empresa, al escoger el mejor servicio al cliente.

Estrategia digital

Con poco esfuerzo, cualquier compañía en Internet tiene el potencial de convertirse en una marca mundial, y llegar a mercados virtuales extranjeros. Sin embargo, una vez fijado este propósito, la instalación de sistemas eficientes que operen las tácticas de alcance y entrega en los mercados, surgen complejidades que pueden redundar en altos costos. El entendimiento de la cultura de consumo y comportamientos sociales de los usuarios extranjeros, demandan entre otras cosas, el diseño de productos adecuados a esos usos particulares, y la habilitación de sistemas de traducción, conversión de moneda y alianzas con entidades financieras transnacionales, regulaciones fiscales, así como la integración de una red de proveedores que satisfagan las necesidades de los clientes 24 horas al día los 365 días del año.

Estas firmas, además de tener un frente local, en donde a veces es muy recomendable una aproximación de alianzas que tengan experiencia en los mercados, también pueden recurrir a soluciones de software que permite publicar sitios en un idioma que se convierten en plazas multiculturales con aplicaciones nativas y servicios de atención al cliente apegados a las necesidades locales; sabiendo, por ejemplo, que los alemanes gustan mucho de usar el correo electrónico, que loa franceses prefieren usar su sistema de comunicaciones Minitel; que la infraestructura en Estados Unidos permite despliegues en gráficas interactivas, y que los mercados latinoamericanos requieren de sencillez e información didáctica en el uso de las herramientas, se planean estrategias para llegar al mismo tiempo a todos esos mercados.

Los usuarios ocupan el doble de tiempo en Internet en sitios de su propio lenguaje, y la oportunidad de venta se triplica Forrester Research

Los primeros experimentos de negocios en Internet han pasado a ser acontecimientos de gran envergadura. De pronto compañías sin oficinas ni bodegas estaban haciendo millones de dólares con el diseño de productos y servicios para los nuevos mercados, que obedecen a dinámicas muy distintas de las prevalecientes en la economía de la segunda ola, pues lo que antes era estabilidad, capital y grandeza, hoy es volatilidad, incertidumbre e inteligencia.

La organización flexible se vuelve el nuevo prototipo del éxito en los mercados globales, sobre todo los derivados de las nuevas tecnologías en audio, video, software, etcétera, pues los productos y servicios de estas industrias, al componerse de información, se vuelven intangibles y por lo tanto la manera en que se fabrican, venden y consumen.

CI: Coeficiente Internet, es el producto de dos medidas: 1) cómo una empresa utiliza Internet para optimizar sus operaciones internas y participar en el ecosistema de mercado, y 2) la habilidad de una compañía para expender y dar más valor a la totalidad del ecosistema. El CI es un mapa hacia el éxito en la economía digital

Pero las reglas de la nueva economía obligan también a la gran industria y al comercio a transformarse o sucumbir en un mundo de negocios altamente competido.

Durante los años 80 las tecnologías del cómputo y las telecomunicaciones hicieron posible la reingeniería de los procesos en las empresas y aprovechar estas herramientas para hacerse más eficientes y productivas. Las redes internas de comunicación permitieron a las empresas ahorrar en recursos como el papel, eliminar procesos burocráticos, achicar los ciclos de producción y reducción de personal innecesario.

Para los años 90 la llegada de Internet y la aceleración en los avances tecnológicos en los campos antes mencionados, ha dado el impulso definitivo a la nueva era en los negocios, siendo los modelos de e-business y business-to-business de probado éxito en la economía digital.

“Toma una generación para apreciar cómo Internet remodela la sociedad y el comportamiento humano, una vez que se hace una tecnología madura. Pero la remodelación de los negocios ya está sucediendo a pasos acelerados”. Alfred Marshall, economista británico

• Alrededor de 70 mil nuevos sitios web cada hora • Se duplica el tráfico en Internet cada tres meses • El crecimiento de las ganancias del comercio electrónico global aumentan 100% anualmente.

Estas tecnologías permiten calibrar cada uno de los efectos de las estrategias de mercado, y algunas de sus funciones más críticas son:

• Entender los efectos de múltiples dimensiones de ingresos de la empresa. • Leer los resultados de promocionales en la venta de productos por trimestre, mes, semana y al día. • Analizar grandes cantidades de datos par apreciar la distribución de riesgo a través de la empresa. • Proveer a los gerentes portafolios con herramientas analíticas par que puedan aportar importante asesoría en inversiones. • Identificar a los clientes más valiosos, qué tipo de transacciones prefieren y qué productos usan. Colaboración entre competidores

La emergencia de nuevos mercados demandan un cumplimiento eficaz y oportuno, cada vez más especializado de productos y servicios derivados de nuevas necesidades y estilos de vida, promovidos por un general mejoramiento de los niveles de vida de la sociedad y acceso a la salud y la educación.

En los mercados electrónicos que se forman a diario en las redes de telecomunicaciones globales, la innovación y el valor agregado son las máximas reglas que reemplazan al capital y a la producción masiva.

Las redes, que tienen una esencia colaborativa, empujan a la cultura corporativa hacia nuevos modelos operativos que se rigen por la interdependencia.

Las asociaciones, alianzas de colaboración, proyectos y programas multiempresariales, modelos de outsourcing, copatrocinios, etcétera, que a la larga significa una inversión material y de valores intangibles de capital intelectual distribuido, que lleva a la innovación tecnológica y el desarrollo económico.

En este nuevo ecosistema económico, las empresas encuentran modelos de cooperación, a los que pensadores como Alvin Toffler conceptualizan como coo-petencia, es decir, la competencia por los mercados globales a través de su crecimiento y desarrollo a través de la colaboración en la comunidad corporativa con una inteligencia distribuida.

Aunque la competencia por buenas posiciones en el mercado se incrementan en esta nueva economía, también aumentan en frecuencia la colaboración entre competidores.

Estos son sólo algunos de los elementos en juego en esta era de la comunicación digital, y como se espera en los próximos años, la explosión de la tecnología del cómputo móvil y las telecomunicaciones inalámbricas serán las que coronen esta transformación en la economía global.

¿Qué es Internet 2? Orígenes y aplicaciones

Posted in CIENCIA Y TECNOLOGÍA with tags , , , , , , on agosto 11, 2008 by zewx

En octubre de 1996 dio comienzo la iniciativa de Internet 2 (I2), a partir de un consorcio no lucrativo que actualmente integra a más de 170 universidades en Estados Unidos, cada una de la cuales desarrolla aplicaciones y tecnologías para redes avanzadas con el objetivo principal de acelerar la velocidad en la entrega de contenido de alta calidad en el Internet de mañana.

Con la participación de 60 compañías líderes de la industria tecnológica, Internet 2 está por el momento fuera del alcance del público en general, pero se espera que eventualmente esta nueva generación de tecnologías llegará a las manos de todos dentro de poco tiempo, y los expertos participantes aseguran que se encuentran a medio camino de llevar estas herramientas a los hogares.

La UCAID University Corporation for Advanced Internet Development (UCAID), el órgano que administra Internet 2, han explicado que este desarrollo va más allá de acelerar las transferencias de información en medios digitales como web y correo electrónico, porque darán poder a nuevas aplicaciones como las librerías electrónicas, laboratorios virtuales, educación independiente a distancia y tele-inmersión.

La red actual que soporta Internet 2, llamada Abilene (nombre de la locomotora que se abrió paso hacia el oeste norteamericano desde Abilene, Kansas), opera a una velocidad de alrededor de perates 2.4 gigabits por segundo, o 45 mil veces más rápido que un típico modem. Diez enciclopedias monumentales pueden transmitirse sobre cable de fibra óptica en aproximadamente un segundo.

Bajada: Metas principales de Internet 2:

• Crear una red líder en capacidades de transmisión para la comunidad de investigadores • Habilitar aplicaciones revolucionarias en Internet • Garantizar una nueva red de rápida transferencia de servicios y herramientas interactivas para la gran comunidad Internet

El punto de arranque

Las primeras pruebas sobre la nueva generación de redes se realizaron en 1996 con 30 nodos regionales en Estados Unidos, llamados gigapops, poderosos conductores de tráfico de información para líneas de fibra óptica, que con el tiempo han permitido a las escuelas de educación superior construir redes inteligentes de gran ancho de banda que administran el envío y recepción de toneladas de información, a una velocidad 1000 veces mayor a una conexión por modem al actual Internet.

Algunas de las miles de aplicaciones posibles que ha sido probada con éxito es la posibilidad de que los estudiantes de varias universidades en distintas localizaciones geográficas compartan imágenes en vivo en alta resolución de un telescopio colocado en otra parte del planeta, y que puedan manipular su campo visual simultáneamente, o la capacidad de que estudiantes de medicina de distintos institutos puedan compartir de manera instantánea recursos médicos como entrenamiento en cirugía o placas de rayos x.

Aunque por el momento no parece tan cercano en que los consumidores comunes tengan acceso a Internet 2, si se pertenece a una escuela que tenga una conexión a este sistema, seguramente se contará con correo electrónico interactivo; sistema de videoconferencia, navegación web de alta velocidad y aplicaciones multimedio de amplio ancho de banda.

Los investigadores de I2 se concentran actualmente en tres áreas principales: amplio ancho de banda, multitransmisión (multicasting) y garantía en la entrega y desempeño. Esto significa que la Red que conocemos actualmente verá pronto más tipos de medios capaces de transmitir rápidamente información de gran riqueza, lo cual queda expresado en el concepto de calidad en el servicio (Quality of Service, QoS), y una sustancial innovación: I2 opera con un nuevo protocolo, IPv6 que ofrece capacidades muy superiores a su anterior versión, IPv4, que es la usada por la mayoría de los actuales proveedores de Internet.

En este nuevo modelo de Red, a diferencia que su antecesora, asocia servicios educativos y comerciales, que estarán perfectamente integrados poco después de que los estándares tecnológicos como QoS e IPv6, prueben su eficacia.

En una prueba hace poco, un equipo formado por personal de la Universidad de Washington y las compañías Qwest y Microsoft impusieron un nuevo récord en el desempeño de Internet 2 al transferir 8.4 de información, de Redmond, Washington a Arlington, Virginia, en 81 segundos, a una tasa de 830 megabits por segundo.

En una demostraciones recientes con tecnología médica muy compleja, el equipo encargado entró a la Red con un equipo PC Pentium, a un sitio de la Universidad Carnegie Mellon, llamado “3-D BrainMapping” (Mapeo Cerebral en Tercera Dimensión), donde una grabación en video se activa sobre un reproductor, alimentado con una transmisión en vivo de un cerebro escaneado en Pittsburgh, alimentando los datos desde una supercomputadora, de tal manera que se transmite en tiempo real a numerosas universidades de Estados Unidos.

Financiamiento y patrocinio

Estos proyectos son posibles gracias a los recursos corporativos de inversión aportados en dinero y recursos humanos. Los socios corporativos y patrocinadores incluye a gigantes de la industria como Cisco, Nortel, 3Com, IBM, Lucent-Alcatel, Bell South, Compaq, Novell, entre muchos otros, y un reporte reciente establece que las universidades en el proyecto han comprometido más de $80 millones de dólares por año, en tanto que los miembros corporativos han ofrecido más de $30 millones de dólares para la totalidad del proyecto, y se estima que han fluido hasta el momento alrededor de $300 millones de dólares anuales.

Muchos otros patrocinadores se unen cotidianamente al desarrollo de esta Red evolucionada. Existen grupos de trabajo que se integran todo el tiempo. Por ejemplo, se está involucrando en un proyecto de middleware, mientras que otros dedican sus esfuerzos en voz sobre IP, el protocolo IPv6, QoS y multitransmisión IP.

Los expertos opinan que dentro de un año estará disponible esta tecnología para el público en general, siendo que muchas aplicaciones existen ya, y son factibles de ser usadas si se instalan las líneas de fibra óptica adecuadas.

Estos son apenas algunas de las más elementales posibilidades que se vislumbran hacia el nuevo siglo, y por ello los líderes en las tecnologías de información y las principales universidades del mundo, en alianza con proveedores de soluciones tecnológicas, han articulado una visión común para responder a las nuevas demandas de la comunidad académica y construir la nueva generación de redes y aplicaciones. Los usos de estas herramientas facilitarán la expansión de bibliotecas virtuales; la integración y distribución de complejos materiales multimedio relacionados con los programas académicos, en formatos personalizados; acceso a poderosos agentes digitales de búsqueda; conexión a supercomputadoras y aceleradores; herramientas de videoconferencia para configurar aulas virtuales, entre muchas otras aplicaciones con acceso desde cualquier parte del mundo.

Es bueno señalar que, a diferencia del origen de Internet, se busca que un nuevo sistema de redes integre más completamente a las universidades como entidades generadoras de conocimiento, con la industria y el comercio bajo el concepto central de que el saber salga de los edificios y academias para que la enseñanza y el aprendizaje formen parte de las actividades de todos los días, haciendo fecunda y compartida la experiencia de conocer y abrir campos enteramente nuevos para la inteligencia humana.

Internet 2 en México

En mayo de 1999, la Corporación Universitaria para el Desarrollo de Internet y la UCAID, la organización líder del proyecto Internet 2, firmaron un acuerdo de colaboración en el desarrollo de tecnologías y aplicaciones avanzadas de Internet para educación e investigación, con lo cual el CUDI se erigió como la primera asociación latinoamericana de investigación e investigación en red.

Con este acuerdo los investigadores en universidades mexicanas tendrán la oportunidad de colaborar con sus colegas en Estados Unidos trabajando en proyectos avanzados. Esto permitirá que la investigación en México entre en contacto con tecnologías de vanguardia en el campo de las redes de telecomunicaciones avanzadas y la nueva generación del desarrollo de Internet. Establece asimismo las bases de la colaboración entre las organizaciones e instituciones nacionales de ambos países.

Los objetivos de este acuerdo establecen:

• Proveer la apropiada interconexión entre Internet 2 y miembros del CUDI con el propósito de desarrollar pruebas precomerciales de estas tecnologías y usar aplicaciones avanzadas de investigación y educación. • Colaborar en el desarrollo de estándares comunes e implementaciones técnicas a través de las redes respectivas. • Promover la colaboración entre los miembros formales de organizaciones e instituciones relacionadas con el desarrollo de redes y aplicaciones de nueva generación para ser utilizadas en la investigación y la educación. • Alentar la transferencia tecnológica de sus propios hallazgos para acelerar ela cceso a nuevos servicios y aplicaciones.

La Corporación Universitaria para el Desarrollo de Internet (CUDI) es una asociación no lucrativa integrada bajo el marco legal de México con miembros de los sectores público y privado del país. Su propósito es apoyar y facilitar el desarrollo de redes de telecomunciaciones y cómputo de alta capacidad para promover la investigación y desarrollo, así como las actividades educativas de su población.

Las metas particulares del CUDI se proponen:

• Promover la creación de una red de telecomunicaciones con capacidades avanzadas. • Fomentar y coordinar proyectos de investigación para el desarrollo de aplicaciones de tecnología avanzada de redes de telecomunicaciones y cómputo enfocadas al desarrollo científico y educativo de la sociedad mexicana. • Promover el desarrollo de acciones encaminadas a la formación de recursos humanos capacitados en el uso de aplicaciones educativas y de tecnología avanzada de redes de telecomunicaciones y cómputo. • Promover la interconexión e interoperabilidad de las redes de los Asociados Académicos y de los Afiliados. • Promover el desarrollo de nuevas aplicaciones que realice. • Difundir entre sus miembros los desarrollos que realice.

Actualmente su membresía involucra 24 organizaciones:10 Asociados Académicos, 5 Asociados Institucionales y 9 Afiliados. Se tienen planes para incrementar la membresía a cuando menos 50 organizaciones durante este año. Se destaca la importancia del desarrollo de infraestructura de conectividad para incorporar universidades del sureste y la costa del pacifico.

Para hacer frente a otras importantes fases de este proyecto, se estableció el compromiso de continuar impulsar su expansión, facilitando soporte para la conexión de universidades con bajos recursos y patrocinar aplicaciones prioritarias, y en breve se espera concluir negociaciones con Global Crossing para lograr conectividad con redes universitarias sudamericanas.

Áreas de desarrollo prioritarias para el CUDI:

• midleware • multicast • IPv6 • calidad de servicio • H.323

Principales proyectos en desarrollo con importante avance:

• Bibliotecas digitales. El avance logrado por Phronesis permite disponer de una sólida plataforma para proyectos colaborativos, con énfasis en las decisiones para adquirir paquetes de publicaciones periódicas.

• Educación a distancia. Se promoverán las bases para buscar la acreditación de cursos, la identificación del inventario de cursos disponibles, el establecimiento de normas y la promoción de cursos a nivel nacional e internacional.

La situación actual del proyecto de CUDI demanda que las universidades evalúen la forma en que están participando. Las universidades Afiliadas deberán concluir sus enlaces, y en general, todas las universidades requieren consolidar la organización interna para coordinar los esfuerzos en el diseño y construcción de las redes internas, pero sobretodo, en el impulso del desarrollo de aplicaciones en las que participarán.

Ha quedado claro que Internet 2 es un medio para apoyar el rediseño de los procesos educativos y de investigación. El reto es como van a aprender los alumnos de una institución de educación superior en los próximos años aprovechando la tecnología disponible.

Los miembros de CUDI se encuentran en fase de defición de proyectos relacionados con las siguientes áreas de investigación:

• Administración de redes • Bibliotecas digitales • Co-laboratorios • Educación a distancia • Middleware • Protocolos de comunicación • Realidad virtual • Seguridad en redes • Sistemas de información geográfica • Supercómputo • Telemedicina

Lista de aplicaciones en fase de desarrollo de Internet 2 por universidades Miembros de CUDI

Universidad Autónoma Metropolitana • Diplomado: Gestión de Alta Dirección de los Servicios de Enfermería • Modelo Educativo para la educación a Distancia de la especialización en Desarrollo de Productos Interactivos a través de Internet Universidad Nacional Autónoma de México • Ambientes colaborativos y visualización en línea • Arte en Internet 2: Visión 20||21 • Barra de herramientas para la visualización en línea o colaborativa con software de terceros: un caso con Grass • Biblioteca Médica Nacional Digital • Cómputo Intensivo entre Nodos Computacionales. • Control y Transmisión de Datos de los Observatorios Astronómicos desde los Centros de Visualización y Procesamiento • Conversión Digital de la Videoteca de TV-UNAM y Radio UNAM para su distribución por Internet 2 • Distribución de Tareas de Software Comercial en Redes de alto rendimiento (AVS, Maya). • Empleo de un Colaboratorio para Intercambio Síncrono de Imágenes, Vídeo, Datos y Aplicaciones. • Páginas Interactivas VRML con capacidades de procesos y monitoreos simples de ambientes complejos. • Realización de eventos por videoconferencia empleando alta calidad de vídeo y audio con estándares H.323. • Servicio de acceso al acervo astronómico de “Two Micron Survey All Sky Survey” (2Mass). • Servicio de consulta, distribución y visualización de imágenes de satélite de resolución media (MSS 80m) de México. • Sistemas de Distribución de Video y Audio • Sistemas de Información Geográfica y Percepción remota con ambientes de navegación 2D y 3D, para sistemas de bases de datos de gran escala. • Suite de productos para el trabajo científico en redes de alto rendimiento (habanero, labvis, cumulus). • Telecontrol en robótica.

Educación en la era de las redes de alta velocidad

Posted in CIENCIA Y TECNOLOGÍA with tags , , , , on agosto 11, 2008 by zewx

Las comunidades de conocimiento en la historia del ser humano han sido los más eficientes transmisores de los valores y evolución de los grupos sociales; desde los escribanos de la antigüedad, los monasterios medievales y las universidades a partir del Renacimiento, hasta las redes globales de las comunidades científicas y académicas de nuestro tiempo, han hecho posible sus descubrimientos e innovaciones gracias a estas redes humanas que comparten el saber y los transmiten a la sociedad.

Las tecnologías digitales de hoy hacen posible muchos de los sueños de antaño, conectando al individuo a sistemas interactivos e instantáneos de comunicación que permiten dar forma y compartir los conocimientos, así como participar en las más importantes decisiones políticas y sociales.

No hay que olvidar que este robusto mundo de telecomunicaciones disponible para el siglo XXI ha sido edificado con el conocimiento de científicos e ingenieros que facilita actualmente al público en general un acceso insospechado a la inteligencia global. Las inversiones y esfuerzos que dieron forma al Internet que conocemos, se dedican a edificar la infraestructura de las redes del futuro, la nueva generación de las herramientas para distribuir el saber.

Los tres bastiones del conocimiento para el siglo XXI:

1. Nuevas aproximaciones al supercómputo, a través del conocimiento compartido por medio de avanzadas comunicaciones en red. 2. Conocimiento en red, que facilita las conexiones intelectuales de una manera nunca antes imaginada. 3. Sistemas inteligentes, que expanden las capacidades humanas de aprender y crear.

La convergencia entre computación y telecomunicaciones promete hacer factible que los nacientes sistemas ultrarrápidos de transmisión de altos volúmenes de datos, se orienten más al uso humano, haciendo más creativa la interacción con las máquinas.

Durante los últimos 35 años la comunidad académica superior ha incorporado el uso de tecnología electrónica a sus métodos de investigación y por eso hoy no resulta extraño que numerosos campus universitarios en todo el mundo cuenten con redes de alta velocidad y ancho de banda para sus actividades cotidianas, con un ambiente computarizado en expansión en aulas, laboratorios y talleres, y desde hace varios años Internet se incorporó a este cuadro, permitiendo el uso de correo electrónico, páginas con índices de contenidos, herramientas para compartir lecciones de manera asincrónica y en tiempo real, haciendo posible en muchos casos colocar cursos completos validados en línea.

En este contexto se ubica el proyecto Internet 2, sobre el cual se han publicado y dicho numerosas incorrecciones o versiones inexactas, como el que se trate de un experimento de la comunidad académica de varios países para atraer fondos en investigación.

Sin embargo, los fundamentos de este ambicioso proyecto parten de un hecho innegable: la calidad de servicio que prevalece hoy en Internet se ha deteriorado por numerosas circunstancias, desde la obsolescencia misma de protocolos, equipos e infraestructura, en relación con la explosiva cantidad de usuarios en el caótico mundo virtual de este medio, con usos que van desde adolescentes que se envían animaciones o pesados juegos electrónicos hasta estudiantes de posgrado e investigadores compartiendo datos cruciales para trabajos de importancia estratégica. Estas contradicciones y erosión de la capacidad de comunicación en Internet han sido los principales argumentos para la búsqueda de una alternativa.

El debate sobre la naturaleza de esta poderosa infraestructura parte de su propia denominación: construye mejoras, extensiones y nuevas capacidades sobre el protocolo de Internet, IP (Internet Protocol), aunque su parentesco con la anterior versión oscurece un poco sus atributos y objetivos.

La visión clara de la participación de instituciones gubernamentales y líderes en la industria de las tecnologías de información, ha cimentado un escenario precompetitivo que fomenta una temprana adopción de modelos vanguardistas con nuevas tecnologías y servicios de entrega de contenidos, por parte de los proveedores comerciales de Internet, en el entendido que sólo el sector privado podrá contribuir con sus recursos en una arquitectura mejorada de Internet para que los usuarios en hogares y oficinas sean beneficiados y fortalezcan con su consumo la retroalimentación indispensable para estandarizar los nuevos productos y servicios.

En la Red que conocemos actualmente las proporciones de confiabilidad en el envío y recepción de datos ha crecido en imprevisibilidad (en detrimento del tiempo y calidad de la entrega), y lo peor es que las aplicaciones electrónicas se diseñan con esas limitaciones en mente. Las tecnologías de nueva generación requieren un grado casi total de garantía en la entrega, con una línea de tiempo definida y una capacidad de transporte aceptable. Algunas funciones requieren que los mismos datos lleguen a múltiples usuarios, mientras que otras deberán respaldar una calidad de servicio para sistemas, asimétricos y así como una confiable interactividad simétrica.

Esta infraestructura de nueva generación en telecomunicaciones que representa Internet 2 está lejos de ser exclusiva para la comunidad académica y científica, como se ha establecido erróneamente, porque ésta ocupa sólo una pequeña porción del mercado de consumo en Red y, sin lugar a dudas, esto significa la apertura de un millonario mercado de consumo masivo y otro de consumidores comerciales e industriales con necesidades de alta capacidad y complejidad en la respuesta a las demandas del primero, pero es trascendental tener en cuenta que estos dos grandes tipos de consumidores aún no demandan los servicios electrónicos de comunicaciones que requiere la educación superior en la era del conocimiento.

Por eso Internet 2 se vislumbra como piedra angular en el desarrollo y distribución de los conocimientos indispensables para cerrar el ciclo virtuoso que llevará estas tecnologías a la sociedad en general.

Ante esta perspectiva resulta claro que la educación superior no sólo seguirá relacionándose fuertemente con el Internet comercial para desarrollar gran parte de sus servicios de comunicación, sino que se marca una acentuada tendencia para migrar hacia el sector privado la plataforma de esta importante toma de decisiones.

La arquitectura mejorada de Internet incluye un nuevo componente en la infraestructura, que permitirá pronto a la comunidad global de educación superior continuar haciendo un uso de calidad de los servicios de Internet, así como tener acceso a una nueva gama de funcionalidades Internet 2. Este componente ha sido llamado GigaPOP, pero podría describirse mejor como Centro de Servicios Internet 2 (I2SC por sus siglas en inglés), que podría visualizarse como un enorme centro comercial, un centro neutral de reunión de distintos proveedores donde los consumidores pueden acudir para obtener una amplia variedad de servicios de transporte de Internet de alta calidad en velocidad y volumen.

Así, una institución universitaria podría utilizar una sola de esas conexiones para facilitar a su comunidad local el acceso a estos servicios de tecnología de punta. En esta fase de aplicación en el ámbito de la educación superior, el proyecto Internet 2 se enfoca en el desarrollo y prueba de la efectividad de un amplio rango de nuevas tecnologías para la enseñanza, aprendizaje, investigación y colaboración, y el crecimiento de los participantes en la alianza institucional-académica-industrial, ha permitido que gran cantidad de universidades en el mundo sumen sus conocimientos y comunidades locales.