Archivo de la Categoría ‘netneutrality’

Web profunda / Deep Web

Acabo de recibir la comunicación  de Call of  Papers de la WWW2012 conferencia mundial de la WWW, que cada dos años organiza el W3C (World Wide Wide Consortim) que en 2012 se celebra en Lyon, Francia. Como en cada anuncio de este tipo, lo primero que hice fue buscar la lista de los ‘Scientific topic’s. Que para mí son tradicionalmente una via avanzada que indica por qué caminos probables va a venir el futuro de la Web. Recuerdo perfectamente cómo hace años, esa lista de ‘topics’ la veía  como una línea de ‘bengalas’ conceptuales que señalaban el futuro de las tecnologías de la web, hasta el punto que, cada vez en menor tiempo, he visto emerger en esta conferencia nuevos estándares que años después se convertían en tecnologías funcionado en Internet y poco después en modelos de negocio que han acabado que hoy son las empresas innovadoras en la red. De una forma palmaria a los pocos años presentar en la WWW Conference toda una generación de nuevos estándares para el código informático y la arquitectura de la web, surgieron multitud de aplicaciones de la Web convertidas en lo que explica la formulación de Tim O’Reilly de la Web 2.0. En pocos años los estándares facilitaron  la creación de empresas,  aplicaciones y servicios  que usan ciento de millones de personas debido a la gigantesca escala de la red de hoy, desde Panoramio, Flickr, You Tube, los blogs, Facebook o twitter, que es la manifestación mas clara del nuevo Internet de tiempo real.

Como dice mi amigo Leopoldo Amigo, aunque no nos fijemos en ello, todo lo que funciona, lo que suena, lo que leemos, lo que usamos, siempre ha sido pensado antes. El pensamiento siempre es anterior a las obras, sean logros artísticos, científicas o tecnológicos. Todo es fruto de una vanguardia de pensamiento que siempre va pro delante aunque los que usamos y disfrutamos las cosas o las creaciones, aunque nosotros actuemos como si todo se generase a sí mismo por generación espontánea. No hay generación espontánea. Coincido con Leopoldo en que el pensamiento, la investigación y sus búsquedas van muy por delante de la techné. Los scientific topics de las W3 Conference nos pueden dar pistas sobre nuevos caminos a aplicaciones y nuevos modelos de negocios y servicios basado en la Web. En el ‘universo’ de la arquitectura de Internet esto es especialmente evidente. La conexión entre el mundo científico, y la diseminación de sus nuevos estándares  (los de el W3C son abiertos) y la emergencia de nuevos modelos de negocio y empresas concretas de portentosa realidad están una relación causa-efecto diáfana y se ha producido, asombrosamente, a plena luz ante nuestros asombrado ojos en los últimos diez años. Uno de los tópics que me han interesado mas de la WWW2012 es el llamado “Deep Web” (Web profunda), -que no es nuevo, pero esta ahora en ‘el foco’-. Tiene que ver con  partes valiosas de información de Internet a la que no acceden los buscadores actuales (Google incluido) porque, como me ha explicado mi también amigo Ricardo Baeza-Yates, aun no son capaces de entender por completo la semántica de los documentos que hay en esa parte de la red. ¿Y en que sección esta el topicdeep web’? pues en la de ‘Information Extraction and Natural Language Processing’. Vaya, qué casualidad. Hace pocos días se presentó el esperadísimo iPhone4S, que ya incluye un ‘revolucionario sistema de lenguaje natural’. Dicen que nada es casualidad en tecnología.

A los emprendedores y a las empresas innovadoras que buscan la emergencia de nuevas oportunidades y mercados, les conviene estar atentos a los ‘scientific topics’ de la WWW, dada la inmediatez casi milagrosa, comparada con época anteriores, con que se trasladan los avance científicos sobre la Web al campo de las empresas de internet, que funcionan en Beta Perpetua , inmediatez de la que los Yahoo! Labs son uno de los mejores ejemplos. Los conceptos avanzados en la lista de scientific topics son ahora como  ‘caminos de bengalas’ del pensamiento científico e investigador que les marcará caminos que llevan a lo mejor del futuro inmediato. Todo lo que usamos ha sido pensado antes por alguien cuya mente ya iba muy por delante, como dice Leopoldo.

………………….

Este artículo se publicó como una columna en la página 4 del Suplemento Innovadores del diario El Mundo, el 3 de octubre de 2010.

Saturday, October 29th, 2011

Una década prodigiosa: del Y2K a Wikileaks

Hemos atravesado inexorablemente el límite entre la primera y la segunda década del siglo XXI. La primera ha sido un periodo prodigioso para la cultura digital y de la red. En ella, hemos podido ver a lo digital e Internet saltando del ideario de una minoría de digerati (término construido a semejanza de la palabra latina ligerati -letrados-, que,  en la cultura digital avanzada, se refiere a personas expertas en temas relacionados con lo digital y la Sociedad de la Información), al dominio público social en un modo global. Ha sido tal la vertiginosa evolución de los Efectos de la Red (O’Reilly) combinados con sucesivas oleadas de tecnología digital –con el continuo cumplimiento de la Ley de Moore-, que lo que hace diez años era propio del uso de unos pocos, forma parte hoy del patrimonio intelectual de una gigantesca minoría social global (el 25% de la población del planeta ya esta ‘wired’, -conectada digitalmente-).

No puedo reseñar aquí los millones de facetas del tremendo y proteico cambio que esta década ha supuesto para relaciones y conductas humanas posibles de todo tipo. En primer lugar, en las culturales  –en relación a la visión del mundo y de la sociedad y las conductas personales y sociales- y, en segundo, en las profesionales y las de las instituciones y empresas –que tiene que ver con los modos de vida y actividades profesionales-. Precisamente,  es evidente un cambio de orden: la superposición de lo social e individual horizontalmente a través del plano virtual, digital, global y de la red, imponiéndose a las reglas de arriba abajo, propias de la era industrial y basadas en la demarcación territorial (leyes, política, empresas, industria y geografía física) vigentes  durante todo el siglo XX.  Mi sensación esencial sobre el cambio, en esta primera década prodigiosa del siglo XXI, es que muchas de las cosas que parecían imposibles a la cultura del siglo XX de la era industrial, son realidad hoy en el XXI y están sucediendo para estupor, y a pesar de, muchos de los arrogantes sectores y poderes dominantes anteriores, -desde la cultura a la política o los medios-.

Por simbolizarlo en dos acontecimientos decisivos impulsados por lo digital: la década se inició con el tremendo fiasco del Y2K, también conocido como el error del milenio, problema informático del año 2000, con el que gobiernos e industria cosecharon uno de sus ridículos generalizados mas espantosos. Y termina con la explosión  de Wikileaks, otro gran ridículo para similares poderes políticos, mediáticos  y económicos, que demuestra que hoy es posible realmente lo que ellos consideraban imposible. Como el fenómeno Wikipedia, una de las cosas mas grandes de ésta década -esta apunto de cumplir 10 años de existencia–  para el conocimiento en la humanidad, que se puede resumir en el mensaje de agradecimiento que su fundador acaba de colgar en la red.

En resumen, dice: “¡Caramba! ¿Qué puedo decir? Gracias. Hemos realizado la recaudación de fondos más exitosa de nuestra historia: 16 millones de dólares en menos de ocho semanas. Increíble. Pero no estoy sorprendido. En 2001, aposté por la gente, y nunca me han fallado. 19 millones de artículos enciclopédicos en 270 idiomas, que sigue desarrollándose y mejorando día a día. La han apoyado, financiado y protegido. La publicidad no financia Wikipedia, sino ustedes. Wikipedia es la quinta web más visitada del mundo —400 millones de personas el último mes—. Sus donaciones siguen difundiendo el acceso libre al conocimiento por todo el mundo. Es un historia asombrosa. No hay nada que se le parezca. Gracias de nuevo. Wikipedia para siempre. Jimmy Wales. Fundador, Wikipedia”.

Thursday, January 6th, 2011

Richard Stallman, el software como servicio y La Nube (Cloud Computing)

Richard Stallman: el Hacker ético

Inventó el concepto de copyleft, utilizado en la Licencia Pública General GNU (GPL) Creó la mayor parte del sistema GNU, excepto el núcleo. Linus Torvalds lo escribió en 1991 y liberó el núcleo Linux con GPL, completando el sistema operativo GNU/Linux

El 27 de septiembre de 1983, Richard Stallman anunció en grupos de noticias de Usenet el inicio del proyecto GNU que iba a crear un sistema operativo completamente libre. Al anuncio original siguió, en 1985, el Manifiesto GNU, en el cual Stallman declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, al que denominó GNU (GNU No es Unix). Poco tiempo después se incorporó a la organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo.

En prólogo de su libro “Software Libre para una Sociedad Libre”, Lawrence Lessig, catedrático de leyes de la Universidad Stanford y co-fundador de Creative Commons afirma: “Cada generación tiene su filósofo: un escritor o un artista que plasma la imaginación de una época… con reconocimiento o sin él, cada época queda marcada por la gente que expresa sus ideales, sea en el susurro de un poema o en el fragor de un movimiento político. Nuestra generación tiene un filósofo. No es un artista, tampoco un escritor profesional. Es un programador. Richard Stallman comenzó su trabajo en los laboratorios del MIT como programador y arquitecto de información desarrollando software de sistemas operativos. Es el fundador un movimiento por la libertad en un mundo cada vez más definido por el «código». El «código» es la tecnología que hace que los ordenadores funcionen. Estas máquinas (ordenadores) definen y controlan cada vez más nuestras vidas. Estas máquinas nos dirigen. El código dirige estas máquinas. ¿Qué control deberíamos tener sobre el código? ¿Qué comprensión? ¿Qué libertad debería haber para neutralizar el control que permite? ¿Qué poder? Estas preguntas han sido el reto de la vida de Stallman”.

Richard Stallman / Wikimedia

He tenido ocasión de dialogar con Stallman, en pleno centro de la ciudad en su última visita a Valencia. Richard afirma que “solo el software libre es ético porque que te proporciona las cuatro libertades: la de ejecutar el programa como quieras; la de estudiar y cambiar el código fuente para que el programa haga lo que tu quieras; la de ayudar a los densas regalando copias exactas del software a quien quieras y la de distribuir copias de tus programas informáticos cambiados y mejorados“. A los emprendedores con iniciativa para crear una empresa de software, en tiempo de crisis como este, les aconseja “participar en la comunidad de software libre. Aprender a participar en esa comunidad permite desarrollar contactos y estar liso para detectar oportunidades”. Preguntado sobre si el software libre puede ayudar a las PYMES y pequeñas empresas afirma “Seas una corporación o un individuo no debes usar software privativo porque pierdes tu libertad”. “No necesito tener ventajas económicas para defender mi libertad, es secundario, porque para mi usarlo es absurdo, pero vemos que en el software privativo hay enormes empresas. El software privativo favorece las grandes empresas y eso es una oportunidad para las pequeñas, ya que a ellas sí les favorece usar el software libre”. “Tanto una empresa, como tú y como yo necesita poseer el control de su informática y solo con el software libre conseguirá esto”. Sobre la visión para el siglo XXI, a las 25 años de lanzar GNU, critica el ‘software como servicio’ y el ‘Cloud Computing’ (Computación en la nube). “El software como servicio es ‘vicio’, algo malo, porque con él pierdes el control de tu informática. Con el software como servicio estas mas lejos aun de tener el control que con el software privativo ya que sí con éste el programador te entrega únicamente la forma ejecutable, con el software como servicio no tienes el código fuente y si no lo tienes es muy difícil estudiar lo que realmente hace el programa informático y cambiarlo para adaptarlo o mejorarlo. Con el software como servicio envías tus datos a un sitio Web. Ese sitio hace tu informática y recibes los resultados, pero no el código fuente ni la versión ejecutable y es totalmente imposible saber lo que hace ese servidor y también cambiarlo”.

Sobre el término tan de moda ahora “Cloud Computing”, Stallman opina que “es mejor no usarlo porque es muy vago”.”Cuando dicen usar ‘la nube’ se refieren a usar la red para algo, pero no sabes a qué se refieren exactamente. Hay maneras buenas, útiles y éticas de usar la red y otras que no los son. Con ése término no esta claro a cuáles te refieres”. Sobre la idea de que el hardware también sea ‘libre’ afirma: “es absurdo hablar de eso ya que los objetos físicos no están ligados a las mismas reglas que el software que es un intangible”.

Richard Stallman dando una conferencia en el Museo de las Ciencias de Valencia. Fotos Adolfo Plasencia

En cuanto al controvertido tema de los derechos de autor afirma “ya no funciona mas que como una reglamentación que no favorece a los autores ni al beneficio del público, sino que hace que los intermediarios impongan unas restricciones al público en nombre, usualmente, de los autores con unas pocas excepciones para fingir justificarlo”. “Es controvertido porque nos restringe ya a cada uno de nosotros. Y es una restricción insoportable. Porque pretende aplicar la restricción a todo el mundo (indiscriminadamente). Un estado mas democrático disminuiría el poder y las restricciones del derecho de autor. Podemos medir la falta de democracia en nuestros estados por su tendencia a lo contrario, a alargar mas y mas en el tiempo las restricciones y el periodo de vigencia de los derechos de autor. Es un engaño, es un fraude. En Europa se extiende hasta los setenta años después de la muerte del autor y ya es casi imposible esperar que una obra vuelva al dominio público. Nadie vive tanto tiempo

Después Richard Stallman me despide sonriente con un ”happy hacking!”

 

Thursday, March 11th, 2010

La neutralidad de la red

Comparto palabra por palabra lo que dijo, como presidente del encuentro, el profesor Juan Reig, en el acto de inauguración de la Conferencia Internacional de Software Libre de Málaga de que “la elección de la tecnología nunca es inocente. Y no es inocente porque dicha elección tiene consecuencias individuales y sociales. Puede determinar quién tiene acceso y quién se beneficia de estas nuevas tecnologías de información.”

Net Neutrality

Hay una declaración de principios que también suscribo y que describe muy bien el fair use (uso legítimo o uso razonable) que esperamos de los otros usuarios y agentes tecnológicos de la red, toda la gente que estamos por primar el bien común por encima de los que pretenden apropiarse para intereses propios sin dejar que queden abiertas para un máximo de personas las potencias y posibilidades que nos proporciona la red. Esa declaración que se refiere explicitamente a la apropiación y utilización de internet con propósitos abiertos y colaborativos la propone la Red de Tecnología e Innovación Educativa (RTIE). Quiero reseñarla explícitamente ya que son proposiciones que creo básicas: afirman que la tecnología no es neutra, ya que configura visiones sobre la realidad y los sujetos; que ha de posibilitar la reutilización y la apropiación por parte del usuario y no ha de ofrecer marcos prescriptivos, sino enfoques abiertos y colaborativos. Y sobre todo algo esencial: la tecnología debe posibilitar y facilitar experiencias de compartir conocimiento con valor, conciencia y reflexión crítica, y articulación de identidades abiertas y flexibles.

Ése es un buen marco ideal y en gran parte la formulación de estos principios casi son una descripción del los usos de la tecnologia que idealmente deberíamos practicar en nuestra actividad con la red, con internet. Hoy por hoy hemos llegado a un punto al que casi nadie preveía y desde el que tampoco nadie nos garantiza que las cosas de la tecnología podrían dejar de ser así. Pero hay continuos intentos por parte de distintos poderes de apropiarse en su beneficio particular -en detrimento del de otros- a medida que surgen nuevas posibilidades tecnológicas en la evolucion de internet. Una de las formas de mantener a raya a los poderes oportunistas de le red es mantener el principio de neutralidad de red, uno de los principios fundacionales de la red, tal como la hemos conocido: la red transmite/transporta todos los bits como iguales sin jerarquizar ni discriminarlos de forma alguna independientemente de la informacion concreta de que formen parte. Eso hace que la red sea la misma para cualquier usuario sin distinción, es decir manteniendo una comunicación neutral basada en tres pilares básicos: no discriminación, interconexión continudada y acceso de igual a igual.

Es casi increible que un principio tan esencial como este sea casi desconocido por la inmensa mayoria de los usuarios de internet. Han conocido la red así y ni se la imaginan de otra manera. Pero es un principio que se hace mas importante cuanto mayor es la magnitud de los contenidos que circulen por la red. La universalización de la banda ancha y el advenimiento de la red masivamente audiovisual estan sacando a la luz los intentos de muchos poderes de la industria tecnólogica y de las telecomunicaciones por saltarse este principio.
Por ello ahora estan en marcha ahora muchos debates sobre la neutralidad de la red. Ya no podrmos algar ignoracia. Es un concepto que esta incluso fijado y explicado en Wikipedia y por el que se han pronunciado personas relevantes como el profesor de leyes de Universidad de Virginia Tim Wu, que en su ensayo Network Neutrality habla de los problemas crecientes de la ‘erosión’ de la neutralidad en la red. El propio Tim Berners-Lee, inventor de la Web, también ha hecho advertencias sobre lo importante que es esta cuestión y ha explicado recientemente en su blog del Decentralized Information Group que lidera en el CSAIL del MIT (Massachusetts Institute of Technology) en el que dice:

“La neutralidad de la red es esto: Si yo pago por conectarme a la Red con una cierta calidad de servicio, y tú pagas por esa ó mejor calidad de servicio, entonces tú y yo nos comunicamos a ese nivel.” Eso es todo. Es tarea de los ISPs ser interoperables para que eso ocurra.

La Neutralidad no es pedir que Internet sea gratis. La Neutralidad no es pedir más calidad de servicio por menos dinero. La tenemos siempre y siempre la tendremos.”

Según el creador de la Web, el control de la información es algo muy poderoso y existe el riesgo de que las empresas puedan llegar controlar a qué accedemos por motivos comerciales.De pronto, hay empresas que incluso a corto plazo pretenden hacerse con el control de la distribución de televisión a través de Internet. Estamos acostumbrados a pedir la información y a que esta venga instantáneamente y nos aparezca sin filtros, desvíos, filtrados o reconducciones. Aunque esto parece algo abstracto, ocurre mas cerca de nosotros de lo que pensamos: ya el año pasado la operadora de cable Ono reconoció en un comunicado a la Asociación de Internautas que, en caso de saturación de su banda ancha, tiene la política de dar preferencia a las comunicaciones “inmediatas”, en detrimento de la actividad P2P.

La neutralidad en la red es decisiva y no se nos dará como hasta ahora si no la defendemos. En realidad, con tantos gigantescos intereses que hay en juego en el mundo es casi un milagro que internet haya llegado a ser lo que es, a darnos lo que nos da de forma inmediata. Debemos defender y mantener la neutralidad de la red.
………………………………………….

Publicado en la el semanario Valencia 7 Dias el 22/12/2006

………………………………………….

ACTUALIZACIÓN, 22/9/2007:

Neutralidad de la red.
Cory Doctorow y Enrique Dans, se han hecho eco el 22 de septiembre de que algunos ISP (proveedor de servicios de Internet) se estan saltando la neutralidad de la red, ofreciendo precios diferentes en función de los direrentes páginas y servicios bloqueando algunas de ellas y primando otras:

“how-a-nonneutral-isp.html” Boing Boing

 

 

Friday, September 21st, 2007