Archivo de la Categoría ‘Adolfo Plasencia’

La confusión entre lo Real (Sancho) y lo Irreal (Quijote) en la segunda digitalización.

II CONGRESO INTERNACIONAL SISTÉMICO SOBRE LOS VALORES DEL QUIJOTE

………………………….

Título y abstract y de la Ponencia de Adolfo Plasencia: 

La confusión entre lo Real (Sancho) y lo Irreal (Quijote) en la segunda digitalización.

Abstract

Vivimos en un mundo en el que lo real y lo irreal, la mentira y la verdad, empiezan a ser indistinguibles en las pantallas de la segunda digitalización. Lo que no imaginábamos es que las magistrales ficciones y metáforas, inventadas por Cervantes, repletas de confusiones entre molinos y gigantes; ventas y castillos; entre la vacía y el yelmo de Mambrino, y otras muchas; en suma, entre lo real y lo irreal, son un tipo de confusión de alguna manera equivalentes a las que engañan y atrapan a los que se sumergen en el mundo virtual sin una alfabetización adecuada. Un mundo virtual global que podría calificarse, -usando la terminología cervantina-, como la mayor ‘ínsula barataria’, no ya gobernada por caballeros, sino dominada por gigantes de internet, por encima de los gobernadores del mundo físico que intentan también disputarse su gobernanza. Que las ansias y contiendas por el poder y gobierno del mundo inmaterial del ciberespacio, construido por lo digital, sean mayores aún que las porfías de los humanos por las ínsulas del mundo físico es como una meta-ficción, y una nueva metáfora creada por la realidad, casi a la altura de las que inventó Cervantes.

……………

TEXTO COMPLETO PONENCIA ADOLFO PLASENCIA:

Fue Gottfried Wilhelm Leibniz, tras haberlo descrito en 1703, en su Explication de l’Arithmétique Binaire quien diseñó y ordenó fundir en 1705, un medallón , para hacer más comprensible la noticia de que había inventado el lenguaje binario. En el diseño circular de ese medallón aparecen por primera vez en la historia, las cuatro operaciones aritméticas básicas y los quince números enteros, expresados en sistema binario (solo con ceros y unos). Está coronado por la leyenda: “Nil Praeter Vnum In Omnibvs”, “Nada hay fuera del uno en todas las cosas”, que expresa, como consecuencia, con el ‘Uno’ y ‘su ausencia’ se puede expresar todo.

Medallón diseñado por Leibniz en 1705 en el que aparecen por primera vez en la historia las cuatro operaciones aritméticas básicas y los quince números enteros expresados en sistema binario

La esencia de la actual creciente “digitalización del mundo” no se puede comprender sin saber que es el citado sistema numérico binario el que usan internamente los actuales ordenadores y todas las máquinas digitales, debido a que estas trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario. Cualquier sistema, artefacto o máquina digital que es una combinación de dispositivos diseñados para manipular ingentes cantidades físicas o de información que estén representadas en forma digital, es decir, “en binario”. En las entrañas de dichos sistemas, todas las operaciones de cómputo que se realizan, funcionan usando dos únicos números dígitos, el uno y el cero, o en términos de Leibniz, “el uno, y su ausencia”. Así que el sistema binario que él inventó, ¡hace tres siglos!, está en las claves del funcionamiento de todos los ordenadores y máquinas digitales actuales. Es una demostración palmaria de que el gran Leibniz tenía razón en el lema de su medallón de 1705. De esa idea tan sencilla hemos llegado a los complejos sistemas informáticos extendidos por el todo el planeta usando siempre ese principio. Parece casi increíble que el genio de Leibniz, hace tres siglos, lo anticipara con esa clarividente frase, que seguramente no entendería casi ninguno de sus contemporáneos: “Todo se puede expresar con el uno y su ausencia (el cero).” El inmenso mundo digital de actual demuestra que ocurre, tal como él dijo.

Aún hay una cierta confusión en los términos y significados relacionados con lo digital y conviene explicarlos. La diferencia entre los términos ‘digitización’ (del ingl. digitization) y ‘digitalización’ (del ingl. digitalization), está en que, el primero (la conversión de información analógica a forma digital), se usa para describir los procedimientos para codificar cualquier información inteligible en forma de números y operaciones binarias, (muy fáciles de manejar y ejecutar por cualquier máquina digital, como lo son los ordenadores), cuyos resultados se presentan después en formas inteligibles para las personas. Digitalización, en cambio, describe el proceso global de las transformaciones que nos han llevado a la esta nueva Era digital. En síntesis, la digitalización es un subproceso de un progreso tecnológico mucho más amplio. El esquema completo sería: primero la digitización (la conversión de lo analógico a código binario), después la digitalización (el proceso en su diversidad y a gran escala) y, tras ellos, la transformación digital (el efecto y consecuencia) y el conjunto de sucesos que construyen, en el plano colectivo, la compleja y acelerada secuencia de las transformaciones globales tecnológicas, económicas y sociales, que diremos que son ‘horizontales’ porque afectan a prácticamente todos los ámbitos de la actividad humana.

Primera digitalización. En el mundo virtual: CERCA = LEJOS • DENTRO = FUERA

Para intentar comprender como hemos llegado hasta aquí, y cuáles con las enormes capacidades transformadoras de la digitalización, enumeraré ahora, de forma muy sintetizada, los efectos tiene el citado proceso de transformación digital. Los cambios esenciales que induce la primera digitalización se podrían resumir así:

  • Transforma nuestra percepción intelectual y , por tanto, nuestra comprensión del mundo.
  • Cambia nuestra relación con el espacio físico y la geografía, y también con el tiempo relativo.
  • Modifica las formas y el ritmo del aprendizaje y por tanto, -de abajo a arriba-, empuja a la Educación.
  • Altera las formas y prácticas de vida social y nuestros modos cotidianos de relación humana.
  • Recombina nuestra cultura local con la global. Nuestro imaginario cultural tradicional resulta afectado y transformado por nuestra adopción de una ‘capa cultural global’ que se superpone a ella, desde el mundo virtual, en el que ‘entramos’ a través de las pantallas y la conexión a Internet.

Los antecedentes de esta transformación, la más rápida a escala planetaria de forma pacífica de la historia de la Humanidad hasta ahora, está explicada por Alvin Toffler con sus tres ‘Olas’. La primera y más larga fue la Agrícola, que surgió con la implantación y desarrollo de Agricultura (desde el año 8000 a.c. hasta el siglo XVII); la segunda ‘Ola’ o Era industrial, (desde el siglo XVII hasta la actualidad, ya que se ha superpuesto a las siguientes), que ha incrementando drásticamente el nivel de complejidad e incertidumbre a que nos enfrentamos, en nuestra experiencia sobre el funcionamiento mundo. Y la tercera, que tiene que ver esencialmente con la información, y que llamamos genéricamente, según la terminología de Manuel Castells, la Era de la Información .

Pero dejemos ahora a un lado, la miríada de términos técnicos y tecnológicos complejos y propios del Clavileño tecnológico, y echemos pie a tierra, desde donde lo ve todo el humano de a pie. Y desde ahí, intentemos buscar palabras sencillas para entender, incluso más allá de las propiedades de su naturaleza (o Characteristica Digitalis (Echeverría), encarnada, al tiempo, en lo material, -comúnmente denominado en inglés como ‘hardware‘-; y en lo inmaterial, -denominado ‘software’-. Este último resulta ser una suerte de ‘alma inmaterial’ de ceros y unos, que hace funcionar su lado físico. Atendamos sobre todo a sus efectos, y así podremos ver qué caracteriza a la Primera Digitalización, (genéricamente centrada en lo alfanumérico), y veamos qué sucede con ella desde el punto de vista humano.

En la práctica de la vida cotidiana, individualmente, si ‘estás conectado’, lo que caracteriza para la mente y el espíritu la primera digitalización, dicho en términos sencillos:

  •   El ‘CERCA’ y el ‘LEJOS’ resultan lo mismo.
  •   Ha hecho que el ‘DENTRO’ y el ‘FUERA’, pierdan su diferencia desde el punto de la actividad intelectual. Es decir, que cuando nos conectamos al ‘universo’ virtual de Internet, estamos cambiado nuestra relación con el espacio y, por extensión, debido a ello, nuestra percepción y experiencia sobre el tiempo.  

Toda la digitalización, emerge suavemente. Parecería que silenciosamente, en forma o en apariencia de pequeños cambios sucesivos, pero que poseen una enorme potencia transformadora y tienen grandes consecuencias, al modo del ‘Efecto mariposa‘ que formuló Edward Lorenz, para intentar explicar, de forma sencilla, el complejo comportamiento del sistema atmosférico del planeta. Al igual que ocurre en el comportamiento climático global, estos aparentes pequeños cambios en lugares concretos de la primera transformación digital han generado grandísimos efectos en todo tipo de personas y lugares cercanos o lejanos, y en casi todas las formas de relación o comunicación humana biunívoca. Afectan a la educación, formas de aprender, economía, política, medios de comunicación, y a la evolución e interacción cultural individual y colectiva. También, a todo tipo de formas de trabajo y sus profesiones. -haciendo desaparecer algunas, automatizando otras con máquinas o, y creando otras nuevas, según la ‘destrucción creativa‘ de Schumpeter, aunque esta vez con balance aún incierto-; y, a lo que es más importante, a las relaciones humanas, tanto en los tiempos de vida personal particular como profesional; tanto en el nivel privado, como a la vida pública, y por supuesto, a la condición social de las personas.

Virtudes / peligros de Internet y lo digital

Dado que lo digital está basado en una dualidad, -el uno- y su ausencia, mediante la que se puede expresar todo, la tecnología digital y la de Internet, como toda tecnología, ni es buena, ni mala, ni neutra. Son los usos de la tecnología, y los propósitos e intenciones humanas los que hacen mejores o peores las consecuencias de su uso, y según para quién. La primera fase de la Web, por ejemplo, a partir de su invento en el CERN por Tim Berners-Lee, con las tecnología de estándares abiertos y neutralidad en la Red del W3C (Wold Wide Web Consortium), las que abrieron una ventana de bondad y acceso a la información por igual para todos son excepciones. El blog de una niña era, y aún lo es, servido en pantalla, con la misma calidad y velocidad que la web de una gran empresa o corporación. Eso es debido a los estándares abiertos de la Neutralidad en la Red , según la cual “todos los bits fueron creados iguales“. La Web originaria hizo realidad el sueño libertario de un acceso a la información igualitario y abierto para todos, sin restricciones ni discriminaciones de ningún tipo, algo inusual en el mundo a esa escala, hasta entonces.

Por ahí nos llegó el maravilloso acceso a Wikipedia, una gran obra colectiva en multitud de idiomas, desde cualquier lugar del mundo que disponga de conexión. Cientos de millones de personas la consultan cada día, yo entre ellas. Diderot, d’Alambert, Rousseau, Montesquieu o Voltaire, y también Cervantes, estoy seguro, estarían orgullosos de esta conquista humana. Una enciclopedia universal, abierta al alcance de cualquiera, -y sin publicidad, ni pago alguno-. Y también, el aprendizaje a distancia; la telemedicina y, entre otras muchas cosas, el reservar una entrada de teatro o un asiento en un tren, o un avión, sin movernos de casa. Y luego, con los teléfonos móviles conectados desde cualquier lugar, y en tiempo real, la conversación virtual de todos con todos se fue haciendo universal. Y con las increíbles tecnologías de búsqueda y la cartografía de cada ciudad del mundo, simplemente, si sabes cómo se llama algo, entras en Internet en el buscador Google, y lo encuentras inmediatamente, en milésimas de segundo.

Las cifras de Internet son sobrehumanas. Ahora mismo los internautas hacen 5.700 millones de búsquedas en Internet en Google cada día; hay ahora más de 4.200 millones de personas en total conectadas a Internet, que envían más de 230.000 millones de correos electrónico; verán hoy más de 6.100 millones de vídeos en You Tube, y publicarán más de 660 millones de tuits en twitter; subirán en el día de hoy, más de 71,8 millones de fotos a Instagram; y estas cifras con de un solo día. (Los usuarios de Instagram han publicado en esta red social, en estos seis meses del 2019 más de 12.200 millones). Hay publicadas en Internet, hasta ahora, 1.690 millones de sitios Web. Y en su tráfico se mueven diariamente casi 5.800 millones de Gigabits de datos. Pero también, cada día, el funcionamiento de Internet consume 3,5 millones de Megavatios/hora de electricidad, y por su funcionamiento está empezando a ser una preocupación medioambiental, ya que su actividad emite a la atmósfera más de 2,9 millones de toneladas de CO2 por día. Todas estas magnitudes son casi increíbles.

Pero en el lado humano es una revolución. Para madres, padres o abuelas/os, escuchar su voz y ver la cara en movimiento con sus hijos o nietos “como si estuvieran aquí”, por ‘vídeo-llamada’ digital, desde cualquier lugar de España como Villanueva de los Infantes, sin importar el lugar del mundo donde se encuentren, y con un coste casi simbólico, ha sido una de las materializaciones más evidentes y universales de la bondad de lo digital, de nuestro siglo.

Pero tras los cambios impulsados por lo digital hay intenciones humanas y usos mejores y peores de la tecnología. Por eso, afecta de forma desigual a distintas personas, por sus grandes diferencias y la diversidad del mundo. Como siempre ocurre con los cambios, en ellos hay perdedores y ganadores, igual que hay comunidades humanas que salen bien paradas con la digitalización, a otras, les sucede casi lo contrario. Parafraseando a William Gibson; el cambio digital que era algo del futuro, “que ya está aquí, pero ha llegado muy mal repartido.” Pero pasemos al siguiente estadio de lo digital.

En las pantallas de la Segunda Digitalización, REAL = IRREAL y MENTIRA = VERDAD

La Segunda Digitalización, como yo la llamo, se superpone y solapa a la primera, -en el sentido de Gibson-, tras la primera etapa, a partir de los tiempos de la explosiva adopción, por gentes de todo el mundo, de la conexión a Internet. Cronológicamente, primero a partir de 2004, año en que Tim O’Reilly formuló la “Web 2.0” dando noticia anticipada del advenimiento del Internet Social. Y en una segunda fase, con la disrupción tecnológica global que supuso el lanzamiento mundial del iPhone 1 (o, iPhone 2G), en 2007, sin teclado físico y con pantalla e interfaz táctil ‘capacitiva’, altavoz, auricular, micrófono, cámara de 2 Megapíxeles, auriculares, conectividad inalámbrica EDGE y también Wi-Fi. Este decisivo suceso, provocó un enormes cambios en toda la telefonía móvil mundial, fusionando con su radical facilidad, la experiencia humana de la telefonía móvil con Internet, gracias a la tecnología del Internet móvil con su conexión ubicua (desde cualquier lugar y en cualquier momento). Según el informe anual Mobile Economy de la GSMA, organizadores del Mobile World Congress de Barcelona, a finales de 2017, el número de líneas de telefonía móvil (tarjetas SIM) de usuarios humanos, (excluyendo las que usan máquinas entre sí), alcanzó los 7.800 millones , cantidad equivalente al 103% de los habitantes del planeta, superó por primera vez a la población mundial (7.600 millones de personas).

La popularización masiva del Internet móvil ha hecho adulta a la Segunda Digitalización. Veamos qué ocurre en ella, ahora, con el factor humano individual y social. La curva de aprendizaje de las Apps (aplicaciones informáticas ‘ligeras’ para el Internet móvil) tiende a cero. En realidad, las Apps son como aplicaciones informáticas ‘low cost’, por usar el símil de la aviación, es decir son más simples y baratas, pero mucho menos seguras y además instrumento de recolección masiva de datos a espaldas del usuario y un auténtico río de dinero para Apple y Google. En 2017, las ‘descargas’ globales de Apps, sobre todo centradas de las tiendas iOS App Store y Google Play, superaron los 175.000 millones de descargas, que significaron para estas empresas unos ingresos de mas 86.000 millones de dólares. Eso mismo ha hecho que se multipliquen casi infinitamente. En cuanto a su uso, las magnitudes son escalofriantes, desde el punto de vista humano. El usuario medio de teléfonos inteligentes lleva más de 80 Apps distintas en su teléfono, y utiliza cerca de 40 de ellas al mes, y tiene su intención en ellas, casi 3 horas por día, de media. Esto no es inocente porque son tecnologías creadas para generar adicción. Las redes sociales globales y sus Apps han hecho universal el Internet social.

La explosión de la Inteligencia artificial (IA) en la segunda digitalización.

Pero faltaba algo para que podamos hablar con propiedad del inicio de la madurez de la ‘Segunda Digitalización, o ‘Digitalización al Cuadrado’. Ese algo ha abierto una tercera etapa, a todo lo anterior. Se trata del complejo universo digital guiado por algoritmos de la frontera actual de la inteligencia artificial (IA), que ha añadido al complejo plasma de la segunda digitalización nuevos componentes que interactúan con todos los demás, incluido el humano. Fundamentalmente, su mejor ejemplo son las entidades autónomas de software creadas con un propósito concreto, para el que, en algunos casos, son entrenadas. Su denominación general es ‘Agentes de Inteligencia Artificial’ (AI Agents), y actúan como robots de software, -igual que los bots en Internet-, en entornos de sistemas complejos de robótica, o multitudes de robots (swarm robotics) en donde la interacción entre la máquinas no necesita de intervención humana. En los complejos sistemas de las multitudes de emergen fenómenos nuevos como el de los ‘robots bizantinos’, que son capaces de mentir.

Son puro código guiado por algoritmos de Aprendizaje automático, o Aprendizaje de máquinas (Machine Learning), -focalizado más en lo alfanumérico-; de Aprendizaje por refuerzo, supervisado, o no; y de Aprendizaje profundo (Deep Learning), -más enfocado a imágenes, lo visual y lo sonoro (incluidas la voz y el lenguaje natural)-. Con este componente añadido, la Segunda Digitalización ha cambiado de dimensión y recombinado con un internet de las ‘cosas’ (Internet of things, IoT) conectadas. Esas ‘cosas conectadas’ ya ha conseguido que más la mitad del tráfico de datos mundial de Internet, ya no sea humano. Su compleja cibernética (Wiener) se mezcla y combina con el Internet de los humanos conectados. Recombinación que produce, entre otras muchas cosas, que haya millones de personas conectadas (internautas), que se están tratando, e interactuando, con entidades artificiales no humanas (bots de internet), sin distinguirlas de las otras persona conectadas, y sin  saberlo.

Hay una cosa muy positiva que nos ha traído la segunda digitalización y su revolución de la inteligencia artificial. Son tantos los nuevos dilemas éticos a que nos enfrenta su tecnología algorítmica, que la investigación tecnológica de la IA, ha tenido que sumar a los humanistas, y a las humanidades, empezando por la ética como lo más imprescindible. Esta integración en la vanguardia tecnológica actual de los humanistas y filósofos, como gente esencial, es de tal dimensión y tan necesaria para avanzar, que las cuatro primeras universidades del mundo, están reestructurándose alrededor de un nuevo Qvadrivum en el que se reconectan de nuevo la ciencia, la tecnologías y las humanidades. Tres de los nuevos centros que se han puesto en marcha en esas instituciones para investigar la nueva frontera de la Inteligencia artificial (IA), tiene al frente a filósofos. Necesitan avanzar en la comprensión de la inteligencia humana, y en los dilemas del futuro de la humanidad, en relación al impacto de la IA. Esta vuelta de las humanidades al centro del escenario de la vanguardia, es una gran noticia.

También hay cosas negativas, desde el punto de vista económico y social. Al proceso de Segunda Digitalización de le han sumado los efectos de la deslocalización, con lo cual, y acelerado los factores de la digitalización, con su segunda etapa, cuyas curvas de crecimiento son asintóticas y de crecimiento exponencial (frente al crecimiento lineal típico de la era industrial). De la diferencia de pendiente entre estas curvas de crecimiento, se puede intuir en parte, porqué parte de la clase media en los países del primer mundo, ha caído a la pobreza. Sabemos que la digitalización ‘polariza’ y ‘exponencializa’ los procesos económicos o sea, aumenta o exagera las desigualdades. Así que, aunque no son los únicos factores, el aumento de las desigualdades en la sociedad ha impactado en personas que fueron parte de la clase media, (el tradicional estabilizador social en los países industrializados), cuya economía cayó en pobreza y ya no parece remontar. Los efectos de la deslocalización combinada con la crisis, y la segunda digitalización, está creando grandes descontentos y severas. Los fenómeno del Brexit, los resultados de las elecciones a la presidencia de EE.UU., o los chalecos amarillo, etc., están, de maneras complejas vinculados a evolución de la digitalización.

Gobernanza global, injustica algorítmica y resignación digital

Los nuevos términos, propios de la Segunda Digitalización, se están nombrando inicialmente, en inglés. Frecuentemente se ‘viralizan‘ y convierten en términos de uso global mucho más relacionados con ‘nuevas amenazas’ que con las virtudes que también trae esta digitalización. Cada día nacen nuevos sustantivos. Citaré solo algunos, ya convertidos en términos muy conocidos y de connotaciones preocupantes, como, por ejemplo, Fake News (noticias falsas); Procrastinar, Doppelgängers ; Bots (aféresis de ‘robot’), gobernanza, justicia e injustica algorítmica; o “Sourveillance” fenómeno relacionado con el crucial tema de la privacidad que, en español se suele traducir como ‘vigilancia’, aunque su verdadero significado debería ligado al ‘tracking‘ o sea, al registro, almacenamiento de datos y metadatos, -seguro que con usos espurios-, sobre la actividad, presencia, ubicación (en el mundo virtual y el físico, al tiempo) del internauta, que es ‘rastreado’ sin saberlo, aunque ha otorgado su permiso legal por que le han hecho el truco del ‘consentimiento informado’.

Interfaz del software de ‘Sourveillance’ con IA de la empresa china SenseTime, que reconoce las caras, graba los patrones movimientos de las personas, en una tienda de Pekín, y los procesa estadísticamente para vigilar y predecir sus movimientos futuros. Ningún visitante de la tienda, lo puede evitar.

Otros términos de moda son ‘reconocimiento facial’, o seguimiento o rastreo continuado de las personas (tracking) combinado con la tecnología reconocimiento de rostros humanos para adjudicar identidad a ese registro, -esto no está tan lejos. Si su viaje pasa por el aeropuerto de Menorca puede que su cara pase a formar parte del archivo digital de los ensayos de esta tecnología que está probando allí Aena a quien probablemente, en algún burocrático, Vd. habrá dado su ‘consentimiento informado’ inadvertidamente, así que es legal-; o adicciones digitales (sin sustancia), que es otro término que merecería un largo comentario, para el que no hay aquí espacio.

No hay que olvidar que toda esa información ‘inteligible’ tras ser procesada con máquinas (software de la IA), se le proporciona en nuestra la Segunda Digitalización de forma ubicua (en cualquier momento y lugar). Es tal su dimensión que la inmensa mayoría de las personas conectadas no muestran, en lo personal, alarma alguna. Parece que han llegado a la conclusión de que es inevitable, y por ello, que no les importe. Es decir, han sucumbido a la resignación digital’.

A la izquierda, el Clavileño del Quijote, y a la derecha, un ‘Clavileño Cibernético’, de Google, uno de los gigantes de Internet. Un data center de los que atesoran nuestros datos, metadatos y conductas registradas, día y noche.

Tras esta reflexión con numerosos ejemplos, hay que volver a los términos llanos, bajando esta vez de un Clavileño cibernético mucho más gigantesco, y en gran parte inmaterial e irreal, en que se han convertido los instrumentos de la Segunda Digitalización, muchos de cuyos movimientos y complejidad, ya no son controlados por una clavija en la cabeza de Clavileño, como la que manejaban los duques en el Quijote, sino por la inmensa cibernética crecientemente automatizada y, cada vez más autosuficiente, de los algoritmos de inteligencia artificial que mueven los gigantes del Internet social y del Surveillance Capitalism, el capitalismo de ‘rastreado’ y registro. Una “mutación obscena del capitalismo”, según la profesora de Harvard, Shoshana Zuboff, y cuyas ‘clavijas’ (génesis, proceso, ubicación y control de todos nuestros pasos ‘online’) y sus propósitos, están más allá del alcance de nuestros gobernantes y legisladores democráticos (no sabemos por cuanto tiempo), y del nuestro. Y sobre todo, en la mayor parte del funcionamiento que nos atañe, fuera incluso de nuestro conocimiento y comprensión.

Los gigantes del Internet de la segunda digitalización actúan como poderes fácticos y monopolistas, pero parece que la ética es para ellos es un reto demasiado grande.

SIREN, la mujer irreal (The Unreal Engine), una mujer que no existe, pero se mueve y habla persuasivamente en la pantalla, donde es indistinguible de una mujer real. Esta criatura digital sido creada en el proyecto ‘SIREN’, por un grupo empresas de la vanguardia tecnológica. Aún no sabemos con qué intenciones la han creado y la van a usar.

De forma equivalente, en palabras llanas como dije, a lo que ocurre en la Segunda Digitalización, le caracteriza el que:

‘REAL’ O ‘IRREAL’, Y ‘VERDAD’ O ‘MENTIRA’, SON INDISTINGIBLES; Y LA INTERACCIÓN ES UBICUA Y BIUNÍVOCA.

Es decir, que:

  • Lo ‘REAL’ y lo ‘IRREAL’ son indistinguibles en las sus pantallas digitales, y eso, incluye las Deep Fakes (Falsedades digitales profundas y audiovisuales), que no distinguimos en la pantalla de algo que veríamos en la realidad por nosotros mismos
  • La diferencia entre las ‘VERDADES’ y ‘MENTIRAS’ que nos ’emiten’ digitalmente, empieza a ser indescifrable para nosotros.
  • Y nuestra relación con el espacio y el tiempo, ya alterada por la primera digitalización, se ha modificado más profundamente aún, convirtiéndose en un ‘LARGO AHORA’ (Long Now) ubicuo [1], es decir, en un del presente duradero digital, en el que el tiempo puede desplegarse, y el sentido del tiempo puede perderse, ya que lo digital carece de longevidad
[1] The Long Now (El Largo Ahora), es el lugar del presente duradero. Un espacio en el que el tiempo puede desplegarse y el sentido del tiempo puede perderse.

Todo ello, entre otras más cosas que ya están aquí, aunque llegan, cito de nuevo a Gibson, ‘muy mal repartidas’. En más de una ocasión, analizando lo que caracteriza a esta Segunda Digitalización, he pensado en la célebre escena del “Los molinos de viento” del capítulo VII, de la primera parte del Quijote, en la que a través de los dos personajes, de forma magistral, se muestra el enfrentamiento Realidad versus Irrealidad. Don Quijote está seducido por lo ‘Irreal’, lo imaginario, consecuencia,            -se dice, del exceso lector de libros de caballería-, quizá combinado con lo que hoy llamamos ‘obsesiones de teorías de la conspiración’, quién sabe; y Sancho, en cambio, es firme defensor de enfrentarse a lo ‘Real’ tal como lo percibe a simple vista, y no cómo alguien lo podría imaginar. La relación entre ficción y realidad es uno de los temas básicos en el Quijote. Dice Mercedes Juliá que los encuentros entre Don Quijote y otras personas pueden concebirse principalmente como enfrentamientos entre ficción y realidad. Un enfrentamiento parecido al que se da en la dicotomía actual de las personas que ‘viven’, al tiempo, su vida virtual digital y, en otro plano, su realidad en el mundo físico. Deambulan en una especie de realidad física, ‘aumentada’ con la ‘realidad virtual’ . La mente ha de saltar, cuando andamos por la calle o conduciendo conectados, del plano físico al virtual, algo que ya está causando algunas tragedias. Nos ocurre andando, o en la carretera, porque la conexión nos asalta allá donde estemos, en cualquier momento y lugar, ya que estamos siempre conectados, dado que es una tecnología, que nos han fabricado, y vendido, adictiva.

¿Cómo ejercer nuestro libre albedrío entre dos opciones o alternativas ofrecidas en las pantallas que miramos casi 100 veces al día empiece a no ser distinguible realidad e irrealidad, y verdad o mentira? Es cada vez más complicado. Esa sociedad conectada ya no se limita a lo individual, sino que sus irreales y mentirosas fake news (bulos digitales) son un fenómeno que la mayoría contribuye, -voluntariamente o no-, a extender, a hacer social, poniendo en riesgo, incluso, como ha ocurrido hasta deformar masivamente la ‘verdad’ auténtica en nuestras democracias. Cibernéticas de gran complejidad lo induce alguien, cuyos propósitos, ubicación y procedencia nos resultan, asimismo, indescifrables.

Volviendo al Quijote en relación a nuestras preocupaciones actuales, si yo pudiera llegar hasta Miguel de Cervantes le pediría una leve cambio de algunas frases de la famosa escena de don Quijote y Sancho ambientada en al escena de los molinos que nos puede servir para, quizá explicar los de la más preocupantes aspectos Segunda Digitalización en la que ya estamos ahora. Y le solicitaría una vez explicada nuestra circunstancia actual, una extrapolación de sus frases del capítulo VIII del Quijote. Usando sus propias palabras, con un pequeño cambio pueden servirnos para contar lo que pasa hoy:

……

—¿Qué gigantes? —dijo Sancho Panza.

—Aquellos que allí ves —respondió su amo—, de los brazos largos, que los suelen tener algunos de casi dos leguas. —Bien parece —respondió don Quijote— que no estás cursado en esto de las aventuras: ellos son gigantes; [ sí, los Gigantes globales de Internet, ] —Así es la verdad —añadió don Quijote—

…y si tienes miedo quítate de ahí, y ponte en oración en el espacio que yo voy a entrar con ellos en fiera y desigual batalla.

……

Finalmente diré que nunca, como ahora, hemos necesitado tanto a Don Quijote, también a Sancho, y a alguien como Cervantes, en un mundo como el nuestro.

Un mundo en cuyas pantallas digitales la verdad y la mentira; o la realidad e irrealidad, que tan mezcladas están, empiezan a sernos peligrosamente indistinguibles a casi todos, en nuestra Ínsula Barataria global, cuya gobernanza no sabemos en qué manos está realmente, ni hasta cuando.

Forse altro canterà con miglior plectro.

___________________________________________________________

Monday, June 3rd, 2019

Un Diálogo sobre Diálogos: Adolfo Plasencia conversa con científicos (y humanistas) / Dialogue about Dialogues: Adolfo Plasencia on Speaking with Scientists

English version published by MIT Press :

Dialogue about Dialogues: Adolfo Plasencia on Speaking with Scientists


Una conversación de David Weininger con Adolfo Plasencia (versión en español de la publicada por MIT Press):

Para su libro Is the Universe a Hologram? Scientists Answer the Most Provocative Questions, el escritor de ciencia Adolfo Plasencia habló con más de treinta científicos, tecnólogos, pensadores y artistas sobre cómo se desarrollan en su trabajo, y hacia dónde se dirigían en sus diversas disciplinas. La amplitud de su proyecto, a su vez, nos hizo pensar en los desafíos y emociones de hablar con tantas grandes mentes. Plasencia se tomó amablemente el tiempo para responder a algunas de nuestras preguntas sobre lo que era ver en la esencia, y el futuro, de la ciencia.  

• Llamas a este volumen un libro de diálogos en lugar de un libro de entrevistas. ¿Por qué?

R. Le llamo así, porque realmente es un libro de diálogos y no de entrevistas. Diálogos y entrevistas son conceptualmente algo distinto, y sus propósitos son también distintos.

Desde los Diálogos de Platón sabemos que uno de los mejores caminos para la búsqueda conjunta de ‘la verdad’, o del conocimiento, -como diríamos hoy en día-, es hacerla ‘dialógicamente’, es decir, mediante un diálogo en el que nadie que tiene una tesis o hipótesis previas sobre lo que se va a discutir. Se trata de una ‘investigación’ conjunta a base de preguntas en la que llega un momento en que e través de la conversación, uno se da cuenta de que el conocimiento que tenía sobre algo concreto es dudoso o cuestionable. El método de estos diálogos en este libro es muy del estilo del de la Synusia que está definida por la Academia de Platón en su séptima Carta, y que, en resumen, es como “un intercambio libre de conocimiento”, un método que es también considerado como una pre-forma de la actual ética hacker. El del diálogo es un método conceptualmente diferente al de una entrevista o encuesta que es, en general, más apropiado para tratar temas dentro de áreas especializadas.

Elegí para el libro este método del diálogo y el conectar su diversidad, para una exploración que pretendía llevar a cabo sobre los lugares actuales del descubrimiento de nuevas ideas, que en su inmensa mayoría hoy son espacios híbridos dentro de las intersecciones o solapamientos entre disciplinas. Una exploración que pienso debe estar enmarcada dentro de una visión heurística y transdisciplinar, ya que uno de las cosas básicas de mi propósito en este libro era interconectar los diferentes modos de ver de distintas disciplinas cuya ‘cooperación’ hoy es imprescindible para avanzar. Esa interconexión es una de las mejores maneras para abordar la mayoría de las cuestiones de mayor complejidad que caracterizan hoy en día a los temas aún por resolver. Como Ricardo Baeza-Yates nos recuerda en el libro la complejidad viene de la diversidad, y para descifrar esa complejidad, necesitamos tanto las búsquedas propias de la ciencia, -básica y aplicada-, como de las humanidades o el arte, que tiene su propio camino al descubrimiento. Para que esa citada interconexión sea efectiva, he entrelazado en el libro partes de algunas respuestas de diálogos con numerosas preguntas de otros, sabiendo que esta interconexión, a su vez, generará nuevas preguntas que probablemente no emergerían en un contexto de ‘cultivo intelectual monodisciplinar’.

De esa forma el lector se va encontrando con la misma cuestión, pero vista desde diferente ángulos, lo cual le ofrece un panorama mucho más holístico sobre ese concepto. Un ejemplo son las reflexiones en el libro sobre “qué es la inteligencia”, un concepto que está abordado desde la neurociencia o neurofisiología, y también desde ciencias de la computación, inteligencia artificial, filosofía, o incluso desde la mecánica cuántica. La citada ‘exploración’ comienza en el volumen con la lista de preguntas sobre cuestiones clave, que precede a los diálogos del libro y deja claro que este es un libro mucho más de preguntas que de respuestas.

• A través de estos diálogos, tu libro aborda “las preguntas más provocativas.” ¿Sabías que quería explorar esas preguntas específicas, o surgieron en el transcurso de sus conversaciones con los científicos?

R. Desde el principio yo quería conseguir un conjunto interconectado, equilibrado y coherente, tanto en relación a los temas como en relación a las personas participantes. La lista que precede a los diálogos estaba hecha previamente a reunir las conversaciones, -aunque la dinámica de algunos diálogos causaron su ampliación-.

Dado que los diálogos debían realizarse en persona: tuve que ir a lugares donde físicamente pudiera reunirme con los participantes que tenía previstos. Entonces tuve que conseguir obtener su atención y ganarme la confianza, en muy pocos minutos, para que los participantes aceptaran realizar una conversación conmigo para participar en un proyecto a priori bastante inusual en los tiempos de hiper-especialización en que vivimos, sobre todo en ciencia y tecnología. Así que las primeras preguntas eran cruciales para involucrarlos.

Hay que tener en cuenta que, en ese momento yo no podía prometer a ninguna de estas personas que sus palabras acabarían impresas en una edición de MIT Press como así ha sido. Debía obtener su interés con mi persuasión inicial en defensa de mi ‘extraña’ propuesta. Y milagrosamente, la mayoría de las personas con quienes lo intenté fueron sumando su participación, en ventanas de su tiempo arrancadas literalmente de sus enormemente llenas agendas. La dinámica de la conversación una vez iniciada, frecuentemente conseguía ensanchar el tiempo disponible; lo que, a su vez, engendraba que se plantearan nuevas cuestiones fascinantes en el transcurso del diálogo.

Que yo recuerde, los participantes nunca se negaron a abordar ninguna de las preguntas, sin importar que les sacase de su ‘espacio de confort intelectual’, al igual que en las nuevas preguntas engendradas a partir de sus respuestas. El que la duración de los diálogos se alargase más de lo previsto, es algo que agradezco inmensamente aunque luego finalmente fue muy duro decidir el sintetizarlos radicalmente, -y dejar fuera palabras e ideas de respuestas también fantásticas-, por necesidades editoriales. Es casi imposible reducir un diálogo coherentemente argumentado a un número fijo de palabras para encajarlas en las páginas de un libro.

• Los científicos tienen la fama, -quizá inmerecida-, de centrarse demasiado en el núcleo estrecho de sus áreas de investigación. Sin embargo, en este libro han sido capaces de desarrollar sus pensamientos de forma más expansiva y saltando a través de las disciplinas. ¿Cómo fue lo de hablar con ellos?

R. Los científicos y creadores que al final están en el libro tienen una merecida reputación por ser sabios en sus disciplinas. Sin su combinación de sabiduría y humildad, no hubiera conseguido tener esas conversaciones con ellos. Hoy es un hecho que la mayoría, sino todas, de las disciplinas de vanguardia donde surgen las nuevas ideas, se encuentran en áreas híbridas y borrosas (fuzzy). El libro es una exploración de esos espacios, y las personas elegidas para estos diálogos están involucrados en ellos.

Pondré algún ejemplo. Uno de los participantes es José M. Carmena, que se ha formado previamente en ingeniería electrónica, robótica, inteligencia artificial y finalmente neurociencia, ahora lidera su propio laboratorio: el Brain-Machine Interface Systems Laboratory en la UC Berkeley. El trabajo en este laboratorio implica una combinación de neurociencias y diversas ingenierías y tecnologías. Su grupo de investigación, -tal como explica en su diálogo del libro-, recibe a jóvenes investigadores procedentes, al tiempo, de áreas como neurociencia, Ingeniería electrónica, informática, telecomunicaciones, bioingeniería, etc.; Allí el trabajo es completamente multidisciplinar e híbrido, como lo son las tecnologías que produce. Hace muy poco han lanzado, con otros colegas, el prototipo de una tecnología llamada ‘Neural Dust‘, -Carmena la explica en el libro-, que combina diversas microtecnologías electrónicas, emisiones ultrasónicas y es capaz de enviar señales en tiempo real de la actividad neural en el cerebro a través del cráneo, o del sistema nervioso, en modo wireless. La tecnología acaba de recibir el Premio McKnight 2017 en innovaciones tecnológicas en neurociencia.

Otro caso destacado es el de Pablo Jarillo-Herrero trabaja en nanofísica, transporte cuántico electrónico y optoelectrónica en nuevos materiales bi-dimensionales como el grafeno, en el MIT. Su investigación, -como explica Pablo en su diálogo-, combina la mecánica cuántica con la teoría de la relatividad especial, con el fin de ‘montar’ una teoría de la ‘mecánica cuántica relativista’ con la que intentar comprender dicho comportamiento, poder aplicarlo en el mundo real y llegar a nuevas aplicaciones nunca vistas antes. Otro ejemplo es el del diálogo con el físico cuántico Ignacio Cirac, director de la división teórica del Instituto Max Planck de Óptica Cuántica, titulado: “La física cuántica tiene en cuenta el libre albedrío”. El último término de este título siempre había sido un concepto de humanidades pero aquí está explicado en relación a la ciencia de la física cuántica. Y, un ejemplo más: Ricardo Baeza-Yates, que es un científico de la computación y que investiga ahora en big data y machine learning aplicado a internet, se refiere en su diálogo precisamente a lo que preguntas, ya que sus investigaciones informáticas están focalizadas en predecir el comportamiento humano a gran escala, o a escala social, cuando el ‘comportamiento humano’ había sido siempre un tema propio de humanidades o ciencias de la salud. Ricardo me dice en su diálogo que yo intento sacarle del espacio teórico de la computación que es su disciplina natural de investigación, pero que a él le gusta, ya que su trabajo científico funciona en una vanguardia en la que la propia realidad también le obliga a hacer lo mismo.

Solo he dado algunos ejemplos ilustrativos, pero termino de contestarte diciendo que conversar con personas como estas que poseen un enorme bagaje de conocimientos y sabiduría, cuando saltan las divisiones entre disciplinas y ‘piensan fuera de la caja’ (think out of the box) dicen cosas absolutamente fascinantes. En las conversaciones del libro de puede comprobar.

¿Hay un diálogo en el libro que destaque por ser particularmente memorable?

R. Para mí, todos los diálogos han sido memorables, -y no es una frase hecha-, porque todos han sido completamente distintos. Fue particularmente memorable el de la astrofísica de exoplanetas Sara Seager, y también lo fue el del gran Hal Abelson de MIT CSAIL , y el de Henry Jenkins  co-fundador en el MIT del Comparative Media Studies . Aparte de su sabiduría, el contacto humano con personas como estas, es siempre emocionante. Podría citar otros participantes que, a su inmenso saber, suman una increíble empatía, humildad y capacidad para expresar de modo sencillo las cosas más complejas, como es el caso del Nobel Mario J. Molina ; o el del profesor de Harvard Álvaro Pascual-Leone ; o como la científica Rosalind Picard de MIT MediaLab, cuando habla de comunicación emocional o computación afectiva / affective computing. Otros me han gustado mucho por los imprevistos giros en sus respuestas; tecnólogos como Michail Bletsas, Hiroshi Ishii, o el científico de la inteligencia artificial (AI), José Hernández-Orallo, con el que incluso pude conversar sobre la fórmula de la felicidad, la relación entre inteligencia y humor; o sobre si la AI podría convertirse, o no, en una amenaza.

Y algunos casos, que a priori parecían ser más fríos o distantes por sus disciplinas, circunstancias o personalidad, ha sido la dinámica del propio diálogo la que hizo que los propios interlocutores se abrieran a contestar nuevas e inesperadas preguntas y a hacerlo más allá de su citada ‘zona de confort intelectual’. Como ocurrió con el científico de la computación Ricardo Baeza, cuando explicó que en algunos proyectos ha estado manejando los registros de comportamientos de 700 millones de personas, cada una de los cuales tiene una ‘long tail’ (larga cola). Y lo mismo con Javier Benedicto, hablando sobre cómo se planifica lo imposible en el espacio con el Programa Galileo. Hay también en el libro creadores en ingeniería y arquitectura como John Ochsendorf y Yung Ho Chang , ambos del MIT, que profundizan en sus conversaciones sobre la idea aparentemente contradictoria de que, a la vanguardia de la arquitectura también pueden se puede llegar basándose en la sabiduría olvidada de la tradición.

Mención especial merecen los filósofos y creadores participantes que lanzan valientes argumentos hacia el territorio natural de los científicos y tecnólogos, Javier Echeverria, a quien le encaja bien la teoría de que el universo que contemplamos pudiera ser una representación o gigantesco holograma, o Cueva de Platón multidimensional. O el caso de David Casacuberta que afirma sin ambages que “Encriptar es un derecho humano”. Desde el punto de vista personal también ha sido muy emocionante dialogar con John Perry Barlow, Richard Stallman y Tim O’Reilly, poeta, hacker y humanista, respectivamente, tres de mis héroes de la cultura digital.

Y emocionante también fue vivir el diálogo-epílogo que cierra el libro, con el artista José María Yturralde, alguien muy especial que añade una visión crítica a la ciencia general desde el arte, aparte de que argumenta sobre si es posible refutar al gran poeta John Keats y es cierta la ecuación belleza desigual a verdad ( Belleza ? verdad ) que le contradice, y si en el arte, se puede ir al pasado y cambiarlo, entre otras muchas reflexiones.

Cualquier conversación con la mayoría de estos 33 participantes, -no hay espacio aquí para citarlos a todos-, es memorable para mi por diversas razones, bien por la cantidad de sabiduría que acumulan cualquiera ellos y ellas, bien por el asombro que produce lo que están investigando; o por lo que piensan expresado en su diálogo y también, he de confesarlo, por el entusiasmo con que han accedido a participar en un proyecto y un libro tan heterodoxo como este.

Después de haber reunido estos diálogos en el libro, ¿cuál es tu opinión sobre el futuro de la ciencia? ¿Nos dirigimos hacia una mayor certeza en relación a esas cuestiones fundamentales, o las respuestas parecen estar aún bastante lejos?

R. Yo no soy científico y eso me da una cierta libertad para expresar mi opinión sin que otros colegas me afeen la conducta, aunque a seguro que alguien lo hará por mi, quizá, algo insolente atrevimiento y heterodoxia con este libro.

Yo haría una fusión de tus dos preguntas. Por una parte creo que la guía verdadera y más decisiva en nuestro camino al futuro es la ciencia, como se puede comprobar en el libro, pero siempre debemos tener en cuenta que la ciencia actual, es una ciencia interconectada o fertilizada por las humanidades y los efectos de la digitalización. Este camino no es ni será fácil porque, a pesar de la cantidad gigantesca de datos y evidencias que apoyan en sus diagnósticos a la verdadera ciencia, aún hay personas y entidades relevantes que son capaces de actuar negando grandes hechos científicos. También me resulta asombroso que en el actual sistema o universo de la comunicación de que dispone ahora la humanidad, y que nunca tuvo antes, prosperen crecientemente con tanta fortuna supersticiones, pseudociencias, esoterismos, o falsedades deliberadas a escala global.

El amor a la verdad, propio de la ciencia y las humanidades, es hoy más necesario que nunca, algo a cultivar en todos ámbitos de la educación. Entre las nuevas habilidades que tendremos que incentivar está la de educar para aprender a distinguir entre lo verdadero y lo falso en la ‘noosfera’ actual. Situándome en una posición como en la que adopta Henry Jenkins en el libro, -la de ‘utópico crítico’-, entiendo los medios de comunicación, (no de entretenimiento), como parte del sistema educativo de la sociedad y, creo, habría que aplicar en estos medios de comunicación esos mismos criterios éticos de amor a la verdad por encima de los criterios económicos habituales. A esto se le puede aplicar el perfectamente claro criterio que expresa en el libro Richard Stallman: Es absurdo preguntar si la ética es rentable o no, porque es una responsabilidad previa, una obligación hacia los demás… La elección de la ética como guía sólo cuando es rentable es realmente lo mismo que no tener ninguna ética”.

Los nuevos conocimientos sobre las certezas fundamentales ya no son propios de una disciplina concreta sino que es la combinatoria humanidades y método científico la que nos permite, como dice en el libro el físico del CERN José Bernabéu, ampliar las playas de nuestra pequeña isla de conocimientos y certezas, contra el enorme océano de nuestra ignorancia. Creo que cada certeza demostrada científicamente nos trae nuevas y apasionantes preguntas; así que para mí, las grandes respuestas se encuentran sobre un horizonte hacia el cual va nuestro camino y al que, como cualquier horizonte, nunca lograremos llegar. Parafraseando a Steve Jobs, diré que en ese mismo camino también está nuestra recompensa.

Finalmente quiero expresar que coincido con Tim O’Reilly en que algunas de la certezas que nos proporciona la ciencia aplicada, es decir la tecnología, debemos orientarla como dice Tim en el libro, a “hacer del mundo un lugar mejor” (aunque no siempre es así), y combinar eso con la máxima de Richard Stallman: “La tecnología sin la influencia de la ética es probable que haga daño.”. No hay certeza garantizada ante nosotros pero hemos de ser conscientes como dice el mismo O’Reilly en su foreword del libro que “El futuro no es algo que ‘sucede’; es algo que nosotros creamos”). Por tanto, que el futuro sea mejor en términos de cuestiones fundamentales depende solo de nosotros. Y esa sí es una buena certeza.

Sunday, August 27th, 2017

Conversing with Leading Thinkers

A surprising book for our times comes true

Adolfo Plasencia

Front and back cover of the book, published by MIT Press

Is the Universe a Hologram?

Scientists Answer the Most Provocative Questions

Foreword by Tim O’Reilly
Conversations with
Hal Abelson, Ricardo Baeza-Yates, John Perry Barlow, Javier Benedicto, José Bernabéu, Michail Bletsas, Jose M. Carmena, David Casacuberta, Yung Ho Chang, Ignacio Cirac, Gianluigi Colalucci, Avelino Corma, Bernardo Cuenca Grau, Javier Echeverria, José Hernández-Orallo, Hiroshi Ishii, Pablo Jarillo-Herrero, Henry Jenkins, Anne Margulies, Mario J. Molina, Tim O’Reilly, John Ochsendorf, Paul Osterman, Alvaro Pascual-Leone, Rosalind W. Picard, Howard Rheingold, Alejandro W. Rodriguez, Israel Ruiz, Sara Seager, Richard Stallman, Antonio Torralba, Bebo White, José María Yturralde

Overview

Science today is more a process of collaboration than moments of individual “eurekas.” This book recreates that kind of synergy by offering a series of interconnected dialogues with leading scientists who are asked to reflect on key questions and concepts about the physical world, technology, and the mind. These thinkers offer both specific observations and broader comments about the intellectual traditions that inform these questions; doing so, they reveal a rich seam of interacting ideas.
The persistent paradox of our era is that in a world of unprecedented access to information, many of the most important questions remain unsolved. These conversations (conducted by a science writer, Adolfo Plasencia) reflect this, with scientists addressing such issues as intelligence, consciousness, global warming, energy, technology, matter, the possibility of another earth, changing the past, and even the philosophical curveball, “is the universe a hologram?”
The dialogues discuss such fascinating aspects of the physical world as the function of the quantum bit, the primordial cosmology of the universe, and the wisdom of hewn stones. They offer optimistic but reasoned views of technology, considering convergence culture, algorithms, “Beauty ? Truth,” the hacker ethic, AI, and other topics. And they offer perspectives from a range of disciplines on intelligence, discussing subjects that include the neurophysiology of the brain, affective computing, collaborative innovation, and the wisdom of crowds.

Conversing with Leading Thinkers

A surprising book for our times comes true

by: Adolfo Plasencia

The long experience of putting together the contents of this book: “Is the Universe a Hologram? Scientists Answer the Most Provocative Questions”, just published by The MIT Press, has been for me something extraordinary and is perhaps unique in this world of hyperspecialization we now live in. The publishing house itself, conscious of the diversity of its contents, placed it for months high up on the Web list of its section ‘Science’, but also in that of ‘General Interest’. It’s true that it’s a difficult book to place within the conventional classification. And that will also hold true for the “specialist” sections of bookshops.

It’s a book of non-linear contents, something which today is at the very least surprising, but at the same time most welcome. Any observer with curiosity, and whose capacity for amazement is in a good state of health, knows that the development both of basic science and applied science, technological development and new discoveries are being taken over by hybrid disciplines. Exactly where discovery takes place today has become fuzzy. The points of intersection between equally fuzzy disciplines are where the new flashpoints heralding the future are located. These produce the sparks that are transforming both the horizons of thinking and creation, as well as education, which has ceased to be the guarantee of a professional life with a fixed vocation for the rest of one’s life. This book bears witness to that. Everything is shifting. One illustration of this, taken from the book, is that of José M. Carmena who is director of his own laboratory at UC Berkeley where he investigates Brain-Machine Interface Systems (BMI); neuroprosthesis, the ‘neural basis of sensorimotor learning and control’ and ‘neural ensemble computation’. Professor Carmena, before founding his own laboratory in Berkeley undertook Electronic Engineering studies in Spain, then Robotics and Artificial Intelligence in the United Kingdom and then Neuroscience in the United States. He now works in something even more surprising, also mentioned in the book, called “Neural Dust”. Carmena is carrying out research into the intersections between Neuroscience, A.I. and all types of engineering, electronics and nanotechnologies.

The book – preceded by a foreword written by the prestigious Tim O’Reilly, formulator of Web 2.0-, includes 33 conversations on different aspects of science, technologies, new fields of the humanities, the Internet, on the effects and ethical criteria concerning the use of technologies, all of which affect both individuals and society as a whole. It is a set of dialogues (not interviews), designed to be interrelated and undertaken using a special method of dialogue, partly based on what we find in the works of Plato, such as Phaedrus or Theaetetus. The book has an interconnected literary structure from which emerges questions and answers, sometimes long and thoughtful, and at other, sudden and unexpected. Questions interweave between the dialogues and their participants in such a way that they led the expert on the Internet, Ricardo Baeza-Yates, to tell me- “Not only do are you trying to find out about our searches and findings in the fields of knowledge and technology, but you are also cross-referencing us with the humanities so that we put ourselves at risk. What you like most is to take us out of our ‘intellectual comfort zone’. But that’s O.K with me, I like it”. Another example of someone who took risks in his conversation in the book is the young MIT physicist Pablo Jarillo-Herrero, pioneer of ‘two dimensional materials’. Pablo, a few months before undertaking the dialogue for the book received an award from President Barak Obama, the Presidential Early Career Awards for Scientists and Engineers, an awards that recognizes young scientists that take on the riskiest of research and confront the greatest challenges. The title of Pablo’s dialogue in the book uses his own words “Graphene is the finest material that has ever existed, exists and will exist”. Although there are many other worthy examples I could mention, space does not permit it here.

Questions are much more important than answers

To get an immediate idea of the diverse contents of this book, the best thing to do is to carefully read the list of questions that form the contents of the book: questions such as “What is intelligence, how does it work, where does it reside, and how is it measured?”; “What will intelligent machines be like? Will there be nonbiological intelligence (not based on Homo Sapiens)?”; “Where does consciousness reside and how does it emerge?”; “Is the universe a hologram?” (discussed by the philosopher Javier Echeverría); “How does the brain really work? Where is the “I”?; “Is it possible to govern uncertainty and live with its stochastic effects? Can we plan the impossible?”; “Are search technologies now allowing us to remember the future?”…. And there are also dialogue titles such as, for example “Quantum Physics Takes Free Will into Account”, a dialogue with Ignacio Cirac, director of the Theoretical Division of the Max-Planck institute for Quantum Optics, who describes the ‘little problem’ of quantum physics called the ‘problem of measurement’ that tries to discover why that discipline describes knowledge of ‘the others’, but is incapable of describing itself. There are other expressive titles such as: “The Emergence of a Nonbiological Intelligence”, with Michail Bletsas, director of computation at MIT Media Lab; or “Remembering Our Future: The Frontier of Search Technologies”, with the information technology scientist Ricardo Baeza-Yates.

In the book I have a dialogue with José Bernabéu about, among other things, whether, having found the Higgs Boson and other fundamental particles at CERN, he can enlighten us on one of the more categorical – in Berbabéu’s own words more mystical- questions of physics: “how mass arises from the properties of the vacuum state”… Or going beyond that question, as he explains, “That arrow of time does not eliminate the question of whether the dynamics of the fundamental laws for elementary particles, for those that we observe to have reversible processes in time, are able to describe both the direct process and the reverse process in time”, things that are not contradictory and something that the Harvard neurophysiologist, Alvaro Pascual-Leone affirms when he says that “causality ceases to exist”, a statement that the quantum physicist Ignacio Cirac is also party to. However what really interests Pascual-Leone is “the deep workings of the mind within the brain; and what is intelligence, that emerging property of the brain and to know where it resides and why some have more and others less”.

But the book’s not only about that. Other important questions are addressed too, for example, the relationship between ethics and the uses of technology. The great Richard Stallman reflects in the book on the ‘hacker ethics’ paradigm and explains the reason “It’s absurd to ask whether ethics is profitable or not; because it is a prior responsibility, an obligation towards others”. And why Choosing ethics as a guide only when it is profitable is really the same as not having any ethics.” David Casacuberta also gives us his strong and wide-ranging reasons on why “Encryption must be considered as a human right.”

 

 

 

 

 

 

 

Saturday, June 3rd, 2017

La Inteligencia Artificial (AI) es una ciencia muy horizontal, como las matemáticas, y se inspira en la filosofía

Ramón López de Mantaras, director del IIIA.CSIC, impartiendo una conferencia. Foto. Adolfo Plasencia.

“No creo en la ‘exponencialidad’ del progreso de la técnica y la tecnología. Esto es falso. No progresan exponencialmente.”

UNA CONVERSACIÓN EN PROFUNDIDAD CON RAMÓN LÓPEZ DE MÁNTARAS, SOBRE LA INTELIGENCIA ARTIFICIAL.

Por: Adolfo Plasencia.

El actual momento de la Inteligencia Artificial.

Parte I. SOBRE LOS ‘PRINCIPIOS’ DE LA AI

Según en diccionario de la RAE, la expresión ‘inteligencia artificial’ es un término de Informática cuyo significado es: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. Según Wikipedia, La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma la inteligencia humana.

La actual explosión de aplicaciones prácticas para la Inteligencia artificial (AI) es la consecuencia, al menos de varios factores combinados tras un largo periodo en el que parecía que la disciplina había quedado como aletargada después de que el la época de los años 90 se vieron avances espectaculares. Las causas de esta explosión podrían estar en varios factores de cambio combinados a mi modesto entender. Por supuesto en primer lugar en el avance continuado de la Ley de Moore que ha seguido aumentando la capacidad de computación de todos los dispositivos digitales al tiempo que hacían la capacidad de cálculo mucho mas baratas, lo que ha dado lugar a que pequeños dispositivos sean capaces de procesar cantidades antes impensables. Por ejemplo los smarphones avanzados, mas potentes que la mayoría de los grandes ordenadores de sobremesa de la Era del PC. El segundo factor es el cambio de paradigma de la informática que parece haber dado la vuelta a una esquina para abrirse a la era post-PC como la definió Steve Jobs poco antes de dejarnos. En la Era Post-PC, gracias a los Data Centers y las ‘granjas de Servidores’ y, obviamente a Internet, disponemos de una inmensa capacidad de cómputo que podemos situar en forma ubicua (en cualquier momento y cualquier lugar) para propósitos concretos que serían irrealizables. Y el tercer factor y no menos importante es el trabajo incansable y callado de investigadores muy especiales que se han centrado durante muchos años en avanzar en aspectos decisivos de la Inteligencia Artificial que permitieran usar aspectos de esta disciplina en la práctica. Uno de ellos es Ramón López de Mántaras, que actualmente dirige el Instituto de Investigación en Inteligencia Artificial (IIIA), del CSIC, que ha realizado numerosos avances en la investigación de la creatividad computacional, entre otros, en campos como los de la música. He conversado con él para comentar ‘el estado del arte’ en esta fase de enrome expansión actual de la Inteligencia Artificial. Esta ha sido la conversación:

ADOLFO PLASENCIA: Ramón, para alguien como tú, que tienes formación en Ingeniería eléctrica, física, diriges el Instituto de Inteligencia Artificial del CSIC y eres Premio Nacional de Informática 2012, ¿La Inteligencia Artificial, es un tema de ciencias de la computación, o como dice Wikipedia, va mas allá y para ti llega hasta las humanidades?

RAMÓN LÓPEZ DE MÁNTARAS: Yo pienso que va mas allá de la informática, de la Computer Science para se llama en EE.UU., y efectivamente llega hasta las humanidades. No sólo a nivel de las aplicaciones. Obviamente existan ya aplicaciones para la simulación de grandes agentes y entes sociales, que tiene que ver con temas de sociología. Tiene que ver con la economía porque la Teoría de Juegos se utiliza mucho en Inteligencia Artificial (AI). Y para las aplicaciones en esta campo nos inspiramos en mucha otras ciencias. La Inteligencia Artificial, no es ahora una tecnología o una ciencia vertical, es muy ‘horizontal’, como las matemáticas por ejemplo. Sirve para modelar, modelizar muchas cosas.

A.P.: ¿Y se inspira de la filosofía, también, ¿no?

R.L.M.: También de la filosofía, claro. Hay muchos filósofos de la ciencia contribuyendo como Daniel Dennet o John Searle, por ejemplo, que son muy críticos con la AI, pero eso está bien porque así hay diálogo y discusión y, de ello salen nuevas ideas. Como te decía, la Inteligencia Artificial es una herramienta muy buena para modelizar computacionalmente fenómenos complejos y en particular la actividad cognitiva. La cognición, y la inteligencia es un fenómeno muy complejo, que nadie sabe muy bien aún qué es, pero que sabemos que está ahí, que emerge del cerebro y que permite tomar decisiones racionales, o no, y también emocionales. Ya sabemos por los trabajos de Antonio Damasio que es necesaria la capacidad emotiva para tomar decisiones. Si fueras cien por cien racional no llegarías nunca a tomar ninguna decisión. O sea que hay muchos ‘va y viene’ entre la AI y otras disciplinas. Actualmente es mucho mas que informática y, en mi opinión, la gente que se forma para AI no solo deben saber de programar y saber matemáticos sino muchas otras cosas una formación mas pluridisciplinar en los niveles avanzados. Deberían conocer cosas, por ejemplo, cosas sobre psicología cognitiva, lingüística, etc. Hay un término: ‘cognitive sciences’ que intenta englobar todas estas áreas que tienen en común el estudio del comportamiento inteligente y de la cognición desde distintos puntos de vista. Hay nuevas sinergias claras que nos permitirán avanzar en Inteligencia Artificial y en modelizar la cognición humana.

A.P.: ¿Ramón, Estás mas por el paradigma de la inteligencia artificial que parte del modelo de la imitación de la inteligencia humana o crees que no siempre es necesario partir de ese principio y se puede crear una inteligencia artificial partiendo de un paradigma distinto?

R.L.M.: Ya estamos haciendo inteligencia artificial que no tiene nada que ver con el emular o imitar a nivel detallado a la inteligencia humana. Hay las dos vías en la AI. Los aviones no vuelan batiendo las alas, porque no han imitado exactamente a la naturaleza, pero se han inspirado en ella. Una cosa es imitar y otra inspirarse. El referente es la inteligencia humana. Siempre. De eso no hay duda. Ahora, tú puedes llegar a soluciones distintas a las que ha llegado la naturaleza para resolver ciertos problemas. El problema de volar, de que un artefacto que pesa mas que el aire vuele, primero lo resolvimos con la propulsión de las hélices y luego mediante el motor a reacción a chorro. Pero el construir aviones con esos sistema contribuyó a que progresara la aerodinámica y con ello, después, pudimos explicar porqué los pájaros vuelan. De nuevo vemos un ‘va y viene’. Yo creo que en la inteligencia artificial puede pasar lo mismo. Hay modelos computacionales que se han desarrollado no necesariamente imitando a nivel de detalle las neuronas del cerebro, sino que se han hecho de forma distinta y después esto puede arrojar alguna luz sobre cómo pueden funcionar los proceso mentales en el cerebro, o viceversa. Cuando hacemos razonamiento basado en casos, que es un área de la AI muy interesante que trata de cosas como aprender o razonar por analogía, reconociendo similitudes entre situaciones, que es algo muy bien fundado y tiene muchas bases cognitivas, nos damos cuenta de que los humanos hacemos mucho esto. Tenemos un problema a resolver y vemos se parece a uno que ya hemos resuelto, y utilizamos las soluciones anteriores, adaptándolas, para resolver el nuevo problema. Casi es de sentido común que sea así. Se ha conseguido hacer con ordenadores, con máquinas que hacen razonamiento por analogía basado en casos y cuando lo hemos resuelto, esto a su vez, posteriormente, hemos comprobado que arroja luz sobre cómo lo hace el cerebro humano. El concepto de similitud y todos esto. Yo diría en resumen que la Inteligencia Artificial, más que imitar al detalle la inteligencia del cerebro, ‘se inspira’ en el funcionamiento del cerebro pero para hacerlo, quizás, de otra manera. Bueno, a excepción de algunos proyectos como, por ejemplo el Blue Brain y otros que van por el camino de intentar emula lo que se hace desde cada neurona, sobre lo que tengo una opinión muy critica al respecto.

A.P.: Marvin Minsky, afirmó que crear una inteligencia no es tan complicado: según la teoría de Marvin Minsky de que un principio de inteligencia puede construir comenzando por un conjunto bastante simple de primitivos y que al conectividad entre ellos es la que da como resultado la complejidad que surge y se deriva una conducta, y que tiene que ver con la toma de decisiones, de la que en caso extremos puede depender la supervivencia. Minsky piensa que a inteligencia no procede de un mecanismo único, sino que se genera por la interacción de muchos agentes distintos. Y en su libro ‘La máquina de las emociones’ atribuye ese origen múltiple también a las emociones, los sentimientos y el pensamiento consciente. ¿Que opinas de esta visión de Minsky?

R.L.M.: Yo estoy de acuerdo con él, en la parte esta de que la inteligencia no es el resultado de un mecanismo único y que se genera por interacción de muchos agentes distintos. Todo eso está basado en la teoría de su libro ‘The Society of Mind‘. En el fondo lo que está diciendo es que la inteligencia emerge de interacciones de agentes muy simples (él piensa que son ‘muy simples’), y al interaccionar entre ellos, la colectividad produce la inteligencia. Es como la idea de la inteligencia de las colonias de hormigas. Cada una de ellas no es inteligente pero la colonia globalmente hace cosas inteligentes. Pero Minsky va mas allá de esto. Habla de una arquitectura cognitiva basada en una Sociedad de la mente, una sociedad, -en sentido metafórico-, de ‘agentes’ de la mente en el cerebro y que de ahí emerge la inteligencia. Yo no veo ningún problema en esta afirmaciones de Minsky, pero lo que no me ha dicho ni él ni nadie, hasta ahora es cómo construimos esto, cómo lo reproducimos. En su libro, no nos dice cómo podemos implementar eso en una máquina. Se queda en un nivel filosófico, pero no llega al cómo hacerlo.

A. P.: Hablemos ahora, en relación a esa conexión masiva de la que hablaba Minsky, pero referida a la ‘maquinaria’ del cerebro que es de al que se supone que emerge al inteligencia humana. Kenneth D. Miller, profesor de neurociencia en Columbia y co-director del Centro para la Neurociencia Teórica, publicó no hace mucho en el New York Times un artículo titulado: “Will You Ever Be Able to Upload Your Brain?“. En él afirma muy critico sobre las pretensiones de algunos grandes proyectos actuales. En su articulo escribe: “Gran parte de la esperanza actual de la reconstrucción de un funcionamiento del cerebro descansa sobre conectómica: la ambición de construir un diagrama de ‘cableado completo’ [en el sentido de la metáfora informática ], o “conectoma,” de todas las conexiones sinápticas entre neuronas en el cerebro de los mamíferos. Desafortunadamente, la conectómica, mientras que una parte importante de la investigación básica. Yo creo que está muy lejos de la meta de la reconstrucción de una mente, en dos aspectos. En primer lugar, estamos muy lejos de construir un conectoma. El actual mejor logro fue determinante las conexiones en un pequeño trozo de tejido cerebral que contiene 1.700 sinapsis; el cerebro humano tiene más de cien mil millones de veces ese número de sinapsis. Si bien el progreso es rápido, nadie tiene ninguna estimación realista de cuánto tiempo se tardará en llegar a conectomas cerebro de tamaño”. Mi conjetura ‘salvaje’ -dice Miller-, es que replicar un conectoma como el del cerebro es algo que llevaría una escala de tiempo de siglos. Teniendo en cuenta que no eres neurofisiólogo, sino ingeniero y informático. ¿Crees que lo del ‘Uplooad’ de una inteligencia, que menciona se quedará Miller, seguirá siendo cosa de literatura, cine o ficción? ¿Crees que una inteligencia de la escala de la humana se podría reubicar, ‘subir’ o ‘descargar’, o eso no es posible ni siquiera en teoría?

R.L.M.: para mi lo del hacer un ‘Uplooad’ de una inteligencia, descargarla, llevarla a otro lugar, es una pura ciencia ficción. Y no solo para mí, sino para varios premios Nobel de Biología y Bio-medicina. Eso estar relacionado con lo de la Singularidad…

A.P. … de la que tanto ha escrito Ray Kurzweil, hoy director de Ingeniería de Google…

R.L.M.:… que hablan de que el ‘upload’ del cerebro en una máquina, y luego la sinergia entre este ‘upload’ y la propia inteligencia artificial de a máquina sería un conjunto que permitirá crear superinteligencias. El problema de mucha de esta gente es que subestiman la complejidad del cerebro. Del cerebro se sabe más que antes, pero aun sabemos muy poco. Todo esto parte conocer y modelizar la parte eléctrica de las neuronas. Las neuronas tienen un parte química, están, funcionan, sumergidas en una ‘sopa’ de química. Y todo esto, ningún modelo computacional de redes neuronales tiene en cuenta eso, ninguno. Además, hasta hace poco no se sabía que las células llamadas ‘gliales’ del cerebro son como un ‘metacontrol’, controlan lo que hacen las neuronas y son más numerosas en que las neuronas. Fíjate, hay mas células ‘gliales’ que neuronas en el cerebro. Y controlan las sinapsis, la conexiones entre neuronas. Ahora los biólogos creen que estas células tienen un papel importantísimo en el funcionamiento del cerebro. Y ningún modelo computacional de redes neurales tiene en cuenta esto ni lo modeliza. Y tampoco lo tienen en cuenta los modelos de mapas de conexiones de la conectómica. La parte química del cerebro no se ‘modeliza’. Por tanto, ¿qué significa hacer un ‘upload’ de un cerebro? ¿Qué van a ‘descargar? ¿El estado eléctrico de cada neurona? No son estados discretos (como en lo digital). Hay muchas cosas que son de procesamiento continuo, de nivel analógico, no tanto digital, en el cerebro. ¿Que significa hacer un upload? ¿hacer una ‘foto’ de un instante del cerebro y cargar eso?¿Y luego qué? ¿El siguiente instante qué; aquello de queda fijo? ¿Y las experiencias de toda tu vida? porque esas también están en algún lugar del cerebro, pero nos e sabe cómo están almacenadas ni nada. Para mí tiene muy poco sentido esto que dicen de hacer un ‘upload’ de un cerebro. Cualquier biólogo te dirá que esto no tiene sentido y que esa idea es pura ciencia-ficción. Nuestro cerebro es en cada instante distinto.

A.P.: Michail Bletsas me ha dicho que él esta seguro que a lo largo de este siglo surgirá una inteligencia no-biológica, o no basada en el homo-sapiens. La astrofísica Sara Seager, especialista en exoplanetas, a su vez me ha dicho que lo mas probable es que mas allá del sistema solar, es que la inteligencia actúe en formas ‘no-biológicas’”. Teniendo en cuenta la evolución actual de la tecnología, si te pido que intentes imaginar una inteligencia no-biológica, ¿cuál es lo primer camino que viene a tu imaginación? ¿Cómo imaginas que podría ser en el largo plazo, la AI?

R.L.M.: En la inteligencia artificial que tenemos hoy en día está la ‘AI débil’, de la que hablaba yo ayer, y también de la que habla Thomas G. Dietterich, que funciona cómo herramienta que nos ayuda a tomar decisiones, pero que no tiene porqué tener ‘estados mentales’ ni nada de eso sino que es una visión muy práctica de la AI es una inteligencia no-biológica. está basa en el silicio y los ordenadores no son biológicos actualmente ¿no? Ya sabemos hacer inteligencia no-biológica. Ahora, … elucubrar sobre cómo será en el futuro la AI no-biológica, si estará en algo distinto del silicio. Pues sí, muy probablemente. Los ordenadores basados en silicio va a ser reemplazados, porque sabemos que la Ley de More esta llegando a un límite, así que si se quiere seguir aumentando la capacidad de los ordenadores habrá que cambiar de tecnología. Habrá hardware distinto para hacer cálculos. Hay varias tecnologías posibles de las que se habla, basadas en memristores, o en el DNA computing, en computación cuántica, hay muchas propuesta ya por ahí. A largo plazo no tengo ni idea pero es muy probable que tanto la computación como la futura AI, deje de estar basada en el silicio.

Parte II. SOBRE LAS MÁQUINAS INTELIGENTES

A.P.: El de las ‘máquinas inteligentes’ es uno de los paradigmas mas atractivos de la tecnología y en los humanos asociamos inteligencia y mente con el cerebro. Bertrand Russel afirmó que la diferencia entre mente y cerebro no es una diferencia de cualidad sino de ‘disposición’. ¿Tu crees que la inteligencia en una máquina que lo sea, dependerá mas esencialmente de una masa crítica de capacidad de calculo (computación) o de la combinatoria y disposición o combinación de partes, recursos y mecanismos, a imitación, por ejemplo, de la disposición de un cerebro?.

R.L.M.: Creo que dependerá un poco de todo. Ahora mismo, el Machine Learning (el aprendizaje o razonamiento automático) está dando un buen paso adelante en cuanto a aplicaciones prácticas aunque en lo conceptual no hay nada nuevo. Lo que hay es que con la disponibilidad, al tiempo, computación de altas prestaciones en y del acceso a enormes cantidades de datos (Big Data), se pueden hacer cosas que hace veinte años no se podían hacer por no disponer de ello. pero los conceptos que hay detrás del Deep Learning (Aprendizaje profundo) ya existían hace veinte años lo que pasa es que ahora se pueden aplicar en la práctica. Así que lo que se pueda hacer con la futura AI, creo que dependerá a la vez de la capacidad de cálculo tanto como del software y de la combinación de los distintos componentes de la inteligencia, de su integración, de las arquitecturas cognitivas que integren razonamiento con aprendizaje y con planificación, etc. Aunque no sepamos aún qué es la inteligencia lo que si sabemos son cuáles son algunos de sus componentes: capacidad de percibir, de comunicar, de razonar, de planificar, de aprender… Los componentes de la inteligencia habrá que combinarlos de forma conveniente mediante una buena arquitectura. Necesitamos buenos arquitectos cognitivos que nos digan cómo conectar estos componentes de la inteligencia. La disposición de estos componentes es importante y la capacidad de cálculo también. Es la combinación de ambas cosas, creo yo.

Robots en el MIT Media Lab. Foto: Adolfo Plasencia

Parte III. AI Y ROBÓTICA

A.P.: Volvamos a lo de la disciplina de la AI. En tu conferencia has hablado sobre que, en la AI, tras una época de grandes expectativas, hubo un parón o un ‘invierno’ en la ciencia de la Inteligencia Artificial’. Rodney Brooks, que ha dirigió casi 18 años el “Computer Science and Artificial Intelligence Laboratory (CSAIL)”, del MIT me dijo que él prefería dejar las ‘grandes preguntas’ de la AI para la siguiente generación de científicos. Hoy, tras abandonar la investigación académica como centro de su actividad, lanzó con la empresa iRobot el exitoso robot de limpieza Roomba; ahora dirige su nueva empresas Rethink Robotics, especializada en ‘collaborative robotics’.

Tú también llevas muchos años en el campo de la AI. ¿A ti no te afectó ese ‘invierno’ de la AI.? ¿Ya ha cambiado de ‘estación’? ¿Hay ahora una nueva primavera en la AI?

Y también: ¿No has tenido tentaciones de irte al sector empresarial en donde aplicar lo adquirido e tu larga experiencia de investigador en AI?

R.L.M.: Sí, hay una nueva primavera, sin duda. Bueno, a ver. Yo empecé a trabajar en AI en el año 76. Y el ‘invierno de la AI’ llegó justo después, pero yo era entonces un joven estudiante. Luego estuve en Berkeley aprendiendo más sobre Inteligencia Artificial, después hice mi tesis en Francia. En aquél momento yo todavía no dirigía un equipo de investigación, no me tenía que preocupar por captar recursos para la investigación como sí tenían que hacerlo mis ‘seniors’, mis supervisores en EE.UU. que sí que recuerdo que tenían problemas a la hora de conseguirlos. A mí personalmente no me afectó. Ya en España no afectó porque el ‘invierno’ era aquí lo normal en la AI. Era un desierto. En los Congresos y reuniones internacionales recuerdo que si que había esa sensación con colegas. Lo que sí puedo decirte que sí ha cambiado la estación de la AI en el mundo: en EE.UU., Alemania, Inglaterra ha habido un resurgimiento importantísimo de la inteligencia artificial a partir de los ‘programas expertos’ y con ellos florece toda una industria, aparecen montones de empresas que fabrican hardware especializado para sistemas expertos como las ‘Lisp machines’. Por ejemplo los congresos de AI de Chicago en 1995 y en Los Ángeles 1987 hay como 6.000 participantes en cada uno. Así que, tras el invierno anterior llegó la nueva primavera de la inteligencia artificial. Luego se ha ido manteniendo bien a nivel de financiación. Pero últimamente lo nuestro, la AI vuelve a estar muy de moda. Llevamos uno o dos años que hay un ‘hype’ de la Inteligencia Artificial que entre cantidad de películas que están tratando el tema han surgido incluso multitud de debates. Hay ahora un resurgimiento de la AI.

Parte IV. SOBRE LA AI APLICADA:

A.P.: Hablemos ahora de la ‘AI’ aplicada. ¿Crees que ha cambiado el rumbo de la Ciencia de la Inteligencia Artificial el que haya ‘girado la esquina’ la industria informática, pasando a lo que Steve Jobs ya llamó ‘la Era PostPC’, a la era de los Data Center que contienen gigantescas granjas de servidores, capaces de poner a disposición de la gente aplicaciones que tienen detrás una enorme capacidad de computación que esta oculta tras ellas? ¿Esta emergiendo, en este cambio de paradigma de la informática, una AI distinta a la que habías imaginado hace una década cuando los científicos de la disciplina pensabais cómo seria el próximo futuro de esta ciencia?

R.L.M.: Sí, así es. Ha cambiado mucho. Nosotros pensábamos la década pasada que la Inteligencia Artificial seguiría el camino este de intentar hacer la AI con bases cognitivas o plausible cognitivamente. De nuevo, como en la pregunta anterior, pensábamos que avanzaríamos imitando al cerebro a nivel macroscópico, es decir había que avanzar inspirándose mucho en la inteligencia humana, a alto nivel cognitivo. Imitando la forma de razonar, aprender de humana a un nivel de sistema. Entonces, lo que ha sorprendido a mucha gente en estos últimos años se es lo que esta consiguiendo en ejemplos como Watson, lo del Google Traslator, lo de Siri de Apple, que se basan en técnicas, práctica y puramente estadísticas de análisis de gran cantidad de datos, de buscar relaciones y correlaciones entre datos que dan unos resultados prácticos muy buenos, muy interesantes, pero sin olvidarse completamente de lo que es la cognición humana. El superordenador Watson, (que ganó a dos humanos muy especializados en el concurso de televisión estadounidense Jeopardy! ), no entiende ni una sola palabra de las preguntas qué le hacen y, sin embargo, las responde correctamente. ¿cómo puedes responder a una pregunta de la que no entiendes nada semánticamente? Watson no entiende semánticamente nada del significado de las preguntas que le hacen. Hace ‘contaje’ de las frecuencias y proximidad con que aparecen esos términos en millones de documentos (a grandísima velocidad) y de ahí consigue dar respuestas que son correctas en la inmensa mayoría de los casos.

A.P.: O sea que responde correctamente sin entender nada, ni siquiera de sus respuestas ni tener conciencia de ello.

R.L.M.: No, no. Ni conciencia ni capacidad de comprender el lenguaje. Es un proceso de pregunta-respuesta, que funciona. Te voy a explicar un ejemplo para que se entienda bien. En el concurso Jeopardy! Contra dos seres humanos a los que venció, una pregunta que respondió Watson fue la siguiente: “El nombre de este sombrero es elemental, querido concursante”. Y Watson respondió de inmediato que era el sobrero de cazador. ¿porqué? Pues porque encontró que la frase “Elemental, querido…, aparecía en muchas novelas de Sherlock Holmes, y en miles y miles de documentos, no en las mismas páginas sino en muchas otras de los mismo documentos aparecía el nombre de un sombrero cuando se describía el aspecto de Sherlock Holmes que llevaba un sombrero de cazador. Al encontrar esta correlación tan alta entre la frase de elemental querido” con la descripción de una sombrero, el ordenador Watson está programado para encontrar estas concurrencias de términos, dio la respuesta, “sombrero de caza”, que es la respuesta correcta, pero que él no sabe lo que significa. Watson no sabe lo que es un sombrero, ni lo que es ‘elemental’. No sabe nada. No entiende la semántica del lenguaje. Esto es muy sorprendente y sorprendió a mucha gente el que Watson fuera tan bueno respondiendo preguntas, cuando todos en el mundo de la AI sabíamos o sabemos lo difícil que es para una máquina, para un ordenador, comprender el verdadero, significado profundo del lenguaje.

A.P.: Y sin embargo, para esto, funciona la fuerza bruta de computación.

R.L.M.: Sí, a nivel tan superficial sin conocer el lenguaje, funciona con fuerza bruta, con mucha mucha computación.

A.P.:   ¿Es la Inteligencia Artificial de la Era de Internet distinta a la de la época de los Robots ‘arácnidos’ del MIT CSAIL con inteligencia artificial por capas, como Hannibal o Attila que aprendían cada vez a andar desde cero; o como Herbert o Allen, el primer robo móvil, o como Cog o Kismet los robots con aspecto e inteligencia humanoide capaces de interactuar e imitar a los humanos?. ¿Que tienen en común y que diferencias hay entre la AI pre-Internet, y la actual de la época del Internet global?

R.L.M.: Sí, claro. Hay mucha diferencia. Internet es, en el fondo como una gran base de conocimientos y hay una nueva tendencia que se llama la ‘Cloud-robotics’ en donde cada robot aprende mucha mas rápidamente, porque no esta aislado sino que a través del ‘Cloud’ (La Nube) y de Internet puede tener acceso a información. Y lo que aprende un robot lo puede aprovechar otro robot que está relacionado con el primer robot a través del Cloud o a través de Internet. Hay una aplicación muy divertida en robótica que es un robot que mira un objeto: No lo puede reconocer, y  entonces saca una foto del objeto que está viendo, sube la foto a Internet y usando mecanismo como el del Mechancial Turk que usa también Amazon y es muy probable que de forma colaborativa alguien etiquete la imagen semánticamente y añada una etiqueta (un ‘tag’), por ejemplo: “florero”, no sé, “bicicleta”, lo que sea, ye entonces, el robot ya recibe este ‘tag’ y ha conseguido que le digan qué es aquello que esta mirando y que no sabe lo que es. Esto, en la era pre-Internet era imposible. Entonces, un robot era una cosa aislada completamente que, o tenía los recursos dentro de él, en su memoria, en su sistema, o no podía preguntar, Bueno podía hacerlo a su programador pero estaba aislado y no podía resolver por sí solo su pregunta como sí lo hacen ahora-. Ahora, estas cosas cambian completamente gracias a internet, o sea que la diferencia es enorme.

Parte V. SOBRE APLICACIONES PRÁCTICAS Y EMPRESARIALES DE LA AI. LOS AGENTES INTELIGENTES:

A.P.: Los Agentes de AI son una pieza fundamental de la gigantesca cibernética que circula y actúa en las redes y en Internet hoy en día: son capaces de realizar miles de ‘negociar’ transacciones por segundo en la Bolsa (es ocurre cada día en la High-Frequency Trading. HFT), cosa imposible para un humano; también son capaces de negociar entre muchas ofertas, comparando y eligiendo la mas rentable. Tengo varias preguntas, de nuevo: ¿Eso no esta muy cerca de lo que serían máquinas (de software) tomando decisiones autónomas? ¿Que diferencia hay entre la negociación entre humanos en comparación con la negociación entre AI Agents?

R.L.M.: Sí, los AI Agents, o ‘agentes inteligentes’ de software toman decisiones autónomas en la Bolsa. Y ha habido crahses de la bolsa cuyos culpables han sido estos agentes que toman decisiones y compren o venden acciones en milisegundos. A ver, no es que negocien nada. No hacen un diálogo con argumentos con nadie, estos ‘agentes-programas de software’. Toman decisiones así, ellos solitos sin negociar con nadie.

A.P.: Pero hacen operaciones de bolsa que duran nanosegundos, algo imposible para un humano.

R.L.M.: Ahí no hay negociación posible. El software compra y vende y punto. Y en base a su programación.

A.P.:¿Y eso es rentable?.

R.L.M.: Bueno, sí claro, pero también ha provocado problemas en la bolsa. Hubo un crash enorme en la bolsa por esta causa. Para mi esto es algo pernicioso. Debería estar prohibido completamente. Habría que quitar estos agentes autónomos de la bolsa y el mercado bursátil. ¿Porqué tenemos en Internet Captchas y todo eso en Internet? Pues para evitar que esto agentes automáticos hagan cosas que nos engañan. ¿Y porqué se permite que estos agentes compren y vendan acciones en el mercado electrónico de la bolsa? Pues no sé. Yo creo que es una burrada que actúen estos agentes autónomos, que son completamente autónomos y que, por tanto, que escapan a nuestro control. Yo creo que siempre debe haber un control. Siempre hemos de tener un control sobre las máquinas, sean físicas o de software. Yo, la autonomía plena, la prohibiría completamente, dentro de la inteligencia artificial.

Ramón López de Mántaras, director del IIIA-CSIC. Foto: Adolfo Plasencia

A.P.: ¿O sea, tú estas contra de que se use la inteligencia artificial para la High-Frequency Trading (HFT), o Negociación de Alta Frecuencia.

R.L.M.: Absolutamente. Habría que prohibir drásticamente que esto, (el HFT), funcione en las bolsas. Están causando muchos muchos perjuicios. Están proporcionando mucho dinero a unos cuantos, pero están perjudicando a la sociedad. A.P.: ¿Cómo se entiende la Innovación en tu disciplina? ¿Se entiende normalmente como algo incremental, o la verdadera innovación en AI emerge cuando hay un cambio disruptivo?

R.L.M.: En general, en ciencia no creo demasiado en la disrupción. La ciencia progresa incrementalmente y te vas apoyando incrementalmente en lo que otros han conseguido, haces mejoras en lo que otros han hecho y los otros, tus peers, tus iguales, mejoran lo tuyo. Es un progreso mas o menos lineal. No creo en la exponencialidad del progreso de la técnica y la tecnología. Esto es falso. No progresan exponencialmente.

A.P.: ¿Entonces no estarás de acuerdo con el argumento de la ‘Singularidad esta cerca’ de Kurzweil, verdad?

R.L.M.: Estoy en total desacuerdo con él. Entre los años 60 y los 80 hubo mas progresos en AI que entre los 80 y 2000. Se ha ido progresando pero linealmente, no exponencialmente. En inteligencia artificial, disruptivo no ha habido nada. Y dudo que algún día haya algo realmente disruptivo y en otras ciencias tampoco. También me puedo equivocar pero lo mas probablemente es que todo vaya cambiando incrementalmente. 

Parte VI. SOBRE APLICACIONES INTELIGENCIA ARTIFICIAL E INNOVACIÓN. MACHINE LEARNING Y DEEP LEARNING

A.P.: te he visto participar ya en dos Jornadas sobre Machine Learning. Sobre el Aprendizaje Automático y el Deep Learning basado en Inteligencia Artificial, se dice que se pueden aplicar, combinado con el Big Data a casi todos los sectores de negocio tanto para análisis y gestión de producción y mercados como para predecir el comportamiento o evolución futura, desde el comercio hasta las enfermedades. Estos términos están en todos los medios, en las noticias, por todos lados. ¿No hay una cierta ‘burbuja’ sobre las virtudes del Machine Learning y de sus aplicaciones?

R.L.M.: Yo creo que es cierto que el Machine Learning (Aprendizaje automático) y el Deep Learning (aprendizaje profundo) por la capacidad actual de procesar con gran rapidez cantidades masivas de datos ha permitido progresos importantes, siempre incrementales, sin ser disruptivos. En cuanto a la aplicaciones de la Inteligencia Artificial para tomar mejores decisiones en todos estos ámbitos empresariales que has mencionado y otros, yo pienso que eso es cierto. Bueno, es inevitable que venga acompañado de una cierta burbuja, de un cierto ‘hype’. Parece que ahora esta muy de moda el término. Da la impresión de que si estás trabajando en Machine Learning y no haces Deep Learning, no estás haciendo nada. Aun se pueden hacer aportaciones en ideas básicas en el primero sin entrar en el segundo. Todas las ideas que están aplicándose en el Deep Learning son de hace diez o quince años. No hay ahora conceptualmente nada nuevo en este campo ahora mismo.

A.P.: Pero es que lo que se está diciendo es que sirve para todo tipo de sectores y empresas.

R.L.M.: Yo creo que sirve para muchísimas cosas. Porque es muy común que en muchos sectores, -mientras haya grandes cantidades de datos que manejar, si no, no-, en donde puedes detectar patrones, tendencias, comportamientos, etc., desde cualquier sector económico hasta los de la salud, pasando por todo lo que te puedas imaginar. La verdad es que se ha abierto y hay un potencial de aplicación brutal.

A.P.: Cuando la gente usa Siri, el asistente personal que Apple ha puesto disponible (si tiene buen ancho de banda) en su iPhone, en su inmensa mayoría no sabe que al otro lado. Al otro de Siri, hay enormes granjas de servidores con una inmensa capacidad de computación e inteligencia artificial, que es lo que hacen que Siri le hable y contesta a sus preguntas de modo ubicuo, es decir en cualquier momento y lugar. La gente lo usa cómodamente en su vida cotidiana pero ni se imagina todo esto ¿No crees?

R.L.M.: es verdad que no lo sabe y no lo pensamos.

A.P.: Pero si ha AI ha llegado aparentemente tan fácilmente a nuestra vida cotidiana, el paso siguiente podría ser que la Inteligencia artificial que hasta ahora era algo propio de grandes corporaciones y empresa globales, también llegue pronto a las pequeñas y medianas empresa para que lo usen en sus negocios, ¿Ese seria el siguiente paso de la AI en las empresas? ¿El que una Pyme puede usar la inteligencia artificial en su actividad cotidiana?

R.L.M.: Sí, claro que es posible y puede ser. Eso esta cercano. Mira lo que hace la misma BigML que tiene su centro de desarrollo en Valencia, en España. Tú ya no tienes que tener los servidores y la gran capacidad de cálculo que hay detrás de la AI. Es el Sofware As A Service (Software como Servicio), el software en tanto que servicio. Por usar una comparación, es como al agua corriente. Abres el grifo y tú consume la cantidad de agua que necesitas hasta que cierras el grifo, igual que la cantidad de electricidad del contador de tu empresa. Ahí puede tener tus datos, mayor o menor en función de la actividad de la empresa; cargar estos datos en la plataforma de Big ML y sacar partido de toda esta tecnología basada en AI desde tu empresa y para tu empresa de una forma poco costosa.

A.P.: Un poco las pequeñas empresas como ‘usuarios casuales’ de la AI y sus aplicaciones para las empresas.

R.L.M.: Sí, claro es un uso muy transparente. El usuario, la empresa, no tiene porqué saber cómo funciona los algoritmos de aprendizaje profundo, ni nada. Una empresa puede ser, sí, usuario casual o permanente o usarlo en parte cada día, como quien abre el grifo cada día o como quien conecta la electricidad cada día como te he dicho. El SaaS es un concepto muy interesante.

Parte VII. LA POLEMICA DE LA ‘AMENAZA DE LA AI

A.P.: En relación a la AI, también hay quien vislumbra amenazas. A pesar de que Rodney Brooks publicó en noviembre pasado un artículo llamado “La inteligencia artificial es una herramienta, no una amenaza“, Stephen Hawking ha afirmado en la BBC que “El desarrollo completo de la inteligencia artificial podría significar el fin de la raza humana.” Imagino que sabrás sobre La polémica sobre la Ética de los Robots y la posible (probable para algunos) ‘amenaza’ de la AI encarnada sobre todo en forma de ‘Armas Letales Autónomas’. Dicho debate se ha multiplicado cuando nombres de mucha importancia de la tecnología como Elon Musk, CEO de Tesla, o Steven Wozniak co-fundador de Apple, junto a miles de investigadores de todo el mundo (entre ellos alguno de vuestro IIIA), han suscrito la ‘Carta Abierta del Instituto para el Futuro de la Vida’, titulada “Research Priorities for Robust and Beneficial Artificial Intelligence” en la que marcan ‘prioridades’ de investigación para la AI. ¿Crees que pueden, aplicaciones de la AI, como las armas letales autónomas’, convertirse en una Amenaza para la humanidad como aseguran algunas figuras relevantes del mundo tecnológico? ¿Crees que al investigación en AI debe ‘auto-inhibirse’ en relación a su futuro? ¿Cuál es tu posición al respecto como científico?

R.L.M.: Actualmente, la Inteligencia Artificial, mas que como amenaza ya hay que tener en cuenta que viene aplicándose con una serie de problemáticas y riesgos. Las armas autónomas son ya una amenaza muy real, desde luego que sí. Se está trabajando en ello, por ejemplo en EE.UU., construyendo robots-soldad, drones con capacidades autónomas para disparar o no, sin que un ser humano intervenga en esa decisión. Esta es una amenaza muy real. O la de la privacidad: la verdad es que la estas tecnologías han contribuido a que ya no tengamos vida privada, actualmente. Todo esto no es que sea una amenaza, es que ya está aquí. Yo pienso que sí, que hay que poner limitaciones. Algunos investigadores sí nos oponemos. En mi instituto nos negamos absolutamente a trabajar en prontos militares de robots soldados, etc. No vamos a hacer nada de todo eso. La comunidad es libre. Hay cantidad de mis colegas que están trabando en temas militares, sin ningún problema de conciencia. A mí me sabe mal pero no puedo hacer nada. Mi posición es clarísimamente en contra. Lo que estamos intentando algunos es que la ONU haga una resolución igual que hizo con las armas química y bacteriológicas. Ya hicieron una resolución en contra de las ‘Lethal autonomous weapon’ (Armas letales autónomas), pero siempre habrá mercados negros y gente que las fabrique. Hay muchos interese económicos y la industria del armamento es un lobby muy potente. Por mucho que algunos protestemos, inevitablemente y desgraciadamente, acabará habiendo armas autónomos. Estamos haciendo cosas… en la humanidad se están también haciendo cosas completamente locas, guiados por la única ambición y avaricia del dinero y esto pasa por encima de cualquier consideración ética. Pero bueno, tenemos derecho al pataleo, a llamar la atención a la opinión pública y a lo mejor sí, si una gran mayoría se pone en contra, igual podemos frenar algo esto. Pero en algún lugar acabarán apareciendo.

Parte VIII. SOBRE EL IIIA (Instituto de Inteligencia Artificial del CSIC).

En el IIIA (Instituto de Inteligencia Artificial del CSIC), que tú diriges, mantenéis tres líneas principales de investigación: la lógica, el razonamiento y la búsqueda; El razonamiento y el aprendizaje basado en casos; y los agentes y sistemas multi-agente inteligente. Estas líneas de investigación se aplican a muchos ámbitos comerciales y de negocios como los mercados electrónicos, las ‘tecnologías de acuerdo’, la medicina, la música, la información de privacidad / seguridad y robots autónomos. ¿Puedes describirnos vuestras actividades investigadoras? ¿Como es vuestra relación con el tejido empresarial, con que tipo de empresas colaboráis y cómo son los tipos de aplicación práctica ahora mismo en el mundo de la empresa?

R.L.M.: Estamos colaborando todo tipo de sectores, desde el sector salud hasta el de logística y transporte o turismo, en todos esos ámbitos que has mencionado. La inteligencia artificial es que es aplicable a todo. Es aplicable prácticamente al 100% de cosas. No hay nada en lo que la AI no pueda ser útil. Hemos trabajado en todos estos sectores que te he mencionado, hasta en entretenimiento o la TV, para resúmenes automáticos de partidos de fútbol, o en Fórmula 1, por ejemplo. Tenemos una unidad de transferencia de tecnología que coordina toda nuestra actividad con empresas y sectores.

A.P.: Entonces eres optimista.

R.L.M.: Soy optimista para esta Inteligencia Artificial que es útil, socialmente responsable, funciona muy bien y nos ha servido para hacer hasta cuatro empresas spin-off que han creado entre 100 y 150 puestos de trabajo de alta cualificación. Tenemos una muy buena experiencia de transferencia de tecnología en nuestra actividad compartida con empresas.

A.P.: Muchas gracias, Ramón.

R.L.M.: Gracias a ti.

……………..

Publiqué una síntesis de esta conversación con Ramón López de Mántaras en el Suplemento INNOVADORES de El Mundo, con el título: “Deben prohibir los robots con inteligencia artificial en Bolsa”

 

Saturday, May 6th, 2017

  • SOBRE ESTE BLOG

  • Nube Semántica

    Adolfo Plasencia Alvaro Pascual-Leone Añadir etiqueta nueva Cloud computing Computación en la nube conocimiento abierto Cory Doctorow Creative Commons Dale Dougherty Economía de las ideas emprendedor Enrique Dans GGG Giant Global Graph Google grafeno Hal Abelson Innovación INNOVADORES inteligencia artificial Internet Internet de las Cosas Javier Echeverría John Perry Barlow José M. Carmena Lawrence Lessig Massachusetts Institute of Technology MIT Pablo Jarillo-Herrero PYMES Redes sociales Ricardo Baeza-Yates Richard Stallman software libre Steve Jobs Tagging Tim Berners-Lee Tim O'Reilly Tim O’Reilly Ubuntu Vinton Cerf Web 2.0 Wikipedia WWW2009 Yahoo! Adolfo Plasencia (4)
    App Economy (1)
    Apple (2)
    Artesanía (1)
    Biónica (2)
    Biotecnología (1)
    Cibercultura (35)
    ciberengaño (1)
    Ciberespacio (11)
    Ciencia (16)
    Ciencias de la Computación (4)
    Cine (3)
    Comercio electrónico (6)
    conocimiento abierto (13)
    Creative Commons (6)
    Cultura (16)
    Cultura digital (30)
    Diseño (1)
    e-Commerce (5)
    Economía (19)
    Educación (11)
    Empresas (25)
    Empresas sociales (1)
    Física (2)
    flash mob (1)
    flashmob (1)
    Gamification (2)
    Gaming (2)
    Genómica (1)
    Hardware libre (1)
    Hidrogeología (1)
    Hiperlocal (1)
    Howard Rheingold (2)
    Informática (5)
    innovación (6)
    Interfaz Cerebro-Máquina (2)
    Internet (14)
    Is the Universe a Hologram? (1)
    Microempresas (1)
    MIT (6)
    MIT Medialab (1)
    Mundos virtuales (2)
    nanomáquinas (2)
    nanorobots (1)
    Nanotecnología (3)
    netneutrality (4)
    Neutralidad (4)
    neutrality (2)
    Neutrality network (2)
    OLPC (2)
    Open Hardware (1)
    Phishing (1)
    Princeton (1)
    red (5)
    Redes Sociales (7)
    SEO (1)
    Serendipity (1)
    Snack Culture (1)
    Sociedad (8)
    Software libre (6)
    Startup (2)
    Steve Jobs (1)
    Tecnología (26)
    Tecnologías de búsqueda (6)
    Tecnologías de la Salud (4)
    Transporte (1)
    TV (2)
    Uncategorized (14)
    Web 2.0 (18)
    Web social (16)
    Wikipedia (3)
    WWW (15)

    WP Cumulus Flash tag cloud by Roy Tanck and Luke Morton requires Flash Player 9 or better.

  • July 2019
    M T W T F S S
    « Jun    
    1234567
    891011121314
    15161718192021
    22232425262728
    293031  
  • Twitter ADOLFO PLASENCIA


  • Artículos destacados de este blog

  • Facebook

  • Linkedin

  • MIS LINKS FAVORITOS

  • Mis VideoBlogs favoritos

  • Meta

  • Fotos Flickr Adolfo

    Vinton Cerf y Adolfo Plasencia

    Adolfo Plasencia y Jimmy Wales

    Rodney Brooks

    Michail Bletsas

    Alvaro Pascual Leone

    John Perry Barlow en el Powerful Ideas Summit

    Tim OReilly entrevistado en Tecnópolis UP TV

    Richard Stallman entrevistado por Adolfo Plasencia

    Henry Jenkins y Adolfo Plasencia

    Hiroshi Ishii y James Patten en Tecnópolis de UP TV

    More Photos