La aparente y probablemente falaz extrema productividad de la IA Generativa

Adolfo Plasencia, 28 de agosto 2023

 

Nuestra tendencia a antropoformizar todo aquello que llaman “IA”, aunque sea machine learning,  como los LLM, se cumple con el Chat GPT. Las imágenes para representar lo que es un puro software también lo demuestran. Esta imagen es de Wikipedia.

Vivimos en un mundo digitalmente globalizado en el que cada uno de nosotros se ha de enfrentar a una magnitud total de información mucho mayor de la que su mente puede metabolizar con nuestra propia capacidad de pensamiento. En ello se da una paradoja. Un cerebro humano consume 20 vatios/hora. Y mucha gente ahora mismo interactúa con el Chat GPT se asombra por las repuesta que ‘escupe’ (en inglés, se dice así porque el modelo de software no redacta ni escribe). Pero ni se plantea que cantidad de energía se consume en ello, aunque muchos investigadores presentían que “El consumo energético de ChatGPT debe ser brutal“. Pero ya hay quien lo han estado calculando. Comparemos y veremos la paradoja. Frente a los 20 vatios del consumo de energía un cerebro humano en acción plena, una sola sesión de diálogo con Chat GPT consume, según el Carbon Tracker de la Universidad de Copenhague el equivalente al consumo de 126 hogares daneses en un año. Ese gran consumo de energía es causado por el enorme hardware que tiene detrás (se necesitan 28.936 GPUs Nvidia A100 para dar servicio a ChatGPT).

El investigador danés Kasper G. A. Ludvigsen, teniendo el cuenta la estructura de su hardware, ha calculado que, con 28.936 GPU, el consumo total es electricidad de 5.787,2 KW. Así que un periodo de 30 días, el consumo eléctrico de ChatGPT sería de 4.166.784 KWh, o sea ¡más de 4 millones de Kilovatios / hora! Esto supone el Chat GPT tiene un consumo eléctrico de 5.787,2 Kilovatios cada hora. Y, además las cifras emisiones de CO2 que produce van en paralelo a ello. Algo que es manifiestamente insostenible para los resultados obtenidos. Pero, además, con ese consumo el Chat GPT, no genera pensamiento como hacer el cerebro humano; simplemente calcula estadísticamente la palabra siguiente a la actual y así sucesivamente, como un software auto-completador. Pura espectacularidad y apariencia ligada a un Efecto Eliza generalizado.

El mundo financiero especulador, que tiempo ha ignora las advertencias de los científicos sobre el cambio climático, siguió ‘a su bola’ extremando sus apuestas en la carrera de la IA, y también ignorando, no solo en lo relativo a las certezas sobre la tecnología IA, sino aumentando y acelerando sus apuestas especulativas asociándose a empresas dopadas con millonarias inversiones en montaña rusa, que también ignoraban y/o ocultaban los riesgos inherentes a las tecnologías que, obcecadamente, etiquetaban con “IA” todos sus discursos, y también los ‘papers científicos‘ relacionados que usaban interesadamente. Y ocultando, al tiempo, además la verdadera naturaleza de la tecnología de los LLM (Large Language Model) y de sus Transformers. Que, literalmente, describe así Wikipedia: “un transformador es un modelo de aprendizaje profundo que adopta el mecanismo de auto-atención, ponderando diferencialmente la importancia de cada parte de los datos de entrada (que incluye la salida recursiva). Se utiliza principalmente en los campos del procesamiento del lenguaje natural”.

Ni diez ni cien millones de artículos como este, podrían contener todos los textos sobre las llamadas IA Generativas que se han publicado desde el 4 de diciembre, día de la apertura al acceso del público del ChatGPT por la antes empresa non-profit OpenAI  ¿Qué que son esas IA? pues redes neuronales artificiales generativas que utilizan un enfoque llamado aprendizaje profundo (deep learning), que permite que la “IA”, es decir, su inmensa estadística bayesiana interna, “aprenda” de los datos de manera automática. O sea, unas mal llamadas IA que pueden analizar inmensas cantidades de datos y encontrar patrones y relaciones que de otra manera serían difíciles de detectar, según la premisa previa no demostrada aún, de que dicho mecanismo permitirá a los Transformers y LLM producir, –supuestamente– “materiales originales” a partir de los datos de su entrenamiento, que sí han sido creación de humanos (y usados para ello sin pedirles permiso). Como dijo un profesor del MIT, que no quiere dar su nombre: “solo son una ‘proeza estadística’.

Los anuncios hiperbólicos de la explosiva industria IA

Según el profesor y analista islandés Baldur Bjarnason, autor del libro “The Intelligence Illusion“, los proveedores de software de IA tienen ahora en sus enormes incentivos económicos razones de peso para exagerar las capacidades de sus herramientas y hacer que sean difíciles de refutar. Esto socava los intentos de rigor científico sobre ellas. Además, es importante ser escéptico ante las afirmaciones de los proveedores de IA porque el sector de esta nueva industria informática es propenso a los anuncios hiperbólicos. Los vendedores de sistemas de IA tienden a hacer promesas que no podrán cumplir. Muchos de ellos, históricamente, ni siquiera han sido tecnología de ‘verdadera IA’. Pero ahora la etiqueta “AI” ya forma parte del mainstream y, como compartí hace poco con un apreciado humanista amigo, ya es completamente inútil intentar desmentir que eso no es lo que dicen que es, sino otra cosa. Incluso la Comisión Federal de Comercio de EE.UU. se ha visto en la necesidad de recordar a la gente que las afirmaciones sobre capacidades mágicas de la IA deben basarse en hechos.

Un campo tan prometedor -e hiperbólico-, como la IA tiende a atraer a entusiastas verdaderos creyentes de la “IA”, por lo que no son tan críticos con la información como deberían. Igual que a muchos usuarios les asombra lo que ‘escupe’ el Chat GPT, a las empresas de IA les encantan las apariencias científicas, y publican “estudios” escritos y presentados con aspecto de artículos sometidos a revisión por pares. Pero a menudo, estos “artículos” se suben a sus propios sitios web o se vuelcan en repositorios de archivos como Arxiv, sin revisión por pares ni proceso académico.

Según Bjarnason, que ha escrito una guía práctica sobre los riesgos empresariales de la IA Generativa, la mayor parte de la retórica de las empresas de IA, especialmente cuando evocan a la Inteligencia Artificial General (IAG), se basa en un tono de evidencia solemne, en lugar de pruebas reales. En muchos casos, adoptan los modales de la ciencia sin ninguna revisión por pares ni metodología falsable. Y advierte que, creer a pies juntillas el gran ‘bombo’ publicitario de la industria de la IA puede causar daños reales, sobre todo a las empresas, pero también a las personas vulnerables, como ocurre con la algorítmica de las plataformas de redes sociales.

Por supuesto, –afirma–, lo que está pasando con el hype de los GPT-n da un poco de miedo. Pero no da miedo porque el más nuevo, el GPT-4, sea inteligente. Da miedo porque no lo es. Conectar un sistema de lenguaje irreflexivo y no determinista, potencialmente, en una máquina mal protegida a una variedad de servicios en Internet, da miedo de la misma manera que la idea sobre las consecuencias de dejar que un generador de números aleatorios controle el termostato de tu casa, durante una ola de frío de –50° de las que se producen una vez cada siglo. Que pueda matarte con ello no significa que el generador de números sea consciente de sí mismo.

Se está publicando tantísimo sobre la AI, que en un mundo de la comunicación tan hiperventilado como el actual, además de evangelistas y ‘forofos’ de las promesas de la IA, también proliferan críticos radicales, catastrofistas y negacionistas de la IA que han generado un nuevo género de condenas de la tecnología que, en el argot, se llama la “criti-hype” de la AI. Son gente que parte de la base de que los modelos de software son, al menos, tan buenos como afirman sus vendedores, o incluso mejores. Así que caen en su propia trampa y extrapolan desastres de ciencia ficción a partir de exageradas fantasías del marketing hiper-interesado.

Promesas a las empresas de productividad y beneficios económicos exponenciales

El hype o subidón causado por el entusiasmo global pro-IA, no solo se aceleró, sino que causó, sobrealimentado por las redes sociales y twitter (casualmente propiedad hoy de Elon Musk, que dejo Open AI como co-fundador y gran accionista en 2019 por discrepancias con su CEO), una explosión nuclear de opinión publica a cuya onda expansiva se sumaron irracionalmente todos grandes los medios ‘FactCheck’ de comunicación del mundo. La mismísima agencia Reuters publicó el 15 de diciembre solo once días después del lanzamiento que “las proyecciones dicen que OpenAI gane mil millones de dólares en ingresos para 2024.”

Fortune publicaba un poco después que: “En enero de 2023, OpenAI estaba valorada en 29 mil millones de dólares. Eso la convierte en la sexta compañía más valiosa de los Estados Unidos”. O sea que Open AI en mes y medio ya no valía como un unicornio sino como 29 unicornios (empresas que el mundo financiero valora en mil millones de dólares). Reuters se sumó, anunciando el 10 de enero la intención de Microsoft de invertir 10.000 millones de dólares en Open AI. Sí, en aquella pequeña startup ex non-profit de 164 empleados que lanzó el 4 de diciembre el Chat GPT.

Si el objetivo de algunos con Open AI era provocar un enorme seísmo alcista en las bolsas, estaba conseguido. Pero pronto empezaron los efectos secundarios. Tal como conté en estas páginas, la onda expansiva provoco de inmediato una alerta por ‘código rojo’ reputacional en Google. Y no solo eso. El 8 de febrero, dos meses después, con las prisas, Google presentó precipitadamente Bard su nuevo chatbot de IA para competir con Chat GPT (OpenAI/Microsoft). Pero, inopinadamente, Bard mintió descaradamente en preguntas clave en su propia puesta de largo. Según Forbes, Google pretendía en la presentación anunciar que iba a integrar su chatbot de IA rival de ChatGPT en su motor de búsqueda Bing y otros productos pero, el resultado fue un fiasco de grandes proporciones: las acciones de Google cayeron un 7,68% hasta  99,40 dólares, perdiendo más de 100.000 millones de dólares en valor de mercado en los siguientes minutos a dicha presentación (cosas de la high-frequency trading.HFT).

Pero ¿cual era el objetivo en realidad de este hype de los lanzamientos de la IA Generativa con GPT-3 y sus colegas Dall-E, Stable difusión, PalmM y todo el enorme y diverso rebaño de Transformers? Resulta que casi todas las grandes tecnologías estaban trabajando discretamente en su propio LLM, o GPT para posicionarse en la inminente batalla de la IA. Y este tipo de tecnologías de grandes Modelos de Lenguaje ya los estaban utilizando tiempo ha muchas empresas, empezando por grandes medios de comunicación que publicaban informaciones ‘escupidas’, que no redactadas, por un MML o un GPT y sin informar al lector.

Como ya relaté en estas mismas páginas, desde el Washington Post (propiedad de Jeff Bezos) o The Associated Press, hasta South China Morning Post todos lo hacían presumiendo, cara a sus accionistas, del enorme aumento de productividad en su ‘maquinaria’ de noticias. Es decir, enfatizando que la automatización de tareas intelectuales que se puede realizar con esta tecnología, genera un enorme aumento de productividad. Verbigracia para iniciados: se pueden eliminar empleos y conseguir enormes ahorros de costes en las grandes empresas de la maquinaria de grandes medios de noticias. Con ello, sembrada quedaba la semilla que pronto iba a explotar, de que esta tecnología nos va a quitar los empleos basados en el uso del lenguaje y el conocimiento. Pero el incidente de Google con su Bard demostró en la primera prueba, -a un precio de un fiasco instantáneo de 100.000 millones de valoración de empresa–, que los textos que ‘escupen’ los GPT, no son en absoluto de fiar. Veremos que dicen en breve los conspicuos guardianes de fiabilidad de la información financiera oficial. Así que, esas expectativas de extrema productividad pueden acabar, de la misma manera que las certezas del Chat GPT, siendo una dolorosa falacia.

Pero además del fiasco de Bard, Google ya suma otros dos no menos ‘dolorosos’ relación a la AI. Ya cerró en abril de 2019 el Comité de Ética de Inteligencia Artificial apenas una semana después anunciar su creación, y que había abierto la empresa solo unos días antes ¿Es la ética un desafío demasiado grande para Google?, me preguntaba yo en una columna en aquel momento, abril de 2019. Bien, pues hace poco, en mayo de 2023 ha estallado un tercer fiasco: el ‘padrino de la IA’, el prestigioso y pionero Geoffrey Hinton, que fue contratado por la empresa al fijarse en la calidad de su trabajo seminal en redes neurales, acaba de dimitir y abandonar Google, donde llevaba trabajando 10 años, declarando a la CBS que teme los riesgos de este tipo de AI que está desarrollando ahora la industria tecnológica y que “se arrepiente de su trabajo anterior”. Y ha añadido a un periodista del NYT: “Me consuelo con la escusa normal: si yo no lo hubiera hecho, otro la habría hecho. Pero es difícil anticipar cómo se puede evitar que malos actores usen esta poderosa tecnología para malas cosas”.

Además, están publicándose, para darle visos de seriedad al asunto, cifras sobre extrema la productividad de las aplicaciones IA en investigaciones científicas o medicina, para mostrar, de nuevo comparadas las grandes diferencias con el procesado humano de grandes cantidades de datos médicos, y su utilidad. Es verdad que esta tecnología es capaz de encontrar patrones y relaciones que de otra manera serían difíciles de detectar. Ya lo demostraron los modelos algorítmicos de las llamadas scientist machines hace varios años que son capaces de destilar las leyes de la física a partir de datos en bruto. Es la nueva “física GoPro”, en la que una ‘cámara’ de IA puede apuntar a un evento y un algoritmo puede encontrar la ecuación física subyacente.

Uno ejemplo espectacular es que uno de ellos entrenándolo con datos de masas y planetas y órbitas del sistema solar fue capaz de llegar a ‘escupir’ (depurar, según el equipo científico) finalmente la fórmula de la gravedad de Newton sin pasar por los logros de científicos anteriores los antiguos gigantes a cuyos hombros de subió el físico para otear como Kepler Galileo y otros. ¿Cómo llegó a ella el Modelo? No se sabe ni se ha podido averiguar. Ni siquiera lo han conseguido saber los que desarrollaron aquel software, que en pruncipio estaba pensado para otra cosa. Probablemente, porque los LLM y los GPT son complejísimas cajas negras cuyo interior es indescifrable, incluso para los mismos que las desarrollan. Y eso pasa hasta hoy.

Alguien debió pensar, al parecer, que aumentando el tamaño ya inmenso de estas gigantescas e indescifrables cajas negras se llegaría a una masa critica de interacción de los algoritmos, de la que, a partir de una cierta magnitud crítica, tal vez de ella podría emerger algún comportamiento ‘inteligente’ demostrable. Por eso, parece, se aumentaron en varios ordenes de magnitud todas las dimensiones de los Modelos hasta llegar a las de GPT-4.

Pero, como tal vez no estaban muy seguros de los posibles riesgos de GPT-4 (y como reconociendo que las tenían control sobre los resultados), Open IA contrató hace más de seis meses a un equipo diverso de destacados científicos de IA (de la ciencia seria) de los mejores centros del mundo, para “evaluar” diferentes partes de su nuevo y potente modelo lingüístico. Y al publicar Financial Times la lista de dicho ‘Equipo Rojo’ pude ver que solo había dos españoles, los dos, investigadores de IA del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la UPV: José Hernández-Orallo y Lexin Zhou. He hablado con el primero, a quien conozco hace tiempo y me dijo estar impresionado, pero no me dijo más. No sé que tipo de cláusulas de confidencialidad había firmada el equipo rojo. Espero que pronto nos cuenten más sí pueden, porque no espero nada de la transparencia de Open AI, la antes non-profit.

Más sorpresas de Open AI: falacias sobre productividad y el coste oculto

Si puedo contar lo que acaba de afirmar el co-fundador, –con Elon Mask, que abandonó la empresa en 2019–, Sam Altman, el ahora superfamoso CEO de Open AI. El mismo que, hace solo tres meses declaró, a Forbes el 3 de marzo de 2023 que “su tecnología está preparada para “romper el capitalismo”. Pues bien, hace pocos días nos ha dado otra sorpresa más. La prestigiosa Wired publico lo que el CEO de Open AI ha dicho en una presentación en el MIT. Justo, el 23 de abril, –por cierto, día mundial del libro y aniversario de Shakespeare y Cervantes–, la frase de sus palabras más destacada en el titular una prestigiosa a revista digital relacionada con el MIT de Altman es: “El CEO de OpenAI afirma que la era de los modelos gigantes de IA ya ha terminado”. Sorpresa mayúscula.

Altman revolucionó a la ciclotímica audiencia global atenta a la IA con su speech en el MIT que se viralizó en segundos a todo el mundo global: “Los grandes modelos lingüísticos cada vez más grandes no son el futuro. Creo que ya estamos al final de la era de los modelos gigantes y que los mejoraremos de otras formas”, -dijo-.  Y añadió: “Es mejor centrarse en aumentar rápidamente la capacidad, que en el número de parámetros. Si es posible, mejorar la capacidad con un menor número de parámetros o combinando varios modelos más pequeños, entonces estupendo.”

Pero creo que ha sido Ventureveat el que ha señalado una buena la razón oculta probable: las ideas de Altman están motivadas por los costes. Los LLM son muy, muy caros: al parecer, la ‘formación’ del GPT-4 costó 100 millones de dólares. Este coste es una de las razones por las que Microsoft está desarrollando su propio chip de inteligencia artificial y, probablemente, ha sido un factor que ha influido en la rápida reticencia de Google a lanzarse de cabeza al lago de la inteligencia artificial generativa.

Pero las replicas del seísmo iniciado por Open AI, siguen a su bola. Mientras OpenAI, de forma un poco inverosímil dado el contexto, parece no tener ninguna prisa por desarrollar GPT-5, la competencia y la presión siguen aumentando en la loca carrera de Fórmula 1 hacia la AIG. Amazon acaba de presentar su familia Titan de LLM (para generar texto y traducirlo a representaciones de significado semántico). Y el imprevisible co-fundador de Open AI Elon Musk, que acabó firmando la carta de moratoria de seis meses, –después firmada, hasta ahora, por más de 33.000 científicos relevantes, empresarios y profesores–, también está tramando algo. Ha constituido una empresa llamada X.AI y ha comprado miles de GPU de Nvidia para construir su propio LLM.

Musk también declaró a Tucker Carlson, de Fox News, que planea enfrentarse al “políticamente correcto” ChatGPT de OpenAI con algo que ha llamado TruthGPT, una “inteligencia artificial que busca la ‘verdad máxima’ e intenta comprender la naturaleza del universo”. Nada menos. Mmmm…, lo que pasa es que es demasiado aficionado a la posverdad extrema y sesgada. Veremos

Dejo al lector, para acabar, en manos de una elocuente frase del prestigioso pensador de la tecnología Jaron Lanier, formulador del concepto ‘realidad virtual’, que abre un nuevo frente de pensamiento sobre la inteligencia artificial: “El peligro de la IA no es que nos destruya, es que nos vuelva locos.” Piensen en ello.

28/08/2023, escrito por Adolfo Plasencia

La invasión algorítmica se apodera del periodismo

Adolfo Plasencia, 19 agosto de 2023

Uno de los impactos más grandes de la automatización por software, es el de la que se ha dado en llamar IA Generativa que está impactando de lleno en la maquinaria de producción de los mass media y el trabajo periodístico. O sea, en lo que en EE.UU. llaman ‘la maquinaria de producción de las noticias’, en la que el lenguaje es su núcleo central. Por eso, es lógico que esta tecnología se aplicara pioneramente en ese ámbito, y con intensidad, desde hace varios años. Lo que está ocurriendo con la introducción de la ‘IA Generativa’ (en realidad machine learning predictivo) en algunas salas de redacción periodística, plantea dilemas inquietantes. Por ejemplo, ¿aplicar la IA generativa al ámbito de las redacciones periodísticas lubricará su maquinaria y aumentará su productividad, y/o la oxidará como actividad humana? ¿convertirá su aplicación a escala industrial en innecesaria la labor de muchos de los periodistas en las redacciones de medios? ¿va a ser automatizado el trabajo de los periodistas a gran escala? Son grandes preguntas que afectan al papel del periodismo en sus audiencias, y por extensión, en las sociedades democráticas.

El impacto de la IA generativa en la función periodística se había silenciado desde el principio, ya que a muchos editores y empresarios de medios no les convenía hablar de impacto de la IA en las ‘tripas’ de su sistema editorial, pero un incidente casi fortuito lo ha sacado a la luz.

Parece algo nuevo, pero no lo es. Hay antecedentes. Un diario tan conocido como The Guardian, publicó por primera vez en la historia, oficialmente, un artículo editorial de opinion (op-ed) firmado por una máquina, o sea por el software GPT-3. Fue el día 8 de septiembre de 2020 y lo tituló: “Un robot escribió todo este artículo. ¿Ya tienes miedo, humano?”. Dos años después, ha publicado un artículo que comenzaba con el título: “El bot de IA ChatGPT asombra a los académicos con sus habilidades de redacción y su usabilidad.”

Vaya por delante que la apariencia del texto generado por GPT-3 es tal que puede resultar difícil determinar si ha sido escrito o no por un humano, lo que tiene tanto ventajas como riesgos. Treinta y un investigadores e ingenieros de OpenAI presentaron el 28 de mayo de 2020, en el paper original de presentación de GPT-3 un documento, en el que advertían seriamente sobre los peligros potenciales de GPT-3 y hacían un llamamiento a la investigación para mitigar los riesgos. En abril de 2022, The New York Times describió las capacidades de GPT-3 como un artefacto capaz de escribir prosa original “con una fluidez equivalente a la de un humano”. Todo ello es anterior a la salida al público de Chat GPT que fue tomado como una novedad absoluta en diciembre de ese año.

Pero según un científico especializado, este software no es puramente inteligencia artificial sino simplemente una “proeza estadística” ya que ha sido entrenado como sus predecesores, no posee comprensión alguna sobre sentido ni significado de las palabras que emite. Se limita a predecir estadísticamente la siguiente palabra más probable que va en cada frase, basándose en sus datos de entrenamiento, que, además, pueden ser incorrectos.

Pero hace pocas semanas todo se ha acelerado alrededor de la IA generativa. En ese contexto, un usuario de twitter ha mostrado que el uso de IA generativa se estaba generalizando en los medios de manera muy discreta. Y una investigación posterior reveló que muchos artículos publicados se han ‘generado’ (no sé si se puede llamar a esto ‘redactado’), usando ChatGPT, o GPT-3, desde noviembre de 2022. Así se ha descubierto que el prestigioso medio digital de noticias tecnológicas CNET estaba usando inteligencia artificial generativa para ‘escribir’ y publicar artículos sobre finanzas personales, usándola sin previo aviso ni explicación a los lectores. Los artículos detectados, (73 en total), trataban temas como “¿Qué es Zelle y cómo funciona?” (Zelle es la red de pagos digitales de EEUU propiedad de Early Warning Services, a su vez propiedad de bancos como Bank of America, Truist, Capital One, JPMorgan Chase, PNC Bank, U.S. Bank y Wells Fargo). Dichos artículos solo tenían un pequeño ‘descargo de responsabilidad’ al final en el que se leía: “Este artículo se ha generado utilizando tecnología de automatización y ha sido editado y comprobado por un redactor [ humano, se entiende] de nuestro equipo editorial”. La autoría de estos artículos era de “CNET Money Staff” sin ninguna indicación de que habían sido creados por una IA generativa. Pero tras la polvareda, posteriormente el medio ha incluido un autoria de un redactor, y una indicación ‘certificada’ que que ha sido editada por un editor (con nombre y apellido). Parece que el mundo económico y financiero aún no está del todo maduro para la IA generativa…

A pesar de todo, estas informaciones generaron un revuelo considerable. Y ante ello, el redactor jefe de CNET tuvo que salir, finalmente, a la palestra para defender porqué esos artículos fueron “escritos” por una IA generativa antes de publicarlos. Para quitar hierro al asunto, CNET usó una expresión eufemística: “Ayuda de la IA”, afirmando que, “si bien el motor de IA compiló el borrador de la historia o recopiló parte de la información para la narración, cada artículo de CNET -y publicamos miles de historias nuevas y actualizadas cada mes–, es revisado, verificado y editado por un editor [ humano, se supone] con experiencia en el tema antes de que lo publiquemos. Esa seguirá siendo nuestra política, independientemente de las herramientas o tecnologías que utilicemos para crear esos artículos.”

A pesar de que los citados 75 artículos se habían publicado como hechos por un periodista (humano), sin avisar al lector de ello, culminó la defensa de la actuación de su medio CNET, declarando: “Nuestra reputación, ‘basada en hechos comprobados’ como fuente objetiva e imparcial de noticias se basa en la transparencia de nuestra forma de trabajar y de las fuentes en las que nos basamos.” Y concluye: “¿Haremos más cambios y probaremos cosas nuevas mientras seguimos aprendiendo y comprendiendo las ventajas y retos de la IA? La respuesta es sí.”

Ya está comprobado, y además reconocido por sus creadores de Open AI, que las IA generativas como Chat GPT no comprenden la diferencia entre verdadero y falso, ni el significado de términos o palabras. ¿Cómo entonces el lector se podrá fiar que lo que dice un artículo publicado, –reconocido por CNET que ha sido redactado por una IA generativa–, si la máquina que lo ha escrito no distingue entre verdadero y falso? ¿Puede un software así comprobar hechos si no distingue si algo sucedió o no? Lógicamente no puede. La frase ‘basada en hechos comprobados’ hace que sea papel mojado al respecto una historia escrita por una IA generativa.

¿Pueden apoderarse la ‘IA Generativa’ de la maquinaria periodística de las noticias?

A pesar de ello, el uso de estas tecnologías en los medios de comunicación o mass media, –por usarla terminología de McLuhan–, (no incluyo en ellos a las redes sociales), casi parece inevitable e irreversible. Las noticias también son un negocio. Después del citado suceso de CNET, ha salido también a la luz que muchos medios importantes ya estaban comportándose igual que CNET y usando profusamente la IA generativa en diversas facetas como una ‘simple ayuda tecnológica más’. Por ejemplo, The Associated Press (AP), que fue una de las primeras en aprovecharla para la creación de contenidos. Lleva utilizándola desde 2014 para generar resúmenes de los informes de resultados de las empresas que cotizan en bolsa. Esto les permite, –afirma su editor–, “proporcionar a los lectores información clave de forma rápida y precisa, ‘liberando’ a los reporteros para realizar otras tareas”, –señalan en su página web–, y añaden que esto “distraía del periodismo de mayor impacto”. Donde ponen ‘liberando’ también cabría el término ‘sustituyendo’.

Pero esta tecnología ya se está probando en los medios para más cosas e incluso está midiendo la rentabilidad del uso de las máquinas de software, en sustitución del trabajo de periodistas humanos. Por ejemplo, en la relación de los medios y las redes sociales. El South China Morning Post ha declarado que ahorra recursos humanos equivalentes al trabajo realizado por 3,9 empleados (periodistas especializados) a tiempo completo, al utilizar la IA generativa para agilizar la gestión de sus redes sociales. Según Digital Content Next la IA generativa está cambiando el funcionamiento de las redacciones y la edición de los medios y pone algunos ejemplos. Ya se usa en el análisis de audiencias, publicidad programática o creación automatizada de historias. También imitando a las grandes plataformas globales que usan tecnología de recomendación personalizada, –pilar de plataformas como Amazon, Spotify y Netflix–, se ha empezado a usar en la prensa escrita el machine learning y sus algoritmos para personalizar las recomendaciones de contenido.

Gráfico de Sesgo Mediático de una aplicación interactiva algorítmica de Comscore, que muestra un posicionamiento de medios basado en datos con el que adaptar al usuario las noticias (y la publicidad) desde el punto de vista que le resulte más satisfactorio mediante filtros algorítmicos. Tiene niveles de ‘miembro’ y de ‘usuario profesional’.

Periodismo algorítmico de gran pureza

The Washington Post, ahora propiedad del fundador de Amazon Jeff Bezos, va más allá y utiliza la IA generativa para personalizar las noticias que ofrece en función de los intereses y preferencias de los lectores. Verbigracia: eso hará que cada lector del periódico lea una noticia diferente a la de los otros lectores y perversamente adaptada a lo que estadísticamente a él le ‘gustaría’ leer, cosa que facilitan los datos que ha regalado a los mismos algoritmos que le bombean incesantemente información, la desee o no. Este tremendo enfoque personalizado ya lleva algún tiempo siendo usando por el WPost en su App para móviles, en sus boletines NewLetters y, ahora, en la página de inicio. Probablemente es una evolución que puede conducir a periódicos con una trayectoria histórica muy prestigiosa hacia tener una conducta con la audiencia muy similar a la que tienen las redes sociales con sus usuarios, en busca del engagement (enganchamiento adictivo) radical en todos los sentidos.

Esta algorítmica se está usando para cosas que no hubiéramos imaginado antes. Por ejemplo, para lo que, otra vez eufemísticamente, se llama “dar forma a los contenidos que se leen, y se ven”, como es el caso del filtro de noticias positivas de Pink News. Su propósito es que le lleguen, personalizadamente, a cada determinado lector (ya convertido en usuario), solo las que con muy alta probabilidad el considera que son “noticias positivas”. Bueno, las que el algoritmo generativo, –que no distingue entre verdadero y falso–, considere ‘positivas’ para ese lector en concreto. Es decir, darle al lector lo que a él más le gustaría oír, o leer, –¿les suena?, en política se hace desde tiempo ha–. El diario El País en España también ha lanzado su propia suscripción a noticias positivas, con el título: “Historias positivas para mejorar tu semana“, bajo el epígrafe ‘NewsLetter/correo sí deseado’. Todo sea para que una noticia desagradable, o sea, la realidad, no amargue el día o la semana a sus lectores.

Es una estrategia algorítmica basada en datos del usuario, propia de las redes sociales pero aplicada a la prensa, que como ya sabemos porque está demostrado, causa aceleración, polarización y neutralizan grandemente la capacidad de decisión del usuario. Por supuesto las aplicaciones de la tecnología generativa no han hecho sino comenzar a llegar, y ya se están probando el sustituir a periodistas humanos, con la comprobación automatizada de hechos dentro de lo que se llama ya cobertura basada en ‘datos’, –en lugar de basada en ‘hechos’–. Los datos con mucho más maleables que los hechos, como bien sabemos.

Los productivos robotperiodistas

Me pregunto ¿Vamos a empezar pronto a llamar a ciertos algoritmos ‘periodistas no-humanos? Pues parece que sí. Por ejemplo a la herramienta algorítmica propia que ha creado la empresa del Washington Post llamada  “Heliograf” que lleva ya tiempo generando automáticamente actualizaciones breves de noticias del periódico de varias frases. O la desarrollada por las empresas tecnológicas Automated Insights y Zacks Investment Research, que ha conseguido una productividad tal a Associated Press, que está generando automáticamente casi 4.000 artículos sobre los beneficios de las empresas estadounidenses cada trimestre, unas doce veces más de lo que creaban antes los periodistas y redactores (humanos) de AP. La prestigiosa Agencia internacional de noticias también crea en estos contextos, (para nuestra tranquilidad) una pequeña fracción de estas 4.000 noticias, a las que los redactores (no algorítmicos), añaden “el toque humano” ofreciendo, –dice—. ‘interpretaciones’ más matizadas.

El periodismo algorítmico, –a estas alturas ya le podemos llamarlo así sin titubeos–, está en plena explosión y su expansión, ya no se orienta solo a deportes y finanzas, aunque la audiencia de deportes es la que parece más ‘asequible’ para estas herramientas. Por eso, A. Press ha añadido la información deportiva a sus actividades periodísticas automatizadas para las que sus editores y reporteros de béisbol configuraron la plataforma Wordsmith con la ayuda de la empresa tecnológica Automated Insights.

Uno de los ‘robotperiodistas’ más eficaces y populares en California es Quakebot, del que es autor el redactor de Los Angeles Times Ken Scwenkie. Según Business Insider, Quakebot es un sistema automatizado que reside en los servidores de Los Angeles Times, que recibe correos electrónicos del Servicio Geológico de EE.UU., después pasa esos datos por una lista de comprobación de información y luego determina algorítmicamente, –y autónomamente-, si son de interés periodístico en función de la ‘magnitud’, –vaya Vd. a saber qué entiende el algoritmo generativo por magnitud si no comprende ningún significado–. A continuación, él mismo, –si es que podemos hablar, también eufemísticamente, en tercera persona en este caso–, analiza el contenido del correo electrónico y lo introduce en el sistema de gestión de contenidos de Los Angeles Times. Las ‘entradas’ o post publicadas se estructuran mediante una fórmula estadística basada en entradas anteriores. Es un planteamiento próximo al de toda la vida de muchos economistas: el presente se cuenta siempre en función de las estadísticas del pasado. No vendrá mucha innovación por ahí.

Periodismo ‘aumentado’ algorítmicamente

Como señala Andreas Graefe, autor del informe del Tow Center for Journalism, “Guía del Periodismo Automatizado”, el periodismo automatizado es especialmente útil para generar noticias ‘rutinarias’ –habituales, en muchos casos–, sobre temas repetitivos para los que se dispone de datos limpios, precisos y estructurados. También destaca el potencial de los algoritmos para generar grandes volúmenes de noticias con rapidez, potencialmente orientadas desde múltiples ángulos pre-determinados, y personalizadas según las preferencias del lector.

Según el informe, la automatización en periodismo también tiene limitaciones y efectos negativos que hay que considerar cuidadosamente a medida que más y más organizaciones y empresas utilizan la inteligencia artificial generativa –en realidad machine learning predictivo y de probabilidad–, para ‘aumentar’ su periodismo.

Pero llegados a este punto, emerge ya una pregunta, un dilema que parece inevitable: ¿nos va a importar si lo escrito es de mucha calidad, el que no haya sido escrito y creado por un autor humano concreto? ¿O nos va a dar igual?

En fin, el periodismo automatizado aumentado algorítmicamente ya esta aquí de un modo que parecería que no vamos a poder rechazar, ni evitar… Al parecer los impactos negativos de esta tecnología algorítmica sobre los lectores, las personas (también hay implicadas en todo esto tecnopersonas, como bien dice Javier Echeverría), y sobre nuestras sociedades democráticas, tendremos que detectarlas empíricamente y probablemente por dolorosas prueba y error. Dada nuestra experiencia humana con el impacto que ya conocemos de las redes sociales sobre individuos y colectivos humanos, lo que se nos viene encima no pinta bien, que no nos pase nada. Sin embargo, en este caso, no se trata de un fenómeno climático extremo. Es una producción humana y cualquier consecuencia de ella, como sucede con todas las demás, no era, ni es, inevitable. Pero eso no quiere decir que consigamos evitar esta deriva que nos está invadiendo.

……………..

Esta artículo fue publicado también el 23 de febrero de 2023 en D+I / Invertia: LINK:

19/08/2023, escrito por Adolfo Plasencia

El Mundo, o su Representación. Economía, Arte y Tokens No-Fungibles (TNFs)

Adolfo Plasencia, 17 marzo 2021

Imágenes de obras digitales ligadas a token no-fungibles subastadas en 2021

¿Qué deseamos poner en la mayor parte de nuestras vidas inmediatas; el mundo (real), o sus ‘representaciones’?  Y en todo caso,… ¿Elegir cuál de estas dos opciones nos podrá hacer más felices? –me refiero a ‘representaciones digitales’ o virtuales de algo real del mundo físico, por supuesto–. Durante siglos, esta respuesta fue tan obvia como la de elegir entre dedicarse a soñar o a seguir despierto. Pero ahora mismo resolver este tipo de dilemas se ha vuelto mucho más complejo y menos obvio. En parte, porque el equilibrio en nuestras mentes y cultura entre lo real y lo representado, ha cambiado por completo. Es un efecto más de enfrentar la limitada atención de las personas a una gigantesca cantidad de información cada día que llega hasta donde está cada uno, con consecuencias radicales en sus vidas. El lugar ubicuo de esta confrontación lo señala una frase de Henry Jenkins; “donde los antiguos y los nuevos medios colisionan”.

Durante mucho tiempo, para ‘ver’ las mejores ‘representaciones’ artísticas del mundo había que ir, –lo digo resumiendo–, a museos para las visuales y a la biblioteca para las textuales, pero ahora mismo ya no necesitamos ir a ningún lado. Esas representaciones del mundo y de todo lo que contiene han cambiado de paradigma, escala, dimensión, cualidad y viene a cada uno de nosotros en medio eso sí, de una masa de desinformación y propaganda no solicitada, pura polución cognitiva . Cambios que pueden ser dañinos o satisfactorios (según para quién, y según su grado de aburrimiento, y el tipo de curiosidad que les mueva). Esas representaciones se clonan y multiplican constante y digitalmente hasta el infinito. Se han vuelto ubicuas y omnipresentes (dos atributos hasta hace poco religiosos y exclusivos de las deidades). Persiguen nuestra atención hasta cualquier lugar a donde vayamos, o en el que nos encontremos, gracias a las pantallas a las que siempre llevamos con nosotros en nuestro smartphone, o al resto de pantallas conectadas que nos salen al paso y que han colonizado en el mundo entero en donde nos ‘observan’ como un Gran Hermano ‘centralizado’, pero ya no único como lo describía Orwell en su 1984 sino distribuido, algoritmizado y también ubicuo.

El valor en ‘lo digital’

Volvamos al dilema inicial pero en términos de economía y negocios dos ámbitos cuya separación con nuestra vidas privadas ha sido borrado. ¿Qué mercado es hoy más rentable para una empresa, el del mundo real o el de sus representaciones, –por supuesto, digitales-?. Hoy, la maximización de valor y beneficio, en la segunda digitalización en que estamos, se consigue con más éxito esencialmente con cosas digitales, objetos inaprensibles (con el significado en sus dos acepciones a la vez), puras ‘representaciones’ ¿qué son si no, los anuncios digitales en la red que inundan nuestro ojos?. Bien es verdad que existe un criterio previo sobre lo que es el ‘valor’ muy a lo Milton Friedman… Se suele decir: algo vale lo que alguien esté dispuesto a pagar por ello. Una conocida frase en esa línea de pensamiento del famoso especulador financiero Warren Buffet dice: “El precio es lo que se paga, el valor es lo que obtiene”, –creo que al decir eso, él ya está pensando el precio que alguien podría pagar en la siguiente transacción, y así sucesivamente–. A mí, al contrario, oír la palabra ‘valor’ lo que me trae a la mente es una reflexión en una sola frase del poeta Antonio Machado: “Es de necios confundir valor y precio.” No se si Buffet la conoce, a pesar de su conocido cinismo. Probablemente él, y muchos como él, están hechos de otra pasta que el citado poeta.

Pero, ¿es válido ese pensamiento de Machado para el mundo digital, del que es característica central la infinita clonación de representaciones? Pues no parece si vemos qué está pasando. Las empresas con más beneficios, éxito e influencia (¿les suena el término ‘influencers’ ? del mundo global ya no son las dedicadas a fabricar y vender mercancías físicas sino a comerciar agresivamente con inmensas magnitudes inmateriales de datos digitales –la ‘gasolina’ del siglo XXI les llaman–, puros clones creados en tiempo real por una inmensa multitud de máquinas que habitan en remotas granjas de servidores, por una maquinaria cibernética que funciona, aunque no solo, usando el poder del alma inmaterial que habita en el silicio. Maquinaria totalmente insostenible que contribuye grandemente al calentamiento global. La industria digital global tendrá que mirarse esto pero, mientras tanto, su paradigma ya se ha vuelto dominante.

Naturalmente, contagiarse de las nuevas ‘tecnolacras‘ sociales, –efectos secundarios causados por lo viral de las plataformas de red social–, relacionadas con el dinero virtual, se lo pueden permitir los flaneurs digitales, pero no, por ejemplo, los líderes empresariales ya que les llevaría a tomar decisiones equivocadas y poner en peligro su empresa en la coyuntura actual, en la que igual que una startup puede convertirse en horas en un ‘unicornio’; también una corporación puede dirigirse a un abismo económico y volverse irrelevante en el mercado a casi a la misma velocidad (recordamos lo efímero de la prometedora existencia de la empresa Theranos que, en total, duró 15 años). ¿Quién quiere que su empresa dure 15 años?. Pues quien la funda solo para especular y venderla.

Tim O’Reilly acaba de diagnosticar con precisas palabras lo que nos está ocurriendo con el mundo digital global. Dice Tim: “Sospecho que llegaremos a aceptar la ciencia basada en el aprendizaje automático, al igual que hemos aceptado los instrumentos que nos permiten ver mucho más allá de las capacidades del ojo humano. Pero si no comprendemos mejor a nuestras ‘máquinas ayudantes’, es posible que las conduzcamos por caminos que nos lleven al borde del precipicio, como hemos hecho con las redes sociales y nuestro fracturado panorama informativo…. Un paisaje fracturado que no es lo que se predijo: los pioneros de Internet esperaban el advenimiento de la libertad y la sabiduría de las multitudes; no que todos estuviéramos bajo el control de gigantes empresariales que se benefician de un mercado de desinformación (o sea, de falsedades). Lo que inventamos no ha resultado ser lo que esperábamos. Internet se ha acabado convirtiendo en la materia de nuestras pesadillas más que de nuestros sueños.” Todo esto está relacionado con supuestas ‘nuevas’ economías que no son tales, pero que prometen, (también dicho en la jerga) una ‘monetización’ salvaje y rápida. Algo muy improbable, asimétrico y más allá de nuestro control, pero al alcance de otros.

La ignota economía digital de los Token No Fungibles (NFTs)

Pondré ahora ejemplos de sucesos actuales que ilustran en concreto todo lo anterior. Hechos que han surgido un breve lapso de tiempo en la brillante espuma de las olas de lo viral global, solo unos días atrás. Me refiero a los “NFT”, esos mecanismos digitales que permiten comprar y vender la propiedad de artículos digitales únicos (esta expresión es un oxímoron), y hacer un seguimiento de quién los posee utilizando una ‘cadena de bloques’ de tecnología blockchain. NFT significa, traducido “token no fungible”, y técnicamente puede ligarse a cualquier cosa digital, incluidos memes, imágenes, gráficos GIF animados, canciones, elementos de videojuegos, etc. Un NFT, que es algo digital, Y ahora gracias a la criptografía puede ser ‘etiquetado’ como único, como si fuera un cuadro de pintura de la vida real, o una copia física de muchos, como los cromos, pero la cadena de bloques (la tecnología blockchain) es quien lleva la cuenta en un conjunto de pasos, garantizado por firma electrónica digital, de quién es el propietario del archivo digital.

El primer ejemplo es una noticia algo críptica, –adjetivo perfecto para este caso–. El pasado 12 de marzo, en la web del diario digital Bloomberg LP en el titular (traducido) podía leerse publicado en negrita: “Crypto Whale de Singapur es el comprador de la NFT por 69 millones de dólares de Beeple.” Y el subtitular debajo, con la firma de James Tarmy, aclaraba: “Metakovan, el fundador anónimo del fondo de inversión NFT Metapurse, fue confirmado por Christie’s como el comprador.” El artículo posee los ingredientes y la fórmula para obtener atención en el mundo digital hoy: combinar ‘notoriedad global’, cifras económicas asombrosas y promesas especulativas. Bajo el citado titular hay una imagen en forma de recargado mosaico de múltiples y pequeñas imágenes que no transmiten al verlas mensaje inteligible alguno. Para explicarla, el pie de foto (traducido) dice:”Todos los días: Los primeros 5.000 días, de Beeple, se vendió por 69,3 millones de dólares, tasas incluidas, en Christie’s el 11 de marzo de 2021. Fuente: Christie’s”. Descifro mínimamente la ‘jerga’: “Todos los días: Los primeros 5.000” es la obra gráfica’ digital creada por el ‘artista’ Beeple, ‘conocido’ por obras parecidas, y por la que se ha pagado el jueves, en una puja en la famosa casa de subastas Christie’s, una cifra ‘récord’ en el mundo del arte: 69 millones de dólares. Es lo máximo que se ha pagado hasta hoy por una ‘obra de arte digital’. Y la tercera mayor, –en el ranking de más altos precios pagados hasta ahora a nivel mundial en el arte contemporáneo–, tras un cuadro de Jeff Koons y otro de David Hockney que son hoy pintores más cotizados en subastas de arte contemporáneo, que cualquier otro artista vivo en el mundo. La diferencia es que lo vendido, la obra “Todos los días: Los primeros 5.000 días“, no es un cuadro sino un copioso mosaico de pequeñas fotos digitales visibles en pantalla.

Los propios vendedores de Christie’s aseguran en su certificación que la obra vendida es, al tiempo, digital y ‘única’ ¿Cómo es eso posible? La explicación es que los millones de pixels que la componen están ligados a un ‘Token No-Fungible‘ (NFT), es decir un identificador único e insustituible creado por un algoritmo y ligado a una cadena de bloques de tecnología blockchain que lo autentifica sin ninguna duda, e impide específicamente (es un decir) duplicarlo o clonarlo. Según estos certificadores se puede duplicar cualquier copia de él pero no este ‘original’. Su algoritmo ‘acuñado’ en la pieza (conceptual, no físicamente) lo impide y es el que garantiza su singularidad única. Es una pieza ‘única’ porque se ha creado ad hoc para ella una ‘escasez digital artificial’. Una paradoja conceptual enorme entre lo que es único y sus representaciones, porque es sabido que, la de los clones digitales, es una economía caracterizada abrumadoramente por la abundancia. Cualquiera sabe ya que toda pieza digital (en forma finalmente de unos y ceros) es clonable y reproducible infinitamente. Se puede ver ahora mismo que, esta ‘singularidad irreproducible’, está conviviendo con millones de reproducciones de ella misma que millones de medios y usuarios conectados están multiplicando, cada vez que se conecta un usuario, cada vez que alguien la reenvía por whatsapp, cada vez que un periódico la coloca en su Web, y cada vez que un lector entra en la página. Todo el mundo que la ve en la red, mira un clon distinto de ese copioso mosaico digital de los ‘5.000 días‘.

Convertir en arte vendible una singularidad digital

Y ¿cómo funciona ‘convertir’ en arte vendible estas singularidades llamadas NFTs?. Veamos. Un NFT es un token criptográfico, que, a diferencia de las criptomonedas como el bitcoin y muchos ‘tokens de red’ o de ‘utilidad’ (Los tokens de utilidad son un tipo de criptodivisa que representa el acceso o el descuento a un producto o servicio), no son mutuamente intercambiables, y por lo tanto no son fungibles (fungible es algo que se ‘consume’ o se ‘gasta’ con el uso, por ejemplo el contenido del cartucho de toner de tu impresora). Un NFT se crea ‘subiendo’ un archivo, como una ‘pieza’ digital de arte, a un mercado de subastas de NFT, como, por ejemplo, son KnownOrigin, Rarible u OpenSea. Al hacerlo se crea clon digital del archivo registrada en el libro de ‘contabilidad digital blokchain’ formando un NFT. Dicho NFT puede entonces comprarse con criptomonedas y revenderse. Los NFT se utilizan para comercializar piezas digitales, como arte digital, artículos de videojuegos o música y otros. El arte digital tenía un problema que es que, a diferencia del arte físico, no tiene un medio preexistente para reconocer la autenticidad; así mediante los estos tokens se consigue crear una escasez artificial ‘verificable’ en el ámbito digital, así como una propiedad digital, y la posibilidad de interoperabilidad de estos activos en múltiples plataformas. Y a partir de aquí, está en el papel de cualquiera creer que todo esto es verdad, porque lo dicen la matemática y los algoritmos. Pero una vez que lo has asumido ya has entrado en el espacio de las ‘creencias digitales’ NFT, es decir, en una ‘tecnoreligión’, como las llama el filósofo Javier Echeverría.

Hace años que esto funciona. Beeple, el mismo ‘artista’ autor de la citada “ Los primeros 5.000 días”, ya vendió por 6,6 millones de dólares otra ‘obra‘, -aquí usamos la jerga artística de los curators-, que muestra a un ‘Trump’ desnudo y derribado en el césped de un parque, que muestra un ‘Loser’ tatuado en su brazo, mientras a su alrededor los transeúntes pasan ignorándole como si él no estuviera allí. Por supuesto, en estas ‘piezas’ no existe la información típica del mercado del arte sobre técnica pictórica, tamaño en cm., etc. porque, al contrario de lo que ocurre en cualquier obra mostrada en museo o galería, eso es aquí irrelevante y lo que importa es la autenticación de su NFT. Otro caso. …En agosto de 2020, el Museo de Cripto Arte (MOCA) hizo historia con la mayor compra en el mercado de arte NFT Nifty Gateway de ese momento, adquiriendo la pieza “Picasso’s Bull” obra del artista Trevor Jones por 55.555’55 dólares pagados en ‘Ethereum’ (moneda digital criptográfica). Una venta que Nifty Gateway describió como ‘hito’ importante en el mundo del arte ya que, -afirma sin despeinarse–, que validó las NFT como un ‘nuevo medio de arte’. ‘Arte’ no físico sino sólo ‘representación digital’ (con las inherentes propiedades que eso supone). Multitud de conversos a lo digital que sí lo creen nuevo (aunque no lo sea). Y les importa porque viene del contexto de algo que es, o ha sido viral , esa moneda de ‘notoriedad’ típica de las redes sociales. No importa que se trate de la ‘representación’, de una representación, de otra representación,… y así sucesivamente, en una cadena que puede alargarse hasta el infinito, siempre en modo digital y sin las limitaciones de una representación física. Los catecúmenos digitales adoran estos brillantes becerros dorados, perciben los citados sucesos como una nueva especuladora y artística ‘moda’ de la industria de la ‘notoriedad digital’, sea con ‘falsificaciones profundas‘ o no, en la que la diferencia entre verdadero o falso es irrelevante, siempre que sea ¡guai!.

Pongo otro ejemplo contundente con los mismos ingredientes y otro protagonista con mucho poder viral. El fundador y CEO de Twitter, Jack Dorsey (con 5,3 millones de seguidores en ‘su’ propia plataforma), ha puesto a la venta “su” propio tuit inicial que él publicó el primero de los miles de millones de tuits toda la historia de la plataforma, solo que ahora convertido en NFT, y por el que la oferta más alta ha llegado a pagar 2,5 millones de dólares. Señalo que, en realidad, no es exactamente aquél inicial que publicó, sino una ‘representación’ digital dicho tuit, que ha tenido clonar para hacer ‘su’ NFT, y que además convive ahora en la red con millones de clones visualmente indistinguibles al publicarse la noticia en millones de lugares de Internet (por ejemplo en cada pantalla de sus millones de seguidores donde cada persona que ve ese mismo tuit en la red, ve un clon diferente). Ocurre con cada uno de esa multitud expandida, con tantas personas como miren sus cuasi-infinitos clones en la red. De ahí la confusión entre lo ‘físico único’ del mundo real, y lo ‘supuestamente único’, cuando sabemos se trata de una entidad digital. Hay aquí en realidad una clara confusión entre ‘representaciones’ ¿Diferencia entre original y copia?; lean con calma a Walter Benjamin (en Sobre la fotografía, de Pre-textos), al respecto. Simplemente aquí a una de las copias se le ‘engancha’ un Token No-Fungible (NFT) que, ¡zas! certifica que ese es el auténtico y los demás, –o sea, los millones restantes–, no lo son. Lo dice el algoritmo criptográfico. Pero, naturalmente, si quieres quedar convencido, debes combinar el ser un creyente digital practicante, además de que las matemáticas algorítmicas encriptadas y la blockchain, te lo señalen como tal.

Hoy, basta con esta combinación de notoriedad, ‘supuesta novedad’ y dinero, para que estalle el frenesí en las redes sociales y el mundo especulativo económico de los inversores digitales ‘de riesgo’. Pero las modas digitales también son una ficción. Otro ejemplo aún más contundente. En octubre de 2020, el coleccionista de arte afincado en Miami, Pablo Rodríguez-Fraile, pagó 67.000 dólares por una ‘obra de arte NFT’ consistente en un vídeo digital de 10 segundos de duración que muestra un ‘mate’ en un partido del famoso jugador de baloncesto la NBA Lebron James. Tres meses después, la última semana de febrero de 2021 lo vendió por 6,6 millones de dólares. Como informa Reuters, OpenSea, un mercado de NFT, ha visto crecer sus ventas mensuales desde los 8 millones de dólares de enero, hasta 86,3 millones de dólares en marzo de 2021. Así crece la cosa.

Según Rajan Singh, estas formas de arte digital, los NFT, “son un catalizador emergente en la transformación de las economías del ecosistema creativo, porque por fin cualquier pieza de arte digital puede ser comprada al mercado global descentralizado respaldado por la red descentralizada Blockchain.” Y sus piezas artísticas tienen el aspecto de coleccionables digitales, artículos de juegos, obras de arte digitales (GIFs animados, diseños, etc.); entradas para eventos concretos, nombres de dominio e incluso los nombres de usuario en Twitter y Facebook. Todos ellos son ejemplos de bienes digitales que pueden registrarse como NFT en Internet. Finalmente, estas acciones pretenden crear artificialmente una ‘escasez digital’ más que para dar valor, para crear especulación económica alrededor de la ‘pieza’, –algo que va en contra de la esencia misma de lo que caracteriza a lo digital–. Por eso, quienes mueven todo esto ‘huelen’ a más a ser herederos y aprendices cibernéticos del conocido comportamiento extractivo global que exhiben los gigantes tecnológicos, que a que a “potenciar la autenticidad y la propiedad de objetos digitales de colección y bienes digitales únicos” para que vivan de ello los artistas. Si quieres creer a Singh puedes hacerlo. Hay gente no-escéptica de esta pseudo-modernidad, o posmodernidad que le cree. Pero no es mi caso.

Dicho lo cual, volvemos la elección sobre la que me preguntaba al inicio. Ante el dilema de elegir entre el mundo real y la representación (digital, por supuesto) de algo existente, los nuevos creyentes en este arte digital, –que ya son multitud–, justificándolo con los NFT criptográficos, están eligiendo lo segundo. Eso sí, al más puro estilo Milton Friedman, pero del siglo XXI. Nada nuevo bajo el sol digital, por tanto. Y de la enorme y aterradora huella de CO2 que genera todo esto, hablaremos otro día. Hoy no hay más espacio.

  • Este artículo se publicó en’D+I’ el 8 de Marzo de 2021. LINK:

24/03/2021, escrito por Adolfo Plasencia

Esta persona es matemáticamente única pero no existe

La fabricación tecnológica de personas ‘falsas’ y ‘tecnopersonas’, creadas digitalmente, tiene un mercado enorme. Son un gran negocio y forman parte de nuestra realidad superpuesta.

Adolfo Plasencia, 24 junio 2020

Rostros digitales (de personas inexistentes), irreales y únicos, creados con software ”. Imágenes: Thispersondoesnotexist.com

Cuando andamos por la calle, saludamos a aquellas y aquellos cuyo aspecto es reconocido por nuestro sistema cognitivo como alguien que ya conocemos. Y nos parece normal cruzarnos con gente por la calle o en cualquier otro lugar que no conocemos, pero que aceptamos como parte de nuestra vida cotidiana.

Pero ¿se imaginan que muchas de estas personas con las que nos cruzamos o a las que vemos no existan? Pues eso es lo que estamos haciendo cada vez con más frecuencia al mirar las pantallas de nuestros teléfonos móviles, ordenadores, televisores o vallas electrónicas que nos rodea por doquier, en las que mucho de lo que existe está siendo sustituido por algo que no existe, o sea, irreal. Y, de esta manera, lo irreal también está pasando a formar parte de nuestro paisaje cotidiano mediante las pantallas de nuestros smartphones que llevamos con nosotros allá a donde vamos. Una de las habilidades profesionales más importantes de cara al futuro va a ser detectar al mirar una pantalla cuando algo no es real pero que se nos presenta como si lo fuera, de la misma manera que lo será distinguir cuándo una de las informaciones que se disputan nuestra atención es una de las muchas fake news (noticias falsas) y no un hecho real. Esta creciente realidad digitalmente aumentada con cosas falsas (y personas que no existen), está siendo aceptada sin ninguna resistencia e incluso con agrado como parte de nuestro ‘entretenimiento’. A muchas personas en ciertas situaciones la irrealidad digital les resulta placentera y divertida. Por eso hay tantos millones de usuarios de ciberjuegos jugando continuamente en los metaversos online en los que frecuentemente su avatar, es decir su identidad digital en el juego no responde en absoluto a su apariencia, género, edad o carácter físico en el mundo real. Y ahí juegan y ‘viven’ (es un decir) encantados.

Las Tecnopersonas como realidad inventada

El término ‘persona’ viene del latín pers?na, que significaba ya en la antigua Grecia tanto ‘máscara del actor’ como ‘personaje teatral’. La palabra persona sintetiza? un concepto principalmente filosófico, que expresa la singularidad de cada individuo de la especie humana en contraposición al concepto de “naturaleza humana” que expresa lo supuestamente común que comparten todos ellos. Pero después de participar y moderar en un debate (virtual) de València Thinks Global de La Nau en que hemos presentado libro “Tecnopersonas. Cómo la tecnología nos transforman” escrito por Javier Echeverría y Lola S. Almendros, tendré que modular esa denominación porque tras leerlo y participar debatir sobre su contenido tengo claro que a lo que me refiero a veces en relación con lo digital, en realidad no es a personas sino a ‘Tecnopersonas’, más concretamente a uno de sus tres tipos que, por ahora, según ese texto, existen y que como se puede leer en él son: “Aquellos personajes que sirven como iconos imaginarios para los otros dos tipos de tecnopersonas; uno, “el de los artefactos tecnológicos como los robots y otras modalidades de software, que simulan y potencian funciones y capacidades mentales de los seres humanos; y otro, el formado por “aquellos seres humanos que dependen radicalmente de las tecnologías para vivir, hasta el punto de que muchas de sus acciones cotidianas se realizan mediante implementaciones tecnológicas informatizadas.” Tanto unos como otros, ‘viven’ ya entre nosotros. Nuestro ideario de hoy mezcla ‘tecnopersonas’ con personas de carne y hueso, si bien los del segundo tipo con ejemplos como los personajes ficticios de Matrix, Blade Runner, Lara Croft o de series de Netflix como ‘Black mirror’ ya están ya a diario en nuestras conversaciones e imaginario. Hay muchos de los fans adictos a las series (una moda adictiva actual de visión maratoniana) se refieren a lo sucedido muchas veces con referencias a ficciones que han visto, y están convencidos de que la ficción crea y supera a la realidad, cuando es justo al contrario.

Esta persona no existe

La existencia de una persona que conocemos siempre la hemos asociado a su mente, personalidad, identidad y a su aspecto, cosas que la hacen única. Esa idea era la obsesión del robot protagonista de la película “Yo Robot”, que se llamaba a sí mismo ‘Sonny’ rechazando la denominación NS-5 que había elegido la empresa fabricante U.S. Robots and Mechanical Men para todos los clones robóticos de su misma ‘serie’ o generación de robots. “¡Soy único!” grita enfurecido en un momento de la película el robot ‘Sonny’ al detective Spooner (Will Smith). El robot ‘Sonny’ quería, ansiaba, poseer esa característica clara y exclusivamente humana. Cada humano es único. Cada persona es única. Hay algo común que nos hace humanos a cualquiera de los 7.000 millones que habitamos nuestro planeta. Pero esto, mejor dicho, la apariencia de ello, es algo que está empezando a cambiar.

Intentaré explicarlo con un suceso real, legal, que concluyó en 2018, muy conocido en la gran industria mundial de los ciberjuegos. La actriz Lindsay Lohan, conocida por formar parte del reparto de una serie de comedia de Sky TV, demandó legalmente a Rockstar la empresa desarrolladora del videojuego ‘Grand Theft Auto V’, argumentando que el personaje protagonista Lacey Jones de dicho juego no sólo se parecía a ella, sino que también tenía un timbre de voz similar y llevaba ropa ‘que se parecía’ a su propia línea de ropa. La actriz argumentó en la vista legal que “los acusados (la empresa Rockstar) usaron a propósito su bikini, pelo rubio hasta los hombros, joyería, su smartphone y la ‘postura de la señal de paz’ en una imagen, y usaron la semejanza de la actriz en otra imagen apropiándose de los rasgos faciales, el tipo de cuerpo, la apariencia física, el pelo, el sombrero, las gafas de sol, los pantalones vaqueros cortos y el top blanco suelto.” El asunto tiene un dimensión económica grande ya que cuando tuvo lugar la vista oral ante el juez, ya se habían vendido de 275 millones de ‘copias’ del juego objeto del pleito desde su lanzamiento en septiembre de 2013. Una de las cosas más interesantes del caso son algunas afirmaciones conceptuales de los jueces en la sentencia que fue apelada. Los magistrados de la apelación aceptaron la ‘afirmación’ de la actriz de que un personaje de un juego de ordenador podría constituir un “retrato”, lo cual apoyó su demanda por ‘invasión de privacidad’, sin embargo decidieron que, en este caso, la semejanza no era lo suficientemente ‘fuerte’ como para sentenciar a favor de la demandante. Merecen destacarse los argumentos del juez Eugene Fahey en su sentencia: “Las representaciones artísticas son indistintas, representaciones ‘satíricas’ del estilo, apariencia y personalidad de una joven moderna, que va a la playa… que no son algo reconocible (en su identidad) como la demandante.” Después de esta demanda, –como era previsible–, hubo más. Y el mismo tribunal rechazó otra reclamación sobre otro personaje del mismo juego GTA V, según la cual, se basaba en la estrella de un reality show, Karen Gravano. Y fue rechazada en otra sentencia por motivos similares.

Alguien y/o Nadie

En el canto IX de la Odisea de Homero, se cuenta la historia de cómo un grupo de hombres encabezado por Ulises, célebre héroe de la Guerra de Troya, llegó a la isla de los Cíclopes y se aventuró en una gran cueva. Entraron en ella y comenzaron a darse un banquete con la comida que encontraron allí. No sabían que dicha cueva era el hogar donde vivía el gigante y cíclope Polifemo, quien pronto se topó con los intrusos y los encerró en ella. A continuación empezó a devorar a varios de ellos, pero Ulises urdió un astuto plan para escapar, convenciendo a Polifemo, tras despertar aturdido de una borrachera, que él se llamaba en griego ‘outis’, nombre que puede traducirse como “Ningún hombre” o “Nadie”. Cuando el cíclope fue herido en su único ojo por Ulises gritó para pedir ayuda a los otros cíclopes del exterior .”¡Nadie me está matando!”, –les gritaba–, pero lo que ellos entendieron que Polifemo se había vuelto loco, llegado a la conclusión de que había sido maldecido por un dios y, por ello, no intervinieron. Y así Ulises pudo sacar de la cueva a sus compañeros y ponerlos a salvo de los cíclopes.

La anécdota del nombre explica muy bien que una ‘persona’ real es única. Es lo contrario de ‘nadie’. Pero esa lógica es distinta en lo digital, aunque cómo metáfora nos sirve, porque se han empezado a fabricar ‘tecnopersonas’ sin singularidad ni identidad. Personas digitales, o ‘tecnopersonas’ que son literalmente “nadie”. Veamos. Tras las primeras demandas por las supuestas suplantaciones digitales de ‘identidades físicas’ la poderosa industria de los ciberjuegos puso en marcha su potente máquina de innovación para solucionar radicalmente el problema y anticiparse a futuras demandas, creado un software de inteligencia artificial capaz de crear ‘personajes y rostros’ digitales mediante algoritmos cuya construcción deja claro, y matemáticamente demostrado, que el rostro creado (la ‘Tecnopersona’) no es igual a ninguna persona física existente en el mundo real. ¿Y como se llama el software más pionero capaz de ello? Pues literalmente se llama así: “Esta persona no existe”, es decir, en su nombre original en inglés: “thispersondoesnotexist”. No hay más que visitar su web para ver hasta qué punto son rostros que ‘parecen’ reales, pero no lo son, ya que las matemáticas con las que están creados lo demuestran. Ha sido tal el éxito que rápidamente se ha creado, ligada a la de los videojuegos, toda un ‘industria de creación de personas digitales falsas’, con rostros digitales asimismo falsos o ‘irreales’ pero con garantías para neutralizar que cualquiera pueda demandar legalmente al fabricante del videojuego, denunciando que la cara o el personaje digital fabricado es una copia de la suya, de su cuerpo, o de su ‘máscara’ o atuendo. O sea, son rostros y ‘tecnopersonas’ de una falsedad científica matemáticamente demostrada. Y ya hay otros aplicaciones de éxito generadora de rostros y personas verdaderamente falsas (valga el oxímoron), como ‘Generated Photos’   que se anuncia así: “Fotos de ‘modelos’ únicas (y sin preocupaciones, –legales–) generadas por inteligencia artificial, clasificadas y etiquetadas.” Son en realidad representaciones de ‘identidades falsas’, o sea ‘máscaras digitales’ para usar en redes sociales ocultando la propia identidad real.

La fabricación digital de personas falsas ya es un gran negocio

Hasta hace muy poco no podíamos sospechar que la fabricación tecnológica de personas ‘falsas’, o personas fabricadas digitalmente, o “Tecnopersonas”, –en la terminología de Echeverría y Almendros–, podría tener un mercado enorme y ser un gran negocio. Y ya lo es. Y no solo en la industria de ficciones y metaversos de vídejuegos y sus aplicaciones sino también en la presentación masiva de supuestas realidades a través de las pantallas, como está demostrando las retransmisiones de fútbol de partidos en grandes estadios vacíos cuyas gradas se están rellenando con público falso, con mayor o menor fortuna, durante la desescalada de la Pandemia Covid-19 en España. La imagen del derbi Sevilla-Betis que inauguró en la ‘desescalada’ el retorno del fútbol a los estadios ‘vacíos‘ de público es una prueba elocuente de ello (con gradas vacías en el estadio donde se jugó, pero llenas en el televisor si veías el partido (en emisión de pago) desde casa.

Imagen del derbi Sevilla-Betis, partido celebrado el 11 de junio de 2020, a puerta cerrada, pero emitido por  TV con publico falso ‘insertado’ en le emisión de TV.

Ese ‘público falso’ había sido fabricado y ‘pegado’ a las gradas televisivas por la compañía noruega Vizrt. Y el sonido entusiasta de los inexistentes aficionados coreando (solo en TV) las jugadas y goles que oía el espectador en casa también era ‘falso’ y servido a la Liga de Fútbol por la potente empresa de vídejuegos Electronic Arts (EA), creadores del conocido videojuego FIFA. Mi amigo Enrique Dans, –en mi opinión, de natural, bondadoso– , afirma al respecto que “La decisión de La Liga, … es respetuosa: ofrece el partido en un canal con su señal no alterada, con las gradas vacías y el sonido original del campo, pero también una alternativa: un segundo canal en el que, con la misma realización y los mismos comentaristas, rellena las gradas con una textura que hace que ‘parezcan llenas’.” Yo respeto su opinión pero no valoro el hecho de la misma manera. Para muchos espectadores de a pie, el engaño del público digital falso ‘copiado y pegado’ en la emisión de TV seguro que habrá surtido efecto y en la mayoría de hogares, pubs y bares muchos aficionados habrán contemplado el partido como si miles de espectadores que no fueron al estadio, hubieran llenando realmente las gradas del estadio Sánchez Pizjuán en Sevilla. Pero la verdad de la buena es que no estaban allí. Las gradas físicas que rodeaban a los jugadores durante el partido estaban vacías. Y esto se puede convertir en una poderosa inercia: hacer pasar por llenos lugares físicamente vacíos, igual que los gritos de entusiasmo por los goles eran de gente que no estaba allí. Tecnológicamente también puede hacer lo mismo con manifestaciones en protesta, o a favor de algo, filmadas para los telediarios para cuyas imágenes se podría fabricar ‘público digital’ a espuertas para incrementar su importancia. La tecnología existe. Ya no se ‘hincharían’ las cifras de una manifestación, sino que se multiplicaría el número de manifestantes digitalizados audiovisualmente en las imágenes de TV que las justificarian, aunque no fuesen las reales ¿lo imaginan?

Era tan cutre la factura técnica de esas gradas llenas de público planchado que se veía en TV que pregunté al gran experto en estas tecnologías Ricardo Montesa, el CEO de Brainstorm y lo que me mostró aún me impresionó más. Resulta que con la tecnología Infinity Set de su empresa, la misma que usaron combinada con Uneral Engine para mostrar en directo cuatro clones digitales de Madonna en los últimos Premios Billboard Music Awards en Las Vegas, han realizado con la empresa madrileña MRFactory unas pruebas para el programa de TV ‘La Voz’ de una tecnología para crear ‘público a demanda’ (‘personas’ o mejor ‘tecnopersonas’ digitales tridimensionales) para los concursos y los reality show. Un ‘público’ que se pueden crear en la cantidad que se desee para llenar las gradas de los platós de concursos o late show de TV incluso en directo. Un ‘público digital’ entusiasta, entregado, incansable, visualmente perfecto e indistinguible en pantalla del público real en sus ademanes, expresión corporal y aplausos. Solo que fabricado digitalmente en serie y ‘falso’, es decir que no está en el lugar cuando los presentadores graban el programa. Pero, desde casa, ese ‘público digital’ resulta tan verosímil como la realidad filmada.

Y le pregunté a Ricardo que, si ya existía esta tecnología de su empresa que presenta ese público digital con una factura visual y de movimientos tan perfecta, ¿por qué el ‘publico falso’ del partido Sevilla–Betis se veía tan burdo y cutre? Y me contestó con su invencible lógica de empresario: “Nosotros podríamos haber llenado ese estadio con ‘personas digitales diferenciadas’ mucho más ‘perfectas’, pero hubiera dado mucho más trabajo ya que se trata de crear decenas de miles de figuras humanas tridimensionales en movimiento. Hubiera costado mucho más. Pero tenemos la tecnología con la que podemos hacerlo. Eso ya puede hacerse.”

Imagen del vídeo promocional del programa de TV ‘La Voz’ con público ‘digital’ en las gradas realizado con la tecnología de Brainstorm

Es decir, la tecnología para llenar un estadio de público individualizado perfecto, e indistinguible del público real para mostrarlo en la TV en directo ya existe pero su producción aún sale muy costosa para los medios de la Liga de fútbol. O sea que la falsedad televisiva perfecta ya existe pero aún sale un poco cara. ¿Qué pasará cuando el precio de las ‘tecnopersonas’ falsas esté al alcance de las cifras de producción de los noticiarios en TV? ¿Nos dará igual que todas las ‘personas’ que salen en los telediarios sean tecnopersonas ‘digitalmente falsas’? Porque en los noticiarios reales de las desescaladas del Covid-19 ya se han colado fragmentos de partidos de fútbol como el aludido con público ‘falso’ llenando las gradas de Sevilla. Así que no estamos tan lejos. No hay más que ver el nuevo ‘tecnopolicía’ que ya están probando en EE.UU., un artefacto híbrido que combina, metal, pantallas y software como extensión de un policía de carne y hueso que ‘habita’ en él:

Volviendo a los noticiarios y al periodismo… ¿Nos adaptaremos a informarnos sobre la realidad de lo que pasa en el mundo físico con noticiarios de TV en directo, producidos, emitidos y presentados por personajes digitales como si fueran un ciberjuego en streaming? No lo sé, pero es una buena pregunta. Pero me invade la sensación de que esa irrealidad ya se acerca.

_______________________________________________________

28/06/2020, escrito por Adolfo Plasencia

La confusión entre lo Real (Sancho) y lo Irreal (Quijote) en la segunda digitalización.

II CONGRESO INTERNACIONAL SISTÉMICO SOBRE LOS VALORES DEL QUIJOTE

………………………….

Título y abstract y de la Ponencia de Adolfo Plasencia: 

La confusión entre lo Real (Sancho) y lo Irreal (Quijote) en la segunda digitalización.

Abstract

Vivimos en un mundo en el que lo real y lo irreal, la mentira y la verdad, empiezan a ser indistinguibles en las pantallas de la segunda digitalización. Lo que no imaginábamos es que las magistrales ficciones y metáforas, inventadas por Cervantes, repletas de confusiones entre molinos y gigantes; ventas y castillos; entre la vacía y el yelmo de Mambrino, y otras muchas; en suma, entre lo real y lo irreal, son un tipo de confusión de alguna manera equivalentes a las que engañan y atrapan a los que se sumergen en el mundo virtual sin una alfabetización adecuada. Un mundo virtual global que podría calificarse, -usando la terminología cervantina-, como la mayor ‘ínsula barataria’, no ya gobernada por caballeros, sino dominada por gigantes de internet, por encima de los gobernadores del mundo físico que intentan también disputarse su gobernanza. Que las ansias y contiendas por el poder y gobierno del mundo inmaterial del ciberespacio, construido por lo digital, sean mayores aún que las porfías de los humanos por las ínsulas del mundo físico es como una meta-ficción, y una nueva metáfora creada por la realidad, casi a la altura de las que inventó Cervantes.

……………

TEXTO COMPLETO PONENCIA ADOLFO PLASENCIA:

Fue Gottfried Wilhelm Leibniz, tras haberlo descrito en 1703, en su Explication de l’Arithmétique Binaire quien diseñó y ordenó fundir en 1705, un medallón , para hacer más comprensible la noticia de que había inventado el lenguaje binario. En el diseño circular de ese medallón aparecen por primera vez en la historia, las cuatro operaciones aritméticas básicas y los quince números enteros, expresados en sistema binario (solo con ceros y unos). Está coronado por la leyenda: “Nil Praeter Vnum In Omnibvs”, “Nada hay fuera del uno en todas las cosas”, que expresa, como consecuencia, con el ‘Uno’ y ‘su ausencia’ se puede expresar todo.

Medallón diseñado por Leibniz en 1705 en el que aparecen por primera vez en la historia las cuatro operaciones aritméticas básicas y los quince números enteros expresados en sistema binario

La esencia de la actual creciente “digitalización del mundo” no se puede comprender sin saber que es el citado sistema numérico binario el que usan internamente los actuales ordenadores y todas las máquinas digitales, debido a que estas trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario. Cualquier sistema, artefacto o máquina digital que es una combinación de dispositivos diseñados para manipular ingentes cantidades físicas o de información que estén representadas en forma digital, es decir, “en binario”. En las entrañas de dichos sistemas, todas las operaciones de cómputo que se realizan, funcionan usando dos únicos números dígitos, el uno y el cero, o en términos de Leibniz, “el uno, y su ausencia”. Así que el sistema binario que él inventó, ¡hace tres siglos!, está en las claves del funcionamiento de todos los ordenadores y máquinas digitales actuales. Es una demostración palmaria de que el gran Leibniz tenía razón en el lema de su medallón de 1705. De esa idea tan sencilla hemos llegado a los complejos sistemas informáticos extendidos por el todo el planeta usando siempre ese principio. Parece casi increíble que el genio de Leibniz, hace tres siglos, lo anticipara con esa clarividente frase, que seguramente no entendería casi ninguno de sus contemporáneos: “Todo se puede expresar con el uno y su ausencia (el cero).” El inmenso mundo digital de actual demuestra que ocurre, tal como él dijo.

Aún hay una cierta confusión en los términos y significados relacionados con lo digital y conviene explicarlos. La diferencia entre los términos ‘digitización’ (del ingl. digitization) y ‘digitalización’ (del ingl. digitalization), está en que, el primero (la conversión de información analógica a forma digital), se usa para describir los procedimientos para codificar cualquier información inteligible en forma de números y operaciones binarias, (muy fáciles de manejar y ejecutar por cualquier máquina digital, como lo son los ordenadores), cuyos resultados se presentan después en formas inteligibles para las personas. Digitalización, en cambio, describe el proceso global de las transformaciones que nos han llevado a la esta nueva Era digital. En síntesis, la digitalización es un subproceso de un progreso tecnológico mucho más amplio. El esquema completo sería: primero la digitización (la conversión de lo analógico a código binario), después la digitalización (el proceso en su diversidad y a gran escala) y, tras ellos, la transformación digital (el efecto y consecuencia) y el conjunto de sucesos que construyen, en el plano colectivo, la compleja y acelerada secuencia de las transformaciones globales tecnológicas, económicas y sociales, que diremos que son ‘horizontales’ porque afectan a prácticamente todos los ámbitos de la actividad humana.

Primera digitalización. En el mundo virtual: CERCA = LEJOS • DENTRO = FUERA

Para intentar comprender como hemos llegado hasta aquí, y cuáles con las enormes capacidades transformadoras de la digitalización, enumeraré ahora, de forma muy sintetizada, los efectos tiene el citado proceso de transformación digital. Los cambios esenciales que induce la primera digitalización se podrían resumir así:

  • Transforma nuestra percepción intelectual y , por tanto, nuestra comprensión del mundo.
  • Cambia nuestra relación con el espacio físico y la geografía, y también con el tiempo relativo.
  • Modifica las formas y el ritmo del aprendizaje y por tanto, -de abajo a arriba-, empuja a la Educación.
  • Altera las formas y prácticas de vida social y nuestros modos cotidianos de relación humana.
  • Recombina nuestra cultura local con la global. Nuestro imaginario cultural tradicional resulta afectado y transformado por nuestra adopción de una ‘capa cultural global’ que se superpone a ella, desde el mundo virtual, en el que ‘entramos’ a través de las pantallas y la conexión a Internet.

Los antecedentes de esta transformación, la más rápida a escala planetaria de forma pacífica de la historia de la Humanidad hasta ahora, está explicada por Alvin Toffler con sus tres ‘Olas’. La primera y más larga fue la Agrícola, que surgió con la implantación y desarrollo de Agricultura (desde el año 8000 a.c. hasta el siglo XVII); la segunda ‘Ola’ o Era industrial, (desde el siglo XVII hasta la actualidad, ya que se ha superpuesto a las siguientes), que ha incrementando drásticamente el nivel de complejidad e incertidumbre a que nos enfrentamos, en nuestra experiencia sobre el funcionamiento mundo. Y la tercera, que tiene que ver esencialmente con la información, y que llamamos genéricamente, según la terminología de Manuel Castells, la Era de la Información .

Pero dejemos ahora a un lado, la miríada de términos técnicos y tecnológicos complejos y propios del Clavileño tecnológico, y echemos pie a tierra, desde donde lo ve todo el humano de a pie. Y desde ahí, intentemos buscar palabras sencillas para entender, incluso más allá de las propiedades de su naturaleza (o Characteristica Digitalis (Echeverría), encarnada, al tiempo, en lo material, -comúnmente denominado en inglés como ‘hardware‘-; y en lo inmaterial, -denominado ‘software’-. Este último resulta ser una suerte de ‘alma inmaterial’ de ceros y unos, que hace funcionar su lado físico. Atendamos sobre todo a sus efectos, y así podremos ver qué caracteriza a la Primera Digitalización, (genéricamente centrada en lo alfanumérico), y veamos qué sucede con ella desde el punto de vista humano.

En la práctica de la vida cotidiana, individualmente, si ‘estás conectado’, lo que caracteriza para la mente y el espíritu la primera digitalización, dicho en términos sencillos:

  •   El ‘CERCA’ y el ‘LEJOS’ resultan lo mismo.
  •   Ha hecho que el ‘DENTRO’ y el ‘FUERA’, pierdan su diferencia desde el punto de la actividad intelectual. Es decir, que cuando nos conectamos al ‘universo’ virtual de Internet, estamos cambiado nuestra relación con el espacio y, por extensión, debido a ello, nuestra percepción y experiencia sobre el tiempo.  

Toda la digitalización, emerge suavemente. Parecería que silenciosamente, en forma o en apariencia de pequeños cambios sucesivos, pero que poseen una enorme potencia transformadora y tienen grandes consecuencias, al modo del ‘Efecto mariposa‘ que formuló Edward Lorenz, para intentar explicar, de forma sencilla, el complejo comportamiento del sistema atmosférico del planeta. Al igual que ocurre en el comportamiento climático global, estos aparentes pequeños cambios en lugares concretos de la primera transformación digital han generado grandísimos efectos en todo tipo de personas y lugares cercanos o lejanos, y en casi todas las formas de relación o comunicación humana biunívoca. Afectan a la educación, formas de aprender, economía, política, medios de comunicación, y a la evolución e interacción cultural individual y colectiva. También, a todo tipo de formas de trabajo y sus profesiones. -haciendo desaparecer algunas, automatizando otras con máquinas o, y creando otras nuevas, según la ‘destrucción creativa‘ de Schumpeter, aunque esta vez con balance aún incierto-; y, a lo que es más importante, a las relaciones humanas, tanto en los tiempos de vida personal particular como profesional; tanto en el nivel privado, como a la vida pública, y por supuesto, a la condición social de las personas.

Virtudes / peligros de Internet y lo digital

Dado que lo digital está basado en una dualidad, -el uno- y su ausencia, mediante la que se puede expresar todo, la tecnología digital y la de Internet, como toda tecnología, ni es buena, ni mala, ni neutra. Son los usos de la tecnología, y los propósitos e intenciones humanas los que hacen mejores o peores las consecuencias de su uso, y según para quién. La primera fase de la Web, por ejemplo, a partir de su invento en el CERN por Tim Berners-Lee, con las tecnología de estándares abiertos y neutralidad en la Red del W3C (Wold Wide Web Consortium), las que abrieron una ventana de bondad y acceso a la información por igual para todos son excepciones. El blog de una niña era, y aún lo es, servido en pantalla, con la misma calidad y velocidad que la web de una gran empresa o corporación. Eso es debido a los estándares abiertos de la Neutralidad en la Red , según la cual “todos los bits fueron creados iguales“. La Web originaria hizo realidad el sueño libertario de un acceso a la información igualitario y abierto para todos, sin restricciones ni discriminaciones de ningún tipo, algo inusual en el mundo a esa escala, hasta entonces.

Por ahí nos llegó el maravilloso acceso a Wikipedia, una gran obra colectiva en multitud de idiomas, desde cualquier lugar del mundo que disponga de conexión. Cientos de millones de personas la consultan cada día, yo entre ellas. Diderot, d’Alambert, Rousseau, Montesquieu o Voltaire, y también Cervantes, estoy seguro, estarían orgullosos de esta conquista humana. Una enciclopedia universal, abierta al alcance de cualquiera, -y sin publicidad, ni pago alguno-. Y también, el aprendizaje a distancia; la telemedicina y, entre otras muchas cosas, el reservar una entrada de teatro o un asiento en un tren, o un avión, sin movernos de casa. Y luego, con los teléfonos móviles conectados desde cualquier lugar, y en tiempo real, la conversación virtual de todos con todos se fue haciendo universal. Y con las increíbles tecnologías de búsqueda y la cartografía de cada ciudad del mundo, simplemente, si sabes cómo se llama algo, entras en Internet en el buscador Google, y lo encuentras inmediatamente, en milésimas de segundo.

Las cifras de Internet son sobrehumanas. Ahora mismo los internautas hacen 5.700 millones de búsquedas en Internet en Google cada día; hay ahora más de 4.200 millones de personas en total conectadas a Internet, que envían más de 230.000 millones de correos electrónico; verán hoy más de 6.100 millones de vídeos en You Tube, y publicarán más de 660 millones de tuits en twitter; subirán en el día de hoy, más de 71,8 millones de fotos a Instagram; y estas cifras con de un solo día. (Los usuarios de Instagram han publicado en esta red social, en estos seis meses del 2019 más de 12.200 millones). Hay publicadas en Internet, hasta ahora, 1.690 millones de sitios Web. Y en su tráfico se mueven diariamente casi 5.800 millones de Gigabits de datos. Pero también, cada día, el funcionamiento de Internet consume 3,5 millones de Megavatios/hora de electricidad, y por su funcionamiento está empezando a ser una preocupación medioambiental, ya que su actividad emite a la atmósfera más de 2,9 millones de toneladas de CO2 por día. Todas estas magnitudes son casi increíbles.

Pero en el lado humano es una revolución. Para madres, padres o abuelas/os, escuchar su voz y ver la cara en movimiento con sus hijos o nietos “como si estuvieran aquí”, por ‘vídeo-llamada’ digital, desde cualquier lugar de España como Villanueva de los Infantes, sin importar el lugar del mundo donde se encuentren, y con un coste casi simbólico, ha sido una de las materializaciones más evidentes y universales de la bondad de lo digital, de nuestro siglo.

Pero tras los cambios impulsados por lo digital hay intenciones humanas y usos mejores y peores de la tecnología. Por eso, afecta de forma desigual a distintas personas, por sus grandes diferencias y la diversidad del mundo. Como siempre ocurre con los cambios, en ellos hay perdedores y ganadores, igual que hay comunidades humanas que salen bien paradas con la digitalización, a otras, les sucede casi lo contrario. Parafraseando a William Gibson; el cambio digital que era algo del futuro, “que ya está aquí, pero ha llegado muy mal repartido.” Pero pasemos al siguiente estadio de lo digital.

En las pantallas de la Segunda Digitalización, REAL = IRREAL y MENTIRA = VERDAD

La Segunda Digitalización, como yo la llamo, se superpone y solapa a la primera, -en el sentido de Gibson-, tras la primera etapa, a partir de los tiempos de la explosiva adopción, por gentes de todo el mundo, de la conexión a Internet. Cronológicamente, primero a partir de 2004, año en que Tim O’Reilly formuló la “Web 2.0” dando noticia anticipada del advenimiento del Internet Social. Y en una segunda fase, con la disrupción tecnológica global que supuso el lanzamiento mundial del iPhone 1 (o, iPhone 2G), en 2007, sin teclado físico y con pantalla e interfaz táctil ‘capacitiva’, altavoz, auricular, micrófono, cámara de 2 Megapíxeles, auriculares, conectividad inalámbrica EDGE y también Wi-Fi. Este decisivo suceso, provocó un enormes cambios en toda la telefonía móvil mundial, fusionando con su radical facilidad, la experiencia humana de la telefonía móvil con Internet, gracias a la tecnología del Internet móvil con su conexión ubicua (desde cualquier lugar y en cualquier momento). Según el informe anual Mobile Economy de la GSMA, organizadores del Mobile World Congress de Barcelona, a finales de 2017, el número de líneas de telefonía móvil (tarjetas SIM) de usuarios humanos, (excluyendo las que usan máquinas entre sí), alcanzó los 7.800 millones , cantidad equivalente al 103% de los habitantes del planeta, superó por primera vez a la población mundial (7.600 millones de personas).

La popularización masiva del Internet móvil ha hecho adulta a la Segunda Digitalización. Veamos qué ocurre en ella, ahora, con el factor humano individual y social. La curva de aprendizaje de las Apps (aplicaciones informáticas ‘ligeras’ para el Internet móvil) tiende a cero. En realidad, las Apps son como aplicaciones informáticas ‘low cost’, por usar el símil de la aviación, es decir son más simples y baratas, pero mucho menos seguras y además instrumento de recolección masiva de datos a espaldas del usuario y un auténtico río de dinero para Apple y Google. En 2017, las ‘descargas’ globales de Apps, sobre todo centradas de las tiendas iOS App Store y Google Play, superaron los 175.000 millones de descargas, que significaron para estas empresas unos ingresos de mas 86.000 millones de dólares. Eso mismo ha hecho que se multipliquen casi infinitamente. En cuanto a su uso, las magnitudes son escalofriantes, desde el punto de vista humano. El usuario medio de teléfonos inteligentes lleva más de 80 Apps distintas en su teléfono, y utiliza cerca de 40 de ellas al mes, y tiene su intención en ellas, casi 3 horas por día, de media. Esto no es inocente porque son tecnologías creadas para generar adicción. Las redes sociales globales y sus Apps han hecho universal el Internet social.

La explosión de la Inteligencia artificial (IA) en la segunda digitalización.

Pero faltaba algo para que podamos hablar con propiedad del inicio de la madurez de la ‘Segunda Digitalización, o ‘Digitalización al Cuadrado’. Ese algo ha abierto una tercera etapa, a todo lo anterior. Se trata del complejo universo digital guiado por algoritmos de la frontera actual de la inteligencia artificial (IA), que ha añadido al complejo plasma de la segunda digitalización nuevos componentes que interactúan con todos los demás, incluido el humano. Fundamentalmente, su mejor ejemplo son las entidades autónomas de software creadas con un propósito concreto, para el que, en algunos casos, son entrenadas. Su denominación general es ‘Agentes de Inteligencia Artificial’ (AI Agents), y actúan como robots de software, -igual que los bots en Internet-, en entornos de sistemas complejos de robótica, o multitudes de robots (swarm robotics) en donde la interacción entre la máquinas no necesita de intervención humana. En los complejos sistemas de las multitudes de emergen fenómenos nuevos como el de los ‘robots bizantinos’, que son capaces de mentir.

Son puro código guiado por algoritmos de Aprendizaje automático, o Aprendizaje de máquinas (Machine Learning), -focalizado más en lo alfanumérico-; de Aprendizaje por refuerzo, supervisado, o no; y de Aprendizaje profundo (Deep Learning), -más enfocado a imágenes, lo visual y lo sonoro (incluidas la voz y el lenguaje natural)-. Con este componente añadido, la Segunda Digitalización ha cambiado de dimensión y recombinado con un internet de las ‘cosas’ (Internet of things, IoT) conectadas. Esas ‘cosas conectadas’ ya ha conseguido que más la mitad del tráfico de datos mundial de Internet, ya no sea humano. Su compleja cibernética (Wiener) se mezcla y combina con el Internet de los humanos conectados. Recombinación que produce, entre otras muchas cosas, que haya millones de personas conectadas (internautas), que se están tratando, e interactuando, con entidades artificiales no humanas (bots de internet), sin distinguirlas de las otras persona conectadas, y sin  saberlo.

Hay una cosa muy positiva que nos ha traído la segunda digitalización y su revolución de la inteligencia artificial. Son tantos los nuevos dilemas éticos a que nos enfrenta su tecnología algorítmica, que la investigación tecnológica de la IA, ha tenido que sumar a los humanistas, y a las humanidades, empezando por la ética como lo más imprescindible. Esta integración en la vanguardia tecnológica actual de los humanistas y filósofos, como gente esencial, es de tal dimensión y tan necesaria para avanzar, que las cuatro primeras universidades del mundo, están reestructurándose alrededor de un nuevo Qvadrivum en el que se reconectan de nuevo la ciencia, la tecnologías y las humanidades. Tres de los nuevos centros que se han puesto en marcha en esas instituciones para investigar la nueva frontera de la Inteligencia artificial (IA), tiene al frente a filósofos. Necesitan avanzar en la comprensión de la inteligencia humana, y en los dilemas del futuro de la humanidad, en relación al impacto de la IA. Esta vuelta de las humanidades al centro del escenario de la vanguardia, es una gran noticia.

También hay cosas negativas, desde el punto de vista económico y social. Al proceso de Segunda Digitalización de le han sumado los efectos de la deslocalización, con lo cual, y acelerado los factores de la digitalización, con su segunda etapa, cuyas curvas de crecimiento son asintóticas y de crecimiento exponencial (frente al crecimiento lineal típico de la era industrial). De la diferencia de pendiente entre estas curvas de crecimiento, se puede intuir en parte, porqué parte de la clase media en los países del primer mundo, ha caído a la pobreza. Sabemos que la digitalización ‘polariza’ y ‘exponencializa’ los procesos económicos o sea, aumenta o exagera las desigualdades. Así que, aunque no son los únicos factores, el aumento de las desigualdades en la sociedad ha impactado en personas que fueron parte de la clase media, (el tradicional estabilizador social en los países industrializados), cuya economía cayó en pobreza y ya no parece remontar. Los efectos de la deslocalización combinada con la crisis, y la segunda digitalización, está creando grandes descontentos y severas. Los fenómeno del Brexit, los resultados de las elecciones a la presidencia de EE.UU., o los chalecos amarillo, etc., están, de maneras complejas vinculados a evolución de la digitalización.

Gobernanza global, injustica algorítmica y resignación digital

Los nuevos términos, propios de la Segunda Digitalización, se están nombrando inicialmente, en inglés. Frecuentemente se ‘viralizan‘ y convierten en términos de uso global mucho más relacionados con ‘nuevas amenazas’ que con las virtudes que también trae esta digitalización. Cada día nacen nuevos sustantivos. Citaré solo algunos, ya convertidos en términos muy conocidos y de connotaciones preocupantes, como, por ejemplo, Fake News (noticias falsas); Procrastinar, Doppelgängers ; Bots (aféresis de ‘robot’), gobernanza, justicia e injustica algorítmica; o “Sourveillance” fenómeno relacionado con el crucial tema de la privacidad que, en español se suele traducir como ‘vigilancia’, aunque su verdadero significado debería ligado al ‘tracking‘ o sea, al registro, almacenamiento de datos y metadatos, -seguro que con usos espurios-, sobre la actividad, presencia, ubicación (en el mundo virtual y el físico, al tiempo) del internauta, que es ‘rastreado’ sin saberlo, aunque ha otorgado su permiso legal por que le han hecho el truco del ‘consentimiento informado’.

Interfaz del software de ‘Sourveillance’ con IA de la empresa china SenseTime, que reconoce las caras, graba los patrones movimientos de las personas, en una tienda de Pekín, y los procesa estadísticamente para vigilar y predecir sus movimientos futuros. Ningún visitante de la tienda, lo puede evitar.

Otros términos de moda son ‘reconocimiento facial’, o seguimiento o rastreo continuado de las personas (tracking) combinado con la tecnología reconocimiento de rostros humanos para adjudicar identidad a ese registro, -esto no está tan lejos. Si su viaje pasa por el aeropuerto de Menorca puede que su cara pase a formar parte del archivo digital de los ensayos de esta tecnología que está probando allí Aena a quien probablemente, en algún burocrático, Vd. habrá dado su ‘consentimiento informado’ inadvertidamente, así que es legal-; o adicciones digitales (sin sustancia), que es otro término que merecería un largo comentario, para el que no hay aquí espacio.

No hay que olvidar que toda esa información ‘inteligible’ tras ser procesada con máquinas (software de la IA), se le proporciona en nuestra la Segunda Digitalización de forma ubicua (en cualquier momento y lugar). Es tal su dimensión que la inmensa mayoría de las personas conectadas no muestran, en lo personal, alarma alguna. Parece que han llegado a la conclusión de que es inevitable, y por ello, que no les importe. Es decir, han sucumbido a la resignación digital’.

A la izquierda, el Clavileño del Quijote, y a la derecha, un ‘Clavileño Cibernético’, de Google, uno de los gigantes de Internet. Un data center de los que atesoran nuestros datos, metadatos y conductas registradas, día y noche.

Tras esta reflexión con numerosos ejemplos, hay que volver a los términos llanos, bajando esta vez de un Clavileño cibernético mucho más gigantesco, y en gran parte inmaterial e irreal, en que se han convertido los instrumentos de la Segunda Digitalización, muchos de cuyos movimientos y complejidad, ya no son controlados por una clavija en la cabeza de Clavileño, como la que manejaban los duques en el Quijote, sino por la inmensa cibernética crecientemente automatizada y, cada vez más autosuficiente, de los algoritmos de inteligencia artificial que mueven los gigantes del Internet social y del Surveillance Capitalism, el capitalismo de ‘rastreado’ y registro. Una “mutación obscena del capitalismo”, según la profesora de Harvard, Shoshana Zuboff, y cuyas ‘clavijas’ (génesis, proceso, ubicación y control de todos nuestros pasos ‘online’) y sus propósitos, están más allá del alcance de nuestros gobernantes y legisladores democráticos (no sabemos por cuanto tiempo), y del nuestro. Y sobre todo, en la mayor parte del funcionamiento que nos atañe, fuera incluso de nuestro conocimiento y comprensión.

Los gigantes del Internet de la segunda digitalización actúan como poderes fácticos y monopolistas, pero parece que la ética es para ellos es un reto demasiado grande.

SIREN, la mujer irreal (The Unreal Engine), una mujer que no existe, pero se mueve y habla persuasivamente en la pantalla, donde es indistinguible de una mujer real. Esta criatura digital sido creada en el proyecto ‘SIREN’, por un grupo empresas de la vanguardia tecnológica. Aún no sabemos con qué intenciones la han creado y la van a usar.

De forma equivalente, en palabras llanas como dije, a lo que ocurre en la Segunda Digitalización, le caracteriza el que:

‘REAL’ O ‘IRREAL’, Y ‘VERDAD’ O ‘MENTIRA’, SON INDISTINGIBLES; Y LA INTERACCIÓN ES UBICUA Y BIUNÍVOCA.

Es decir, que:

  • Lo ‘REAL’ y lo ‘IRREAL’ son indistinguibles en las sus pantallas digitales, y eso, incluye las Deep Fakes (Falsedades digitales profundas y audiovisuales), que no distinguimos en la pantalla de algo que veríamos en la realidad por nosotros mismos
  • La diferencia entre las ‘VERDADES’ y ‘MENTIRAS’ que nos ’emiten’ digitalmente, empieza a ser indescifrable para nosotros.
  • Y nuestra relación con el espacio y el tiempo, ya alterada por la primera digitalización, se ha modificado más profundamente aún, convirtiéndose en un ‘LARGO AHORA’ (Long Now) ubicuo [1], es decir, en un del presente duradero digital, en el que el tiempo puede desplegarse, y el sentido del tiempo puede perderse, ya que lo digital carece de longevidad
[1] The Long Now (El Largo Ahora), es el lugar del presente duradero. Un espacio en el que el tiempo puede desplegarse y el sentido del tiempo puede perderse.

Todo ello, entre otras más cosas que ya están aquí, aunque llegan, cito de nuevo a Gibson, ‘muy mal repartidas’. En más de una ocasión, analizando lo que caracteriza a esta Segunda Digitalización, he pensado en la célebre escena del “Los molinos de viento” del capítulo VII, de la primera parte del Quijote, en la que a través de los dos personajes, de forma magistral, se muestra el enfrentamiento Realidad versus Irrealidad. Don Quijote está seducido por lo ‘Irreal’, lo imaginario, consecuencia,            -se dice, del exceso lector de libros de caballería-, quizá combinado con lo que hoy llamamos ‘obsesiones de teorías de la conspiración’, quién sabe; y Sancho, en cambio, es firme defensor de enfrentarse a lo ‘Real’ tal como lo percibe a simple vista, y no cómo alguien lo podría imaginar. La relación entre ficción y realidad es uno de los temas básicos en el Quijote. Dice Mercedes Juliá que los encuentros entre Don Quijote y otras personas pueden concebirse principalmente como enfrentamientos entre ficción y realidad. Un enfrentamiento parecido al que se da en la dicotomía actual de las personas que ‘viven’, al tiempo, su vida virtual digital y, en otro plano, su realidad en el mundo físico. Deambulan en una especie de realidad física, ‘aumentada’ con la ‘realidad virtual’ . La mente ha de saltar, cuando andamos por la calle o conduciendo conectados, del plano físico al virtual, algo que ya está causando algunas tragedias. Nos ocurre andando, o en la carretera, porque la conexión nos asalta allá donde estemos, en cualquier momento y lugar, ya que estamos siempre conectados, dado que es una tecnología, que nos han fabricado, y vendido, adictiva.

¿Cómo ejercer nuestro libre albedrío entre dos opciones o alternativas ofrecidas en las pantallas que miramos casi 100 veces al día empiece a no ser distinguible realidad e irrealidad, y verdad o mentira? Es cada vez más complicado. Esa sociedad conectada ya no se limita a lo individual, sino que sus irreales y mentirosas fake news (bulos digitales) son un fenómeno que la mayoría contribuye, -voluntariamente o no-, a extender, a hacer social, poniendo en riesgo, incluso, como ha ocurrido hasta deformar masivamente la ‘verdad’ auténtica en nuestras democracias. Cibernéticas de gran complejidad lo induce alguien, cuyos propósitos, ubicación y procedencia nos resultan, asimismo, indescifrables.

Volviendo al Quijote en relación a nuestras preocupaciones actuales, si yo pudiera llegar hasta Miguel de Cervantes le pediría una leve cambio de algunas frases de la famosa escena de don Quijote y Sancho ambientada en al escena de los molinos que nos puede servir para, quizá explicar los de la más preocupantes aspectos Segunda Digitalización en la que ya estamos ahora. Y le solicitaría una vez explicada nuestra circunstancia actual, una extrapolación de sus frases del capítulo VIII del Quijote. Usando sus propias palabras, con un pequeño cambio pueden servirnos para contar lo que pasa hoy:

……

—¿Qué gigantes? —dijo Sancho Panza.

—Aquellos que allí ves —respondió su amo—, de los brazos largos, que los suelen tener algunos de casi dos leguas. —Bien parece —respondió don Quijote— que no estás cursado en esto de las aventuras: ellos son gigantes; [ sí, los Gigantes globales de Internet, ] —Así es la verdad —añadió don Quijote—

…y si tienes miedo quítate de ahí, y ponte en oración en el espacio que yo voy a entrar con ellos en fiera y desigual batalla.

……

Finalmente diré que nunca, como ahora, hemos necesitado tanto a Don Quijote, también a Sancho, y a alguien como Cervantes, en un mundo como el nuestro.

Un mundo en cuyas pantallas digitales la verdad y la mentira; o la realidad e irrealidad, que tan mezcladas están, empiezan a sernos peligrosamente indistinguibles a casi todos, en nuestra Ínsula Barataria global, cuya gobernanza no sabemos en qué manos está realmente, ni hasta cuando.

Forse altro canterà con miglior plectro.

___________________________________________________________

03/06/2019, escrito por Adolfo Plasencia

Un Diálogo sobre Diálogos: Adolfo Plasencia conversa con científicos (y humanistas) / Dialogue about Dialogues: Adolfo Plasencia on Speaking with Scientists

English version published by MIT Press :

Dialogue about Dialogues: Adolfo Plasencia on Speaking with Scientists


Una conversación de David Weininger con Adolfo Plasencia (versión en español de la publicada por MIT Press):

Para su libro Is the Universe a Hologram? Scientists Answer the Most Provocative Questions, el escritor de ciencia Adolfo Plasencia habló con más de treinta científicos, tecnólogos, pensadores y artistas sobre cómo se desarrollan en su trabajo, y hacia dónde se dirigían en sus diversas disciplinas. La amplitud de su proyecto, a su vez, nos hizo pensar en los desafíos y emociones de hablar con tantas grandes mentes. Plasencia se tomó amablemente el tiempo para responder a algunas de nuestras preguntas sobre lo que era ver en la esencia, y el futuro, de la ciencia.  

• Llamas a este volumen un libro de diálogos en lugar de un libro de entrevistas. ¿Por qué?

R. Le llamo así, porque realmente es un libro de diálogos y no de entrevistas. Diálogos y entrevistas son conceptualmente algo distinto, y sus propósitos son también distintos.

Desde los Diálogos de Platón sabemos que uno de los mejores caminos para la búsqueda conjunta de ‘la verdad’, o del conocimiento, -como diríamos hoy en día-, es hacerla ‘dialógicamente’, es decir, mediante un diálogo en el que nadie que tiene una tesis o hipótesis previas sobre lo que se va a discutir. Se trata de una ‘investigación’ conjunta a base de preguntas en la que llega un momento en que e través de la conversación, uno se da cuenta de que el conocimiento que tenía sobre algo concreto es dudoso o cuestionable. El método de estos diálogos en este libro es muy del estilo del de la Synusia que está definida por la Academia de Platón en su séptima Carta, y que, en resumen, es como “un intercambio libre de conocimiento”, un método que es también considerado como una pre-forma de la actual ética hacker. El del diálogo es un método conceptualmente diferente al de una entrevista o encuesta que es, en general, más apropiado para tratar temas dentro de áreas especializadas.

Elegí para el libro este método del diálogo y el conectar su diversidad, para una exploración que pretendía llevar a cabo sobre los lugares actuales del descubrimiento de nuevas ideas, que en su inmensa mayoría hoy son espacios híbridos dentro de las intersecciones o solapamientos entre disciplinas. Una exploración que pienso debe estar enmarcada dentro de una visión heurística y transdisciplinar, ya que uno de las cosas básicas de mi propósito en este libro era interconectar los diferentes modos de ver de distintas disciplinas cuya ‘cooperación’ hoy es imprescindible para avanzar. Esa interconexión es una de las mejores maneras para abordar la mayoría de las cuestiones de mayor complejidad que caracterizan hoy en día a los temas aún por resolver. Como Ricardo Baeza-Yates nos recuerda en el libro la complejidad viene de la diversidad, y para descifrar esa complejidad, necesitamos tanto las búsquedas propias de la ciencia, -básica y aplicada-, como de las humanidades o el arte, que tiene su propio camino al descubrimiento. Para que esa citada interconexión sea efectiva, he entrelazado en el libro partes de algunas respuestas de diálogos con numerosas preguntas de otros, sabiendo que esta interconexión, a su vez, generará nuevas preguntas que probablemente no emergerían en un contexto de ‘cultivo intelectual monodisciplinar’.

De esa forma el lector se va encontrando con la misma cuestión, pero vista desde diferente ángulos, lo cual le ofrece un panorama mucho más holístico sobre ese concepto. Un ejemplo son las reflexiones en el libro sobre “qué es la inteligencia”, un concepto que está abordado desde la neurociencia o neurofisiología, y también desde ciencias de la computación, inteligencia artificial, filosofía, o incluso desde la mecánica cuántica. La citada ‘exploración’ comienza en el volumen con la lista de preguntas sobre cuestiones clave, que precede a los diálogos del libro y deja claro que este es un libro mucho más de preguntas que de respuestas.

• A través de estos diálogos, tu libro aborda “las preguntas más provocativas.” ¿Sabías que quería explorar esas preguntas específicas, o surgieron en el transcurso de sus conversaciones con los científicos?

R. Desde el principio yo quería conseguir un conjunto interconectado, equilibrado y coherente, tanto en relación a los temas como en relación a las personas participantes. La lista que precede a los diálogos estaba hecha previamente a reunir las conversaciones, -aunque la dinámica de algunos diálogos causaron su ampliación-.

Dado que los diálogos debían realizarse en persona: tuve que ir a lugares donde físicamente pudiera reunirme con los participantes que tenía previstos. Entonces tuve que conseguir obtener su atención y ganarme la confianza, en muy pocos minutos, para que los participantes aceptaran realizar una conversación conmigo para participar en un proyecto a priori bastante inusual en los tiempos de hiper-especialización en que vivimos, sobre todo en ciencia y tecnología. Así que las primeras preguntas eran cruciales para involucrarlos.

Hay que tener en cuenta que, en ese momento yo no podía prometer a ninguna de estas personas que sus palabras acabarían impresas en una edición de MIT Press como así ha sido. Debía obtener su interés con mi persuasión inicial en defensa de mi ‘extraña’ propuesta. Y milagrosamente, la mayoría de las personas con quienes lo intenté fueron sumando su participación, en ventanas de su tiempo arrancadas literalmente de sus enormemente llenas agendas. La dinámica de la conversación una vez iniciada, frecuentemente conseguía ensanchar el tiempo disponible; lo que, a su vez, engendraba que se plantearan nuevas cuestiones fascinantes en el transcurso del diálogo.

Que yo recuerde, los participantes nunca se negaron a abordar ninguna de las preguntas, sin importar que les sacase de su ‘espacio de confort intelectual’, al igual que en las nuevas preguntas engendradas a partir de sus respuestas. El que la duración de los diálogos se alargase más de lo previsto, es algo que agradezco inmensamente aunque luego finalmente fue muy duro decidir el sintetizarlos radicalmente, -y dejar fuera palabras e ideas de respuestas también fantásticas-, por necesidades editoriales. Es casi imposible reducir un diálogo coherentemente argumentado a un número fijo de palabras para encajarlas en las páginas de un libro.

• Los científicos tienen la fama, -quizá inmerecida-, de centrarse demasiado en el núcleo estrecho de sus áreas de investigación. Sin embargo, en este libro han sido capaces de desarrollar sus pensamientos de forma más expansiva y saltando a través de las disciplinas. ¿Cómo fue lo de hablar con ellos?

R. Los científicos y creadores que al final están en el libro tienen una merecida reputación por ser sabios en sus disciplinas. Sin su combinación de sabiduría y humildad, no hubiera conseguido tener esas conversaciones con ellos. Hoy es un hecho que la mayoría, sino todas, de las disciplinas de vanguardia donde surgen las nuevas ideas, se encuentran en áreas híbridas y borrosas (fuzzy). El libro es una exploración de esos espacios, y las personas elegidas para estos diálogos están involucrados en ellos.

Pondré algún ejemplo. Uno de los participantes es José M. Carmena, que se ha formado previamente en ingeniería electrónica, robótica, inteligencia artificial y finalmente neurociencia, ahora lidera su propio laboratorio: el Brain-Machine Interface Systems Laboratory en la UC Berkeley. El trabajo en este laboratorio implica una combinación de neurociencias y diversas ingenierías y tecnologías. Su grupo de investigación, -tal como explica en su diálogo del libro-, recibe a jóvenes investigadores procedentes, al tiempo, de áreas como neurociencia, Ingeniería electrónica, informática, telecomunicaciones, bioingeniería, etc.; Allí el trabajo es completamente multidisciplinar e híbrido, como lo son las tecnologías que produce. Hace muy poco han lanzado, con otros colegas, el prototipo de una tecnología llamada ‘Neural Dust‘, -Carmena la explica en el libro-, que combina diversas microtecnologías electrónicas, emisiones ultrasónicas y es capaz de enviar señales en tiempo real de la actividad neural en el cerebro a través del cráneo, o del sistema nervioso, en modo wireless. La tecnología acaba de recibir el Premio McKnight 2017 en innovaciones tecnológicas en neurociencia.

Otro caso destacado es el de Pablo Jarillo-Herrero trabaja en nanofísica, transporte cuántico electrónico y optoelectrónica en nuevos materiales bi-dimensionales como el grafeno, en el MIT. Su investigación, -como explica Pablo en su diálogo-, combina la mecánica cuántica con la teoría de la relatividad especial, con el fin de ‘montar’ una teoría de la ‘mecánica cuántica relativista’ con la que intentar comprender dicho comportamiento, poder aplicarlo en el mundo real y llegar a nuevas aplicaciones nunca vistas antes. Otro ejemplo es el del diálogo con el físico cuántico Ignacio Cirac, director de la división teórica del Instituto Max Planck de Óptica Cuántica, titulado: “La física cuántica tiene en cuenta el libre albedrío”. El último término de este título siempre había sido un concepto de humanidades pero aquí está explicado en relación a la ciencia de la física cuántica. Y, un ejemplo más: Ricardo Baeza-Yates, que es un científico de la computación y que investiga ahora en big data y machine learning aplicado a internet, se refiere en su diálogo precisamente a lo que preguntas, ya que sus investigaciones informáticas están focalizadas en predecir el comportamiento humano a gran escala, o a escala social, cuando el ‘comportamiento humano’ había sido siempre un tema propio de humanidades o ciencias de la salud. Ricardo me dice en su diálogo que yo intento sacarle del espacio teórico de la computación que es su disciplina natural de investigación, pero que a él le gusta, ya que su trabajo científico funciona en una vanguardia en la que la propia realidad también le obliga a hacer lo mismo.

Solo he dado algunos ejemplos ilustrativos, pero termino de contestarte diciendo que conversar con personas como estas que poseen un enorme bagaje de conocimientos y sabiduría, cuando saltan las divisiones entre disciplinas y ‘piensan fuera de la caja’ (think out of the box) dicen cosas absolutamente fascinantes. En las conversaciones del libro de puede comprobar.

¿Hay un diálogo en el libro que destaque por ser particularmente memorable?

R. Para mí, todos los diálogos han sido memorables, -y no es una frase hecha-, porque todos han sido completamente distintos. Fue particularmente memorable el de la astrofísica de exoplanetas Sara Seager, y también lo fue el del gran Hal Abelson de MIT CSAIL , y el de Henry Jenkins  co-fundador en el MIT del Comparative Media Studies . Aparte de su sabiduría, el contacto humano con personas como estas, es siempre emocionante. Podría citar otros participantes que, a su inmenso saber, suman una increíble empatía, humildad y capacidad para expresar de modo sencillo las cosas más complejas, como es el caso del Nobel Mario J. Molina ; o el del profesor de Harvard Álvaro Pascual-Leone ; o como la científica Rosalind Picard de MIT MediaLab, cuando habla de comunicación emocional o computación afectiva / affective computing. Otros me han gustado mucho por los imprevistos giros en sus respuestas; tecnólogos como Michail Bletsas, Hiroshi Ishii, o el científico de la inteligencia artificial (AI), José Hernández-Orallo, con el que incluso pude conversar sobre la fórmula de la felicidad, la relación entre inteligencia y humor; o sobre si la AI podría convertirse, o no, en una amenaza.

Y algunos casos, que a priori parecían ser más fríos o distantes por sus disciplinas, circunstancias o personalidad, ha sido la dinámica del propio diálogo la que hizo que los propios interlocutores se abrieran a contestar nuevas e inesperadas preguntas y a hacerlo más allá de su citada ‘zona de confort intelectual’. Como ocurrió con el científico de la computación Ricardo Baeza, cuando explicó que en algunos proyectos ha estado manejando los registros de comportamientos de 700 millones de personas, cada una de los cuales tiene una ‘long tail’ (larga cola). Y lo mismo con Javier Benedicto, hablando sobre cómo se planifica lo imposible en el espacio con el Programa Galileo. Hay también en el libro creadores en ingeniería y arquitectura como John Ochsendorf y Yung Ho Chang , ambos del MIT, que profundizan en sus conversaciones sobre la idea aparentemente contradictoria de que, a la vanguardia de la arquitectura también pueden se puede llegar basándose en la sabiduría olvidada de la tradición.

Mención especial merecen los filósofos y creadores participantes que lanzan valientes argumentos hacia el territorio natural de los científicos y tecnólogos, Javier Echeverria, a quien le encaja bien la teoría de que el universo que contemplamos pudiera ser una representación o gigantesco holograma, o Cueva de Platón multidimensional. O el caso de David Casacuberta que afirma sin ambages que “Encriptar es un derecho humano”. Desde el punto de vista personal también ha sido muy emocionante dialogar con John Perry Barlow, Richard Stallman y Tim O’Reilly, poeta, hacker y humanista, respectivamente, tres de mis héroes de la cultura digital.

Y emocionante también fue vivir el diálogo-epílogo que cierra el libro, con el artista José María Yturralde, alguien muy especial que añade una visión crítica a la ciencia general desde el arte, aparte de que argumenta sobre si es posible refutar al gran poeta John Keats y es cierta la ecuación belleza desigual a verdad ( Belleza ? verdad ) que le contradice, y si en el arte, se puede ir al pasado y cambiarlo, entre otras muchas reflexiones.

Cualquier conversación con la mayoría de estos 33 participantes, -no hay espacio aquí para citarlos a todos-, es memorable para mi por diversas razones, bien por la cantidad de sabiduría que acumulan cualquiera ellos y ellas, bien por el asombro que produce lo que están investigando; o por lo que piensan expresado en su diálogo y también, he de confesarlo, por el entusiasmo con que han accedido a participar en un proyecto y un libro tan heterodoxo como este.

Después de haber reunido estos diálogos en el libro, ¿cuál es tu opinión sobre el futuro de la ciencia? ¿Nos dirigimos hacia una mayor certeza en relación a esas cuestiones fundamentales, o las respuestas parecen estar aún bastante lejos?

R. Yo no soy científico y eso me da una cierta libertad para expresar mi opinión sin que otros colegas me afeen la conducta, aunque a seguro que alguien lo hará por mi, quizá, algo insolente atrevimiento y heterodoxia con este libro.

Yo haría una fusión de tus dos preguntas. Por una parte creo que la guía verdadera y más decisiva en nuestro camino al futuro es la ciencia, como se puede comprobar en el libro, pero siempre debemos tener en cuenta que la ciencia actual, es una ciencia interconectada o fertilizada por las humanidades y los efectos de la digitalización. Este camino no es ni será fácil porque, a pesar de la cantidad gigantesca de datos y evidencias que apoyan en sus diagnósticos a la verdadera ciencia, aún hay personas y entidades relevantes que son capaces de actuar negando grandes hechos científicos. También me resulta asombroso que en el actual sistema o universo de la comunicación de que dispone ahora la humanidad, y que nunca tuvo antes, prosperen crecientemente con tanta fortuna supersticiones, pseudociencias, esoterismos, o falsedades deliberadas a escala global.

El amor a la verdad, propio de la ciencia y las humanidades, es hoy más necesario que nunca, algo a cultivar en todos ámbitos de la educación. Entre las nuevas habilidades que tendremos que incentivar está la de educar para aprender a distinguir entre lo verdadero y lo falso en la ‘noosfera’ actual. Situándome en una posición como en la que adopta Henry Jenkins en el libro, -la de ‘utópico crítico’-, entiendo los medios de comunicación, (no de entretenimiento), como parte del sistema educativo de la sociedad y, creo, habría que aplicar en estos medios de comunicación esos mismos criterios éticos de amor a la verdad por encima de los criterios económicos habituales. A esto se le puede aplicar el perfectamente claro criterio que expresa en el libro Richard Stallman: Es absurdo preguntar si la ética es rentable o no, porque es una responsabilidad previa, una obligación hacia los demás… La elección de la ética como guía sólo cuando es rentable es realmente lo mismo que no tener ninguna ética”.

Los nuevos conocimientos sobre las certezas fundamentales ya no son propios de una disciplina concreta sino que es la combinatoria humanidades y método científico la que nos permite, como dice en el libro el físico del CERN José Bernabéu, ampliar las playas de nuestra pequeña isla de conocimientos y certezas, contra el enorme océano de nuestra ignorancia. Creo que cada certeza demostrada científicamente nos trae nuevas y apasionantes preguntas; así que para mí, las grandes respuestas se encuentran sobre un horizonte hacia el cual va nuestro camino y al que, como cualquier horizonte, nunca lograremos llegar. Parafraseando a Steve Jobs, diré que en ese mismo camino también está nuestra recompensa.

Finalmente quiero expresar que coincido con Tim O’Reilly en que algunas de la certezas que nos proporciona la ciencia aplicada, es decir la tecnología, debemos orientarla como dice Tim en el libro, a “hacer del mundo un lugar mejor” (aunque no siempre es así), y combinar eso con la máxima de Richard Stallman: “La tecnología sin la influencia de la ética es probable que haga daño.”. No hay certeza garantizada ante nosotros pero hemos de ser conscientes como dice el mismo O’Reilly en su foreword del libro que “El futuro no es algo que ‘sucede’; es algo que nosotros creamos”). Por tanto, que el futuro sea mejor en términos de cuestiones fundamentales depende solo de nosotros. Y esa sí es una buena certeza.

27/08/2017, escrito por Adolfo Plasencia

Conversing with Leading Thinkers

A surprising book for our times comes true

Adolfo Plasencia

Front and back cover of the book, published by MIT Press

Is the Universe a Hologram?

Scientists Answer the Most Provocative Questions

Foreword by Tim O’Reilly
Conversations with
Hal Abelson, Ricardo Baeza-Yates, John Perry Barlow, Javier Benedicto, José Bernabéu, Michail Bletsas, Jose M. Carmena, David Casacuberta, Yung Ho Chang, Ignacio Cirac, Gianluigi Colalucci, Avelino Corma, Bernardo Cuenca Grau, Javier Echeverria, José Hernández-Orallo, Hiroshi Ishii, Pablo Jarillo-Herrero, Henry Jenkins, Anne Margulies, Mario J. Molina, Tim O’Reilly, John Ochsendorf, Paul Osterman, Alvaro Pascual-Leone, Rosalind W. Picard, Howard Rheingold, Alejandro W. Rodriguez, Israel Ruiz, Sara Seager, Richard Stallman, Antonio Torralba, Bebo White, José María Yturralde

Overview

Science today is more a process of collaboration than moments of individual “eurekas.” This book recreates that kind of synergy by offering a series of interconnected dialogues with leading scientists who are asked to reflect on key questions and concepts about the physical world, technology, and the mind. These thinkers offer both specific observations and broader comments about the intellectual traditions that inform these questions; doing so, they reveal a rich seam of interacting ideas.
The persistent paradox of our era is that in a world of unprecedented access to information, many of the most important questions remain unsolved. These conversations (conducted by a science writer, Adolfo Plasencia) reflect this, with scientists addressing such issues as intelligence, consciousness, global warming, energy, technology, matter, the possibility of another earth, changing the past, and even the philosophical curveball, “is the universe a hologram?”
The dialogues discuss such fascinating aspects of the physical world as the function of the quantum bit, the primordial cosmology of the universe, and the wisdom of hewn stones. They offer optimistic but reasoned views of technology, considering convergence culture, algorithms, “Beauty ? Truth,” the hacker ethic, AI, and other topics. And they offer perspectives from a range of disciplines on intelligence, discussing subjects that include the neurophysiology of the brain, affective computing, collaborative innovation, and the wisdom of crowds.

Conversing with Leading Thinkers

A surprising book for our times comes true

by: Adolfo Plasencia

The long experience of putting together the contents of this book: “Is the Universe a Hologram? Scientists Answer the Most Provocative Questions”, just published by The MIT Press, has been for me something extraordinary and is perhaps unique in this world of hyperspecialization we now live in. The publishing house itself, conscious of the diversity of its contents, placed it for months high up on the Web list of its section ‘Science’, but also in that of ‘General Interest’. It’s true that it’s a difficult book to place within the conventional classification. And that will also hold true for the “specialist” sections of bookshops.

It’s a book of non-linear contents, something which today is at the very least surprising, but at the same time most welcome. Any observer with curiosity, and whose capacity for amazement is in a good state of health, knows that the development both of basic science and applied science, technological development and new discoveries are being taken over by hybrid disciplines. Exactly where discovery takes place today has become fuzzy. The points of intersection between equally fuzzy disciplines are where the new flashpoints heralding the future are located. These produce the sparks that are transforming both the horizons of thinking and creation, as well as education, which has ceased to be the guarantee of a professional life with a fixed vocation for the rest of one’s life. This book bears witness to that. Everything is shifting. One illustration of this, taken from the book, is that of José M. Carmena who is director of his own laboratory at UC Berkeley where he investigates Brain-Machine Interface Systems (BMI); neuroprosthesis, the ‘neural basis of sensorimotor learning and control’ and ‘neural ensemble computation’. Professor Carmena, before founding his own laboratory in Berkeley undertook Electronic Engineering studies in Spain, then Robotics and Artificial Intelligence in the United Kingdom and then Neuroscience in the United States. He now works in something even more surprising, also mentioned in the book, called “Neural Dust”. Carmena is carrying out research into the intersections between Neuroscience, A.I. and all types of engineering, electronics and nanotechnologies.

The book – preceded by a foreword written by the prestigious Tim O’Reilly, formulator of Web 2.0-, includes 33 conversations on different aspects of science, technologies, new fields of the humanities, the Internet, on the effects and ethical criteria concerning the use of technologies, all of which affect both individuals and society as a whole. It is a set of dialogues (not interviews), designed to be interrelated and undertaken using a special method of dialogue, partly based on what we find in the works of Plato, such as Phaedrus or Theaetetus. The book has an interconnected literary structure from which emerges questions and answers, sometimes long and thoughtful, and at other, sudden and unexpected. Questions interweave between the dialogues and their participants in such a way that they led the expert on the Internet, Ricardo Baeza-Yates, to tell me- “Not only do are you trying to find out about our searches and findings in the fields of knowledge and technology, but you are also cross-referencing us with the humanities so that we put ourselves at risk. What you like most is to take us out of our ‘intellectual comfort zone’. But that’s O.K with me, I like it”. Another example of someone who took risks in his conversation in the book is the young MIT physicist Pablo Jarillo-Herrero, pioneer of ‘two dimensional materials’. Pablo, a few months before undertaking the dialogue for the book received an award from President Barak Obama, the Presidential Early Career Awards for Scientists and Engineers, an awards that recognizes young scientists that take on the riskiest of research and confront the greatest challenges. The title of Pablo’s dialogue in the book uses his own words “Graphene is the finest material that has ever existed, exists and will exist”. Although there are many other worthy examples I could mention, space does not permit it here.

Questions are much more important than answers

To get an immediate idea of the diverse contents of this book, the best thing to do is to carefully read the list of questions that form the contents of the book: questions such as “What is intelligence, how does it work, where does it reside, and how is it measured?”; “What will intelligent machines be like? Will there be nonbiological intelligence (not based on Homo Sapiens)?”; “Where does consciousness reside and how does it emerge?”; “Is the universe a hologram?” (discussed by the philosopher Javier Echeverría); “How does the brain really work? Where is the “I”?; “Is it possible to govern uncertainty and live with its stochastic effects? Can we plan the impossible?”; “Are search technologies now allowing us to remember the future?”…. And there are also dialogue titles such as, for example “Quantum Physics Takes Free Will into Account”, a dialogue with Ignacio Cirac, director of the Theoretical Division of the Max-Planck institute for Quantum Optics, who describes the ‘little problem’ of quantum physics called the ‘problem of measurement’ that tries to discover why that discipline describes knowledge of ‘the others’, but is incapable of describing itself. There are other expressive titles such as: “The Emergence of a Nonbiological Intelligence”, with Michail Bletsas, director of computation at MIT Media Lab; or “Remembering Our Future: The Frontier of Search Technologies”, with the information technology scientist Ricardo Baeza-Yates.

In the book I have a dialogue with José Bernabéu about, among other things, whether, having found the Higgs Boson and other fundamental particles at CERN, he can enlighten us on one of the more categorical – in Berbabéu’s own words more mystical- questions of physics: “how mass arises from the properties of the vacuum state”… Or going beyond that question, as he explains, “That arrow of time does not eliminate the question of whether the dynamics of the fundamental laws for elementary particles, for those that we observe to have reversible processes in time, are able to describe both the direct process and the reverse process in time”, things that are not contradictory and something that the Harvard neurophysiologist, Alvaro Pascual-Leone affirms when he says that “causality ceases to exist”, a statement that the quantum physicist Ignacio Cirac is also party to. However what really interests Pascual-Leone is “the deep workings of the mind within the brain; and what is intelligence, that emerging property of the brain and to know where it resides and why some have more and others less”.

But the book’s not only about that. Other important questions are addressed too, for example, the relationship between ethics and the uses of technology. The great Richard Stallman reflects in the book on the ‘hacker ethics’ paradigm and explains the reason “It’s absurd to ask whether ethics is profitable or not; because it is a prior responsibility, an obligation towards others”. And why Choosing ethics as a guide only when it is profitable is really the same as not having any ethics.” David Casacuberta also gives us his strong and wide-ranging reasons on why “Encryption must be considered as a human right.”

 

 

 

 

 

 

 

03/06/2017, escrito por Adolfo Plasencia

La Inteligencia Artificial (AI) es una ciencia muy horizontal, como las matemáticas, y se inspira en la filosofía

Ramón López de Mantaras, director del IIIA.CSIC, impartiendo una conferencia. Foto. Adolfo Plasencia.

“No creo en la ‘exponencialidad’ del progreso de la técnica y la tecnología. Esto es falso. No progresan exponencialmente.”

UNA CONVERSACIÓN EN PROFUNDIDAD CON RAMÓN LÓPEZ DE MÁNTARAS, SOBRE LA INTELIGENCIA ARTIFICIAL.

Por: Adolfo Plasencia.

El actual momento de la Inteligencia Artificial.

Parte I. SOBRE LOS ‘PRINCIPIOS’ DE LA AI

Según en diccionario de la RAE, la expresión ‘inteligencia artificial’ es un término de Informática cuyo significado es: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. Según Wikipedia, La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma la inteligencia humana.

La actual explosión de aplicaciones prácticas para la Inteligencia artificial (AI) es la consecuencia, al menos de varios factores combinados tras un largo periodo en el que parecía que la disciplina había quedado como aletargada después de que el la época de los años 90 se vieron avances espectaculares. Las causas de esta explosión podrían estar en varios factores de cambio combinados a mi modesto entender. Por supuesto en primer lugar en el avance continuado de la Ley de Moore que ha seguido aumentando la capacidad de computación de todos los dispositivos digitales al tiempo que hacían la capacidad de cálculo mucho mas baratas, lo que ha dado lugar a que pequeños dispositivos sean capaces de procesar cantidades antes impensables. Por ejemplo los smarphones avanzados, mas potentes que la mayoría de los grandes ordenadores de sobremesa de la Era del PC. El segundo factor es el cambio de paradigma de la informática que parece haber dado la vuelta a una esquina para abrirse a la era post-PC como la definió Steve Jobs poco antes de dejarnos. En la Era Post-PC, gracias a los Data Centers y las ‘granjas de Servidores’ y, obviamente a Internet, disponemos de una inmensa capacidad de cómputo que podemos situar en forma ubicua (en cualquier momento y cualquier lugar) para propósitos concretos que serían irrealizables. Y el tercer factor y no menos importante es el trabajo incansable y callado de investigadores muy especiales que se han centrado durante muchos años en avanzar en aspectos decisivos de la Inteligencia Artificial que permitieran usar aspectos de esta disciplina en la práctica. Uno de ellos es Ramón López de Mántaras, que actualmente dirige el Instituto de Investigación en Inteligencia Artificial (IIIA), del CSIC, que ha realizado numerosos avances en la investigación de la creatividad computacional, entre otros, en campos como los de la música. He conversado con él para comentar ‘el estado del arte’ en esta fase de enrome expansión actual de la Inteligencia Artificial. Esta ha sido la conversación:

ADOLFO PLASENCIA: Ramón, para alguien como tú, que tienes formación en Ingeniería eléctrica, física, diriges el Instituto de Inteligencia Artificial del CSIC y eres Premio Nacional de Informática 2012, ¿La Inteligencia Artificial, es un tema de ciencias de la computación, o como dice Wikipedia, va mas allá y para ti llega hasta las humanidades?

RAMÓN LÓPEZ DE MÁNTARAS: Yo pienso que va mas allá de la informática, de la Computer Science para se llama en EE.UU., y efectivamente llega hasta las humanidades. No sólo a nivel de las aplicaciones. Obviamente existan ya aplicaciones para la simulación de grandes agentes y entes sociales, que tiene que ver con temas de sociología. Tiene que ver con la economía porque la Teoría de Juegos se utiliza mucho en Inteligencia Artificial (AI). Y para las aplicaciones en esta campo nos inspiramos en mucha otras ciencias. La Inteligencia Artificial, no es ahora una tecnología o una ciencia vertical, es muy ‘horizontal’, como las matemáticas por ejemplo. Sirve para modelar, modelizar muchas cosas.

A.P.: ¿Y se inspira de la filosofía, también, ¿no?

R.L.M.: También de la filosofía, claro. Hay muchos filósofos de la ciencia contribuyendo como Daniel Dennet o John Searle, por ejemplo, que son muy críticos con la AI, pero eso está bien porque así hay diálogo y discusión y, de ello salen nuevas ideas. Como te decía, la Inteligencia Artificial es una herramienta muy buena para modelizar computacionalmente fenómenos complejos y en particular la actividad cognitiva. La cognición, y la inteligencia es un fenómeno muy complejo, que nadie sabe muy bien aún qué es, pero que sabemos que está ahí, que emerge del cerebro y que permite tomar decisiones racionales, o no, y también emocionales. Ya sabemos por los trabajos de Antonio Damasio que es necesaria la capacidad emotiva para tomar decisiones. Si fueras cien por cien racional no llegarías nunca a tomar ninguna decisión. O sea que hay muchos ‘va y viene’ entre la AI y otras disciplinas. Actualmente es mucho mas que informática y, en mi opinión, la gente que se forma para AI no solo deben saber de programar y saber matemáticos sino muchas otras cosas una formación mas pluridisciplinar en los niveles avanzados. Deberían conocer cosas, por ejemplo, cosas sobre psicología cognitiva, lingüística, etc. Hay un término: ‘cognitive sciences’ que intenta englobar todas estas áreas que tienen en común el estudio del comportamiento inteligente y de la cognición desde distintos puntos de vista. Hay nuevas sinergias claras que nos permitirán avanzar en Inteligencia Artificial y en modelizar la cognición humana.

A.P.: ¿Ramón, Estás mas por el paradigma de la inteligencia artificial que parte del modelo de la imitación de la inteligencia humana o crees que no siempre es necesario partir de ese principio y se puede crear una inteligencia artificial partiendo de un paradigma distinto?

R.L.M.: Ya estamos haciendo inteligencia artificial que no tiene nada que ver con el emular o imitar a nivel detallado a la inteligencia humana. Hay las dos vías en la AI. Los aviones no vuelan batiendo las alas, porque no han imitado exactamente a la naturaleza, pero se han inspirado en ella. Una cosa es imitar y otra inspirarse. El referente es la inteligencia humana. Siempre. De eso no hay duda. Ahora, tú puedes llegar a soluciones distintas a las que ha llegado la naturaleza para resolver ciertos problemas. El problema de volar, de que un artefacto que pesa mas que el aire vuele, primero lo resolvimos con la propulsión de las hélices y luego mediante el motor a reacción a chorro. Pero el construir aviones con esos sistema contribuyó a que progresara la aerodinámica y con ello, después, pudimos explicar porqué los pájaros vuelan. De nuevo vemos un ‘va y viene’. Yo creo que en la inteligencia artificial puede pasar lo mismo. Hay modelos computacionales que se han desarrollado no necesariamente imitando a nivel de detalle las neuronas del cerebro, sino que se han hecho de forma distinta y después esto puede arrojar alguna luz sobre cómo pueden funcionar los proceso mentales en el cerebro, o viceversa. Cuando hacemos razonamiento basado en casos, que es un área de la AI muy interesante que trata de cosas como aprender o razonar por analogía, reconociendo similitudes entre situaciones, que es algo muy bien fundado y tiene muchas bases cognitivas, nos damos cuenta de que los humanos hacemos mucho esto. Tenemos un problema a resolver y vemos se parece a uno que ya hemos resuelto, y utilizamos las soluciones anteriores, adaptándolas, para resolver el nuevo problema. Casi es de sentido común que sea así. Se ha conseguido hacer con ordenadores, con máquinas que hacen razonamiento por analogía basado en casos y cuando lo hemos resuelto, esto a su vez, posteriormente, hemos comprobado que arroja luz sobre cómo lo hace el cerebro humano. El concepto de similitud y todos esto. Yo diría en resumen que la Inteligencia Artificial, más que imitar al detalle la inteligencia del cerebro, ‘se inspira’ en el funcionamiento del cerebro pero para hacerlo, quizás, de otra manera. Bueno, a excepción de algunos proyectos como, por ejemplo el Blue Brain y otros que van por el camino de intentar emula lo que se hace desde cada neurona, sobre lo que tengo una opinión muy critica al respecto.

A.P.: Marvin Minsky, afirmó que crear una inteligencia no es tan complicado: según la teoría de Marvin Minsky de que un principio de inteligencia puede construir comenzando por un conjunto bastante simple de primitivos y que al conectividad entre ellos es la que da como resultado la complejidad que surge y se deriva una conducta, y que tiene que ver con la toma de decisiones, de la que en caso extremos puede depender la supervivencia. Minsky piensa que a inteligencia no procede de un mecanismo único, sino que se genera por la interacción de muchos agentes distintos. Y en su libro ‘La máquina de las emociones’ atribuye ese origen múltiple también a las emociones, los sentimientos y el pensamiento consciente. ¿Que opinas de esta visión de Minsky?

R.L.M.: Yo estoy de acuerdo con él, en la parte esta de que la inteligencia no es el resultado de un mecanismo único y que se genera por interacción de muchos agentes distintos. Todo eso está basado en la teoría de su libro ‘The Society of Mind‘. En el fondo lo que está diciendo es que la inteligencia emerge de interacciones de agentes muy simples (él piensa que son ‘muy simples’), y al interaccionar entre ellos, la colectividad produce la inteligencia. Es como la idea de la inteligencia de las colonias de hormigas. Cada una de ellas no es inteligente pero la colonia globalmente hace cosas inteligentes. Pero Minsky va mas allá de esto. Habla de una arquitectura cognitiva basada en una Sociedad de la mente, una sociedad, -en sentido metafórico-, de ‘agentes’ de la mente en el cerebro y que de ahí emerge la inteligencia. Yo no veo ningún problema en esta afirmaciones de Minsky, pero lo que no me ha dicho ni él ni nadie, hasta ahora es cómo construimos esto, cómo lo reproducimos. En su libro, no nos dice cómo podemos implementar eso en una máquina. Se queda en un nivel filosófico, pero no llega al cómo hacerlo.

A. P.: Hablemos ahora, en relación a esa conexión masiva de la que hablaba Minsky, pero referida a la ‘maquinaria’ del cerebro que es de al que se supone que emerge al inteligencia humana. Kenneth D. Miller, profesor de neurociencia en Columbia y co-director del Centro para la Neurociencia Teórica, publicó no hace mucho en el New York Times un artículo titulado: “Will You Ever Be Able to Upload Your Brain?“. En él afirma muy critico sobre las pretensiones de algunos grandes proyectos actuales. En su articulo escribe: “Gran parte de la esperanza actual de la reconstrucción de un funcionamiento del cerebro descansa sobre conectómica: la ambición de construir un diagrama de ‘cableado completo’ [en el sentido de la metáfora informática ], o “conectoma,” de todas las conexiones sinápticas entre neuronas en el cerebro de los mamíferos. Desafortunadamente, la conectómica, mientras que una parte importante de la investigación básica. Yo creo que está muy lejos de la meta de la reconstrucción de una mente, en dos aspectos. En primer lugar, estamos muy lejos de construir un conectoma. El actual mejor logro fue determinante las conexiones en un pequeño trozo de tejido cerebral que contiene 1.700 sinapsis; el cerebro humano tiene más de cien mil millones de veces ese número de sinapsis. Si bien el progreso es rápido, nadie tiene ninguna estimación realista de cuánto tiempo se tardará en llegar a conectomas cerebro de tamaño”. Mi conjetura ‘salvaje’ -dice Miller-, es que replicar un conectoma como el del cerebro es algo que llevaría una escala de tiempo de siglos. Teniendo en cuenta que no eres neurofisiólogo, sino ingeniero y informático. ¿Crees que lo del ‘Uplooad’ de una inteligencia, que menciona se quedará Miller, seguirá siendo cosa de literatura, cine o ficción? ¿Crees que una inteligencia de la escala de la humana se podría reubicar, ‘subir’ o ‘descargar’, o eso no es posible ni siquiera en teoría?

R.L.M.: para mi lo del hacer un ‘Uplooad’ de una inteligencia, descargarla, llevarla a otro lugar, es una pura ciencia ficción. Y no solo para mí, sino para varios premios Nobel de Biología y Bio-medicina. Eso estar relacionado con lo de la Singularidad…

A.P. … de la que tanto ha escrito Ray Kurzweil, hoy director de Ingeniería de Google…

R.L.M.:… que hablan de que el ‘upload’ del cerebro en una máquina, y luego la sinergia entre este ‘upload’ y la propia inteligencia artificial de a máquina sería un conjunto que permitirá crear superinteligencias. El problema de mucha de esta gente es que subestiman la complejidad del cerebro. Del cerebro se sabe más que antes, pero aun sabemos muy poco. Todo esto parte conocer y modelizar la parte eléctrica de las neuronas. Las neuronas tienen un parte química, están, funcionan, sumergidas en una ‘sopa’ de química. Y todo esto, ningún modelo computacional de redes neuronales tiene en cuenta eso, ninguno. Además, hasta hace poco no se sabía que las células llamadas ‘gliales’ del cerebro son como un ‘metacontrol’, controlan lo que hacen las neuronas y son más numerosas en que las neuronas. Fíjate, hay mas células ‘gliales’ que neuronas en el cerebro. Y controlan las sinapsis, la conexiones entre neuronas. Ahora los biólogos creen que estas células tienen un papel importantísimo en el funcionamiento del cerebro. Y ningún modelo computacional de redes neurales tiene en cuenta esto ni lo modeliza. Y tampoco lo tienen en cuenta los modelos de mapas de conexiones de la conectómica. La parte química del cerebro no se ‘modeliza’. Por tanto, ¿qué significa hacer un ‘upload’ de un cerebro? ¿Qué van a ‘descargar? ¿El estado eléctrico de cada neurona? No son estados discretos (como en lo digital). Hay muchas cosas que son de procesamiento continuo, de nivel analógico, no tanto digital, en el cerebro. ¿Que significa hacer un upload? ¿hacer una ‘foto’ de un instante del cerebro y cargar eso?¿Y luego qué? ¿El siguiente instante qué; aquello de queda fijo? ¿Y las experiencias de toda tu vida? porque esas también están en algún lugar del cerebro, pero nos e sabe cómo están almacenadas ni nada. Para mí tiene muy poco sentido esto que dicen de hacer un ‘upload’ de un cerebro. Cualquier biólogo te dirá que esto no tiene sentido y que esa idea es pura ciencia-ficción. Nuestro cerebro es en cada instante distinto.

A.P.: Michail Bletsas me ha dicho que él esta seguro que a lo largo de este siglo surgirá una inteligencia no-biológica, o no basada en el homo-sapiens. La astrofísica Sara Seager, especialista en exoplanetas, a su vez me ha dicho que lo mas probable es que mas allá del sistema solar, es que la inteligencia actúe en formas ‘no-biológicas’”. Teniendo en cuenta la evolución actual de la tecnología, si te pido que intentes imaginar una inteligencia no-biológica, ¿cuál es lo primer camino que viene a tu imaginación? ¿Cómo imaginas que podría ser en el largo plazo, la AI?

R.L.M.: En la inteligencia artificial que tenemos hoy en día está la ‘AI débil’, de la que hablaba yo ayer, y también de la que habla Thomas G. Dietterich, que funciona cómo herramienta que nos ayuda a tomar decisiones, pero que no tiene porqué tener ‘estados mentales’ ni nada de eso sino que es una visión muy práctica de la AI es una inteligencia no-biológica. está basa en el silicio y los ordenadores no son biológicos actualmente ¿no? Ya sabemos hacer inteligencia no-biológica. Ahora, … elucubrar sobre cómo será en el futuro la AI no-biológica, si estará en algo distinto del silicio. Pues sí, muy probablemente. Los ordenadores basados en silicio va a ser reemplazados, porque sabemos que la Ley de More esta llegando a un límite, así que si se quiere seguir aumentando la capacidad de los ordenadores habrá que cambiar de tecnología. Habrá hardware distinto para hacer cálculos. Hay varias tecnologías posibles de las que se habla, basadas en memristores, o en el DNA computing, en computación cuántica, hay muchas propuesta ya por ahí. A largo plazo no tengo ni idea pero es muy probable que tanto la computación como la futura AI, deje de estar basada en el silicio.

Parte II. SOBRE LAS MÁQUINAS INTELIGENTES

A.P.: El de las ‘máquinas inteligentes’ es uno de los paradigmas mas atractivos de la tecnología y en los humanos asociamos inteligencia y mente con el cerebro. Bertrand Russel afirmó que la diferencia entre mente y cerebro no es una diferencia de cualidad sino de ‘disposición’. ¿Tu crees que la inteligencia en una máquina que lo sea, dependerá mas esencialmente de una masa crítica de capacidad de calculo (computación) o de la combinatoria y disposición o combinación de partes, recursos y mecanismos, a imitación, por ejemplo, de la disposición de un cerebro?.

R.L.M.: Creo que dependerá un poco de todo. Ahora mismo, el Machine Learning (el aprendizaje o razonamiento automático) está dando un buen paso adelante en cuanto a aplicaciones prácticas aunque en lo conceptual no hay nada nuevo. Lo que hay es que con la disponibilidad, al tiempo, computación de altas prestaciones en y del acceso a enormes cantidades de datos (Big Data), se pueden hacer cosas que hace veinte años no se podían hacer por no disponer de ello. pero los conceptos que hay detrás del Deep Learning (Aprendizaje profundo) ya existían hace veinte años lo que pasa es que ahora se pueden aplicar en la práctica. Así que lo que se pueda hacer con la futura AI, creo que dependerá a la vez de la capacidad de cálculo tanto como del software y de la combinación de los distintos componentes de la inteligencia, de su integración, de las arquitecturas cognitivas que integren razonamiento con aprendizaje y con planificación, etc. Aunque no sepamos aún qué es la inteligencia lo que si sabemos son cuáles son algunos de sus componentes: capacidad de percibir, de comunicar, de razonar, de planificar, de aprender… Los componentes de la inteligencia habrá que combinarlos de forma conveniente mediante una buena arquitectura. Necesitamos buenos arquitectos cognitivos que nos digan cómo conectar estos componentes de la inteligencia. La disposición de estos componentes es importante y la capacidad de cálculo también. Es la combinación de ambas cosas, creo yo.

Robots en el MIT Media Lab. Foto: Adolfo Plasencia

Parte III. AI Y ROBÓTICA

A.P.: Volvamos a lo de la disciplina de la AI. En tu conferencia has hablado sobre que, en la AI, tras una época de grandes expectativas, hubo un parón o un ‘invierno’ en la ciencia de la Inteligencia Artificial’. Rodney Brooks, que ha dirigió casi 18 años el “Computer Science and Artificial Intelligence Laboratory (CSAIL)”, del MIT me dijo que él prefería dejar las ‘grandes preguntas’ de la AI para la siguiente generación de científicos. Hoy, tras abandonar la investigación académica como centro de su actividad, lanzó con la empresa iRobot el exitoso robot de limpieza Roomba; ahora dirige su nueva empresas Rethink Robotics, especializada en ‘collaborative robotics’.

Tú también llevas muchos años en el campo de la AI. ¿A ti no te afectó ese ‘invierno’ de la AI.? ¿Ya ha cambiado de ‘estación’? ¿Hay ahora una nueva primavera en la AI?

Y también: ¿No has tenido tentaciones de irte al sector empresarial en donde aplicar lo adquirido e tu larga experiencia de investigador en AI?

R.L.M.: Sí, hay una nueva primavera, sin duda. Bueno, a ver. Yo empecé a trabajar en AI en el año 76. Y el ‘invierno de la AI’ llegó justo después, pero yo era entonces un joven estudiante. Luego estuve en Berkeley aprendiendo más sobre Inteligencia Artificial, después hice mi tesis en Francia. En aquél momento yo todavía no dirigía un equipo de investigación, no me tenía que preocupar por captar recursos para la investigación como sí tenían que hacerlo mis ‘seniors’, mis supervisores en EE.UU. que sí que recuerdo que tenían problemas a la hora de conseguirlos. A mí personalmente no me afectó. Ya en España no afectó porque el ‘invierno’ era aquí lo normal en la AI. Era un desierto. En los Congresos y reuniones internacionales recuerdo que si que había esa sensación con colegas. Lo que sí puedo decirte que sí ha cambiado la estación de la AI en el mundo: en EE.UU., Alemania, Inglaterra ha habido un resurgimiento importantísimo de la inteligencia artificial a partir de los ‘programas expertos’ y con ellos florece toda una industria, aparecen montones de empresas que fabrican hardware especializado para sistemas expertos como las ‘Lisp machines’. Por ejemplo los congresos de AI de Chicago en 1995 y en Los Ángeles 1987 hay como 6.000 participantes en cada uno. Así que, tras el invierno anterior llegó la nueva primavera de la inteligencia artificial. Luego se ha ido manteniendo bien a nivel de financiación. Pero últimamente lo nuestro, la AI vuelve a estar muy de moda. Llevamos uno o dos años que hay un ‘hype’ de la Inteligencia Artificial que entre cantidad de películas que están tratando el tema han surgido incluso multitud de debates. Hay ahora un resurgimiento de la AI.

Parte IV. SOBRE LA AI APLICADA:

A.P.: Hablemos ahora de la ‘AI’ aplicada. ¿Crees que ha cambiado el rumbo de la Ciencia de la Inteligencia Artificial el que haya ‘girado la esquina’ la industria informática, pasando a lo que Steve Jobs ya llamó ‘la Era PostPC’, a la era de los Data Center que contienen gigantescas granjas de servidores, capaces de poner a disposición de la gente aplicaciones que tienen detrás una enorme capacidad de computación que esta oculta tras ellas? ¿Esta emergiendo, en este cambio de paradigma de la informática, una AI distinta a la que habías imaginado hace una década cuando los científicos de la disciplina pensabais cómo seria el próximo futuro de esta ciencia?

R.L.M.: Sí, así es. Ha cambiado mucho. Nosotros pensábamos la década pasada que la Inteligencia Artificial seguiría el camino este de intentar hacer la AI con bases cognitivas o plausible cognitivamente. De nuevo, como en la pregunta anterior, pensábamos que avanzaríamos imitando al cerebro a nivel macroscópico, es decir había que avanzar inspirándose mucho en la inteligencia humana, a alto nivel cognitivo. Imitando la forma de razonar, aprender de humana a un nivel de sistema. Entonces, lo que ha sorprendido a mucha gente en estos últimos años se es lo que esta consiguiendo en ejemplos como Watson, lo del Google Traslator, lo de Siri de Apple, que se basan en técnicas, práctica y puramente estadísticas de análisis de gran cantidad de datos, de buscar relaciones y correlaciones entre datos que dan unos resultados prácticos muy buenos, muy interesantes, pero sin olvidarse completamente de lo que es la cognición humana. El superordenador Watson, (que ganó a dos humanos muy especializados en el concurso de televisión estadounidense Jeopardy! ), no entiende ni una sola palabra de las preguntas qué le hacen y, sin embargo, las responde correctamente. ¿cómo puedes responder a una pregunta de la que no entiendes nada semánticamente? Watson no entiende semánticamente nada del significado de las preguntas que le hacen. Hace ‘contaje’ de las frecuencias y proximidad con que aparecen esos términos en millones de documentos (a grandísima velocidad) y de ahí consigue dar respuestas que son correctas en la inmensa mayoría de los casos.

A.P.: O sea que responde correctamente sin entender nada, ni siquiera de sus respuestas ni tener conciencia de ello.

R.L.M.: No, no. Ni conciencia ni capacidad de comprender el lenguaje. Es un proceso de pregunta-respuesta, que funciona. Te voy a explicar un ejemplo para que se entienda bien. En el concurso Jeopardy! Contra dos seres humanos a los que venció, una pregunta que respondió Watson fue la siguiente: “El nombre de este sombrero es elemental, querido concursante”. Y Watson respondió de inmediato que era el sobrero de cazador. ¿porqué? Pues porque encontró que la frase “Elemental, querido…, aparecía en muchas novelas de Sherlock Holmes, y en miles y miles de documentos, no en las mismas páginas sino en muchas otras de los mismo documentos aparecía el nombre de un sombrero cuando se describía el aspecto de Sherlock Holmes que llevaba un sombrero de cazador. Al encontrar esta correlación tan alta entre la frase de elemental querido” con la descripción de una sombrero, el ordenador Watson está programado para encontrar estas concurrencias de términos, dio la respuesta, “sombrero de caza”, que es la respuesta correcta, pero que él no sabe lo que significa. Watson no sabe lo que es un sombrero, ni lo que es ‘elemental’. No sabe nada. No entiende la semántica del lenguaje. Esto es muy sorprendente y sorprendió a mucha gente el que Watson fuera tan bueno respondiendo preguntas, cuando todos en el mundo de la AI sabíamos o sabemos lo difícil que es para una máquina, para un ordenador, comprender el verdadero, significado profundo del lenguaje.

A.P.: Y sin embargo, para esto, funciona la fuerza bruta de computación.

R.L.M.: Sí, a nivel tan superficial sin conocer el lenguaje, funciona con fuerza bruta, con mucha mucha computación.

A.P.:   ¿Es la Inteligencia Artificial de la Era de Internet distinta a la de la época de los Robots ‘arácnidos’ del MIT CSAIL con inteligencia artificial por capas, como Hannibal o Attila que aprendían cada vez a andar desde cero; o como Herbert o Allen, el primer robo móvil, o como Cog o Kismet los robots con aspecto e inteligencia humanoide capaces de interactuar e imitar a los humanos?. ¿Que tienen en común y que diferencias hay entre la AI pre-Internet, y la actual de la época del Internet global?

R.L.M.: Sí, claro. Hay mucha diferencia. Internet es, en el fondo como una gran base de conocimientos y hay una nueva tendencia que se llama la ‘Cloud-robotics’ en donde cada robot aprende mucha mas rápidamente, porque no esta aislado sino que a través del ‘Cloud’ (La Nube) y de Internet puede tener acceso a información. Y lo que aprende un robot lo puede aprovechar otro robot que está relacionado con el primer robot a través del Cloud o a través de Internet. Hay una aplicación muy divertida en robótica que es un robot que mira un objeto: No lo puede reconocer, y  entonces saca una foto del objeto que está viendo, sube la foto a Internet y usando mecanismo como el del Mechancial Turk que usa también Amazon y es muy probable que de forma colaborativa alguien etiquete la imagen semánticamente y añada una etiqueta (un ‘tag’), por ejemplo: “florero”, no sé, “bicicleta”, lo que sea, ye entonces, el robot ya recibe este ‘tag’ y ha conseguido que le digan qué es aquello que esta mirando y que no sabe lo que es. Esto, en la era pre-Internet era imposible. Entonces, un robot era una cosa aislada completamente que, o tenía los recursos dentro de él, en su memoria, en su sistema, o no podía preguntar, Bueno podía hacerlo a su programador pero estaba aislado y no podía resolver por sí solo su pregunta como sí lo hacen ahora-. Ahora, estas cosas cambian completamente gracias a internet, o sea que la diferencia es enorme.

Parte V. SOBRE APLICACIONES PRÁCTICAS Y EMPRESARIALES DE LA AI. LOS AGENTES INTELIGENTES:

A.P.: Los Agentes de AI son una pieza fundamental de la gigantesca cibernética que circula y actúa en las redes y en Internet hoy en día: son capaces de realizar miles de ‘negociar’ transacciones por segundo en la Bolsa (es ocurre cada día en la High-Frequency Trading. HFT), cosa imposible para un humano; también son capaces de negociar entre muchas ofertas, comparando y eligiendo la mas rentable. Tengo varias preguntas, de nuevo: ¿Eso no esta muy cerca de lo que serían máquinas (de software) tomando decisiones autónomas? ¿Que diferencia hay entre la negociación entre humanos en comparación con la negociación entre AI Agents?

R.L.M.: Sí, los AI Agents, o ‘agentes inteligentes’ de software toman decisiones autónomas en la Bolsa. Y ha habido crahses de la bolsa cuyos culpables han sido estos agentes que toman decisiones y compren o venden acciones en milisegundos. A ver, no es que negocien nada. No hacen un diálogo con argumentos con nadie, estos ‘agentes-programas de software’. Toman decisiones así, ellos solitos sin negociar con nadie.

A.P.: Pero hacen operaciones de bolsa que duran nanosegundos, algo imposible para un humano.

R.L.M.: Ahí no hay negociación posible. El software compra y vende y punto. Y en base a su programación.

A.P.:¿Y eso es rentable?.

R.L.M.: Bueno, sí claro, pero también ha provocado problemas en la bolsa. Hubo un crash enorme en la bolsa por esta causa. Para mi esto es algo pernicioso. Debería estar prohibido completamente. Habría que quitar estos agentes autónomos de la bolsa y el mercado bursátil. ¿Porqué tenemos en Internet Captchas y todo eso en Internet? Pues para evitar que esto agentes automáticos hagan cosas que nos engañan. ¿Y porqué se permite que estos agentes compren y vendan acciones en el mercado electrónico de la bolsa? Pues no sé. Yo creo que es una burrada que actúen estos agentes autónomos, que son completamente autónomos y que, por tanto, que escapan a nuestro control. Yo creo que siempre debe haber un control. Siempre hemos de tener un control sobre las máquinas, sean físicas o de software. Yo, la autonomía plena, la prohibiría completamente, dentro de la inteligencia artificial.

Ramón López de Mántaras, director del IIIA-CSIC. Foto: Adolfo Plasencia

A.P.: ¿O sea, tú estas contra de que se use la inteligencia artificial para la High-Frequency Trading (HFT), o Negociación de Alta Frecuencia.

R.L.M.: Absolutamente. Habría que prohibir drásticamente que esto, (el HFT), funcione en las bolsas. Están causando muchos muchos perjuicios. Están proporcionando mucho dinero a unos cuantos, pero están perjudicando a la sociedad. A.P.: ¿Cómo se entiende la Innovación en tu disciplina? ¿Se entiende normalmente como algo incremental, o la verdadera innovación en AI emerge cuando hay un cambio disruptivo?

R.L.M.: En general, en ciencia no creo demasiado en la disrupción. La ciencia progresa incrementalmente y te vas apoyando incrementalmente en lo que otros han conseguido, haces mejoras en lo que otros han hecho y los otros, tus peers, tus iguales, mejoran lo tuyo. Es un progreso mas o menos lineal. No creo en la exponencialidad del progreso de la técnica y la tecnología. Esto es falso. No progresan exponencialmente.

A.P.: ¿Entonces no estarás de acuerdo con el argumento de la ‘Singularidad esta cerca’ de Kurzweil, verdad?

R.L.M.: Estoy en total desacuerdo con él. Entre los años 60 y los 80 hubo mas progresos en AI que entre los 80 y 2000. Se ha ido progresando pero linealmente, no exponencialmente. En inteligencia artificial, disruptivo no ha habido nada. Y dudo que algún día haya algo realmente disruptivo y en otras ciencias tampoco. También me puedo equivocar pero lo mas probablemente es que todo vaya cambiando incrementalmente. 

Parte VI. SOBRE APLICACIONES INTELIGENCIA ARTIFICIAL E INNOVACIÓN. MACHINE LEARNING Y DEEP LEARNING

A.P.: te he visto participar ya en dos Jornadas sobre Machine Learning. Sobre el Aprendizaje Automático y el Deep Learning basado en Inteligencia Artificial, se dice que se pueden aplicar, combinado con el Big Data a casi todos los sectores de negocio tanto para análisis y gestión de producción y mercados como para predecir el comportamiento o evolución futura, desde el comercio hasta las enfermedades. Estos términos están en todos los medios, en las noticias, por todos lados. ¿No hay una cierta ‘burbuja’ sobre las virtudes del Machine Learning y de sus aplicaciones?

R.L.M.: Yo creo que es cierto que el Machine Learning (Aprendizaje automático) y el Deep Learning (aprendizaje profundo) por la capacidad actual de procesar con gran rapidez cantidades masivas de datos ha permitido progresos importantes, siempre incrementales, sin ser disruptivos. En cuanto a la aplicaciones de la Inteligencia Artificial para tomar mejores decisiones en todos estos ámbitos empresariales que has mencionado y otros, yo pienso que eso es cierto. Bueno, es inevitable que venga acompañado de una cierta burbuja, de un cierto ‘hype’. Parece que ahora esta muy de moda el término. Da la impresión de que si estás trabajando en Machine Learning y no haces Deep Learning, no estás haciendo nada. Aun se pueden hacer aportaciones en ideas básicas en el primero sin entrar en el segundo. Todas las ideas que están aplicándose en el Deep Learning son de hace diez o quince años. No hay ahora conceptualmente nada nuevo en este campo ahora mismo.

A.P.: Pero es que lo que se está diciendo es que sirve para todo tipo de sectores y empresas.

R.L.M.: Yo creo que sirve para muchísimas cosas. Porque es muy común que en muchos sectores, -mientras haya grandes cantidades de datos que manejar, si no, no-, en donde puedes detectar patrones, tendencias, comportamientos, etc., desde cualquier sector económico hasta los de la salud, pasando por todo lo que te puedas imaginar. La verdad es que se ha abierto y hay un potencial de aplicación brutal.

A.P.: Cuando la gente usa Siri, el asistente personal que Apple ha puesto disponible (si tiene buen ancho de banda) en su iPhone, en su inmensa mayoría no sabe que al otro lado. Al otro de Siri, hay enormes granjas de servidores con una inmensa capacidad de computación e inteligencia artificial, que es lo que hacen que Siri le hable y contesta a sus preguntas de modo ubicuo, es decir en cualquier momento y lugar. La gente lo usa cómodamente en su vida cotidiana pero ni se imagina todo esto ¿No crees?

R.L.M.: es verdad que no lo sabe y no lo pensamos.

A.P.: Pero si ha AI ha llegado aparentemente tan fácilmente a nuestra vida cotidiana, el paso siguiente podría ser que la Inteligencia artificial que hasta ahora era algo propio de grandes corporaciones y empresa globales, también llegue pronto a las pequeñas y medianas empresa para que lo usen en sus negocios, ¿Ese seria el siguiente paso de la AI en las empresas? ¿El que una Pyme puede usar la inteligencia artificial en su actividad cotidiana?

R.L.M.: Sí, claro que es posible y puede ser. Eso esta cercano. Mira lo que hace la misma BigML que tiene su centro de desarrollo en Valencia, en España. Tú ya no tienes que tener los servidores y la gran capacidad de cálculo que hay detrás de la AI. Es el Sofware As A Service (Software como Servicio), el software en tanto que servicio. Por usar una comparación, es como al agua corriente. Abres el grifo y tú consume la cantidad de agua que necesitas hasta que cierras el grifo, igual que la cantidad de electricidad del contador de tu empresa. Ahí puede tener tus datos, mayor o menor en función de la actividad de la empresa; cargar estos datos en la plataforma de Big ML y sacar partido de toda esta tecnología basada en AI desde tu empresa y para tu empresa de una forma poco costosa.

A.P.: Un poco las pequeñas empresas como ‘usuarios casuales’ de la AI y sus aplicaciones para las empresas.

R.L.M.: Sí, claro es un uso muy transparente. El usuario, la empresa, no tiene porqué saber cómo funciona los algoritmos de aprendizaje profundo, ni nada. Una empresa puede ser, sí, usuario casual o permanente o usarlo en parte cada día, como quien abre el grifo cada día o como quien conecta la electricidad cada día como te he dicho. El SaaS es un concepto muy interesante.

Parte VII. LA POLEMICA DE LA ‘AMENAZA DE LA AI

A.P.: En relación a la AI, también hay quien vislumbra amenazas. A pesar de que Rodney Brooks publicó en noviembre pasado un artículo llamado “La inteligencia artificial es una herramienta, no una amenaza“, Stephen Hawking ha afirmado en la BBC que “El desarrollo completo de la inteligencia artificial podría significar el fin de la raza humana.” Imagino que sabrás sobre La polémica sobre la Ética de los Robots y la posible (probable para algunos) ‘amenaza’ de la AI encarnada sobre todo en forma de ‘Armas Letales Autónomas’. Dicho debate se ha multiplicado cuando nombres de mucha importancia de la tecnología como Elon Musk, CEO de Tesla, o Steven Wozniak co-fundador de Apple, junto a miles de investigadores de todo el mundo (entre ellos alguno de vuestro IIIA), han suscrito la ‘Carta Abierta del Instituto para el Futuro de la Vida’, titulada “Research Priorities for Robust and Beneficial Artificial Intelligence” en la que marcan ‘prioridades’ de investigación para la AI. ¿Crees que pueden, aplicaciones de la AI, como las armas letales autónomas’, convertirse en una Amenaza para la humanidad como aseguran algunas figuras relevantes del mundo tecnológico? ¿Crees que al investigación en AI debe ‘auto-inhibirse’ en relación a su futuro? ¿Cuál es tu posición al respecto como científico?

R.L.M.: Actualmente, la Inteligencia Artificial, mas que como amenaza ya hay que tener en cuenta que viene aplicándose con una serie de problemáticas y riesgos. Las armas autónomas son ya una amenaza muy real, desde luego que sí. Se está trabajando en ello, por ejemplo en EE.UU., construyendo robots-soldad, drones con capacidades autónomas para disparar o no, sin que un ser humano intervenga en esa decisión. Esta es una amenaza muy real. O la de la privacidad: la verdad es que la estas tecnologías han contribuido a que ya no tengamos vida privada, actualmente. Todo esto no es que sea una amenaza, es que ya está aquí. Yo pienso que sí, que hay que poner limitaciones. Algunos investigadores sí nos oponemos. En mi instituto nos negamos absolutamente a trabajar en prontos militares de robots soldados, etc. No vamos a hacer nada de todo eso. La comunidad es libre. Hay cantidad de mis colegas que están trabando en temas militares, sin ningún problema de conciencia. A mí me sabe mal pero no puedo hacer nada. Mi posición es clarísimamente en contra. Lo que estamos intentando algunos es que la ONU haga una resolución igual que hizo con las armas química y bacteriológicas. Ya hicieron una resolución en contra de las ‘Lethal autonomous weapon’ (Armas letales autónomas), pero siempre habrá mercados negros y gente que las fabrique. Hay muchos interese económicos y la industria del armamento es un lobby muy potente. Por mucho que algunos protestemos, inevitablemente y desgraciadamente, acabará habiendo armas autónomos. Estamos haciendo cosas… en la humanidad se están también haciendo cosas completamente locas, guiados por la única ambición y avaricia del dinero y esto pasa por encima de cualquier consideración ética. Pero bueno, tenemos derecho al pataleo, a llamar la atención a la opinión pública y a lo mejor sí, si una gran mayoría se pone en contra, igual podemos frenar algo esto. Pero en algún lugar acabarán apareciendo.

Parte VIII. SOBRE EL IIIA (Instituto de Inteligencia Artificial del CSIC).

En el IIIA (Instituto de Inteligencia Artificial del CSIC), que tú diriges, mantenéis tres líneas principales de investigación: la lógica, el razonamiento y la búsqueda; El razonamiento y el aprendizaje basado en casos; y los agentes y sistemas multi-agente inteligente. Estas líneas de investigación se aplican a muchos ámbitos comerciales y de negocios como los mercados electrónicos, las ‘tecnologías de acuerdo’, la medicina, la música, la información de privacidad / seguridad y robots autónomos. ¿Puedes describirnos vuestras actividades investigadoras? ¿Como es vuestra relación con el tejido empresarial, con que tipo de empresas colaboráis y cómo son los tipos de aplicación práctica ahora mismo en el mundo de la empresa?

R.L.M.: Estamos colaborando todo tipo de sectores, desde el sector salud hasta el de logística y transporte o turismo, en todos esos ámbitos que has mencionado. La inteligencia artificial es que es aplicable a todo. Es aplicable prácticamente al 100% de cosas. No hay nada en lo que la AI no pueda ser útil. Hemos trabajado en todos estos sectores que te he mencionado, hasta en entretenimiento o la TV, para resúmenes automáticos de partidos de fútbol, o en Fórmula 1, por ejemplo. Tenemos una unidad de transferencia de tecnología que coordina toda nuestra actividad con empresas y sectores.

A.P.: Entonces eres optimista.

R.L.M.: Soy optimista para esta Inteligencia Artificial que es útil, socialmente responsable, funciona muy bien y nos ha servido para hacer hasta cuatro empresas spin-off que han creado entre 100 y 150 puestos de trabajo de alta cualificación. Tenemos una muy buena experiencia de transferencia de tecnología en nuestra actividad compartida con empresas.

A.P.: Muchas gracias, Ramón.

R.L.M.: Gracias a ti.

……………..

Publiqué una síntesis de esta conversación con Ramón López de Mántaras en el Suplemento INNOVADORES de El Mundo, con el título: “Deben prohibir los robots con inteligencia artificial en Bolsa”

 

06/05/2017, escrito por Adolfo Plasencia

Apple, Google y el Reino de Tonga

Qué van a hacer los directivos de Google y Apple al Reino de Tonga

por, Adolfo Plasencia

Tonga 550px

Las islas Uoleva y Pangai, del  Reino de Tonga.

¿Que tiene que ver Apple, la empresa más valorada del mundo hoy, con Tonga?, -(oficialmente, el ‘Reino de Tonga’)-. Más de lo que parece. Y mucho más de lo que cualquiera podría imaginar hasta no hace mucho. A la mayoría Tonga le sonara a destino exótico de vacaciones. Y en cuanto busque Vd. en Google Maps, verá que es un conjunto de minúsculas Islas a medio camino entre Australia y la Polinesia francesa casi en el norte de Nueva Zelanda. ¿Es el destino de descanso remoto de Tim Cook y los ejecutivos de al empresa de la manzana?. Nada de eso. Es por algo mucho más interesante. El abogado Roberto Ledesma, miembro del Comité de la International Trademark Association (INTA) lo contaba hace ya tiempo en su página Web. Le puso sobre la pista ya hace bastante tiempo una noticia sobre las dificultades que tuvo, otro gigante de la tecnología, Google, para registrar la marca ‘Google Glass’. Al revisar la solicitud de la empresa vio asociada el nombre de Google y el esa lejana geografía: Tonga. El documento en que lo vio llevaba el membrete de la USPTO (United States Patent and Trademark Office), es decir, la Oficina estadounidense de Patentes y Marcas. ¡Vaya!

Resulta que el Reino de Tonga es un país y además un país signatario de acuerdos internacionales de marcas. Y como nos lleva esto a relacionarlo con Apple. Pues bien, veamos algunos detalles y ataremos cabos. En septiembre de 2014, en la presentación de los nuevos iPhone 6 y 6 Plus de Apple, fueron mencionados un millones de veces en twitter en su solo día. Y hay otro cosa interesante. En las búsquedas de Yahoo! la gente conectada hacia lo propio pero buscando, no el “Apple Watch’ que es la marca oficial sino que por centenares de miles buscaban “Apple iWatch”. Por otra parte, el ‘Evento’ de Apple en septiembre de 2015 fue mencionado solo en twitter 2,45 millones de veces. ¿Tiene que ver esto con las ventas? Por supuesto. ¿Tiene que ver con los dimensionamientos de las previsiones de producción a gran escala y su cadenas de suministro? También. El que esto es importante, lo demuestra que Apple compró una startup relacionada con el ‘Twitter Analitics’. La empresa de llamaba Topsy Labs, y pagó por ella más de 200 millones de dólares. Todo el mundo se hizo cábalas sobre esta adquisición entonces sobre los motivos. Muchos analistas especularon sobre factores tecnológicos y va a resultar que el verdadero motivo es lo que viaja por esas ‘menciones’ en Twitter y en las búsquedas: las marcas. Ahí es donde encajen Apple y Tonga. Una clave esta en el proceso de registro de marcas en EE.UU. y su proceso según las leyes federales. Si no te aceptan el registro de una marca en la oficina de marcas americana, USPTO, dicha marca no será viable. Así que hay que seguir un proceso de solicitud de registro de marca de cuatro pasos (o secciones) como relata en su explicación el abogado Ledesma: a) primero, sección 1, argumentar que se trata de una marca para comercial en EE.UU.; el segundo, (sección 1 también), el paso dos que hay buena fe en su uso; después, el paso tres; -y esto es lo bueno-, sección 44, (d): petición de prioridad de registro “basada en una solicitud extranjera presentada dentro de los 6 meses siguientes a la solicitud de EE.UU.”; el siguiente paso el registro extranjero, en el que se basa dicha solicitud y, por último el paso 5º que es el de la extensión del registro internacional a través de Protocolo de Madrid WIPO / [ http://1.usa.gov/1QsjBDG ]. ¿Interesante verdad?. Resulta que uno de los pasos que siguen todas esta marcas conocidas a nivel mundial es el ‘The Madrid sistema’ , oficialmente ‘The Madrid sistema for the international registration of marks‘, un protocolo que entró en vigor desde su firma en Madrid, el 1 de abril de 1996, pero que se administra Organización Mundial de la Propiedad Intelectual (OMPI), en Ginebra, Suiza. Este sistema permite Ya hay 90 países registrados en el ‘Sistema de Madrid’. El sistema de ‘Protocolo de Madrid’ ofrece un registro internacional de marcas por medio de una aplicación que puede cubrir más de un país. La oportunidad de tener un único registro para cubrir una amplia gama de países da ventajas, en comparación con una cartera de registros nacionales independientes. En Wikipedia haya una detallada página Web en inglés . La versión en español se llama el “Arreglo de Madrid“.

Pues bien, cuenta Ledesma que él ya ha comprobado varios casos en que Google y Apple han aprovechado este proceso ‘silencioso’ para conseguir beneficio de una fecha temprana antes de que haya una filtración sin tener que revelar sus planes de nuevas marcas. Se supone que los actos de registro de una patente y una marca son un acto público, pero hay tanto en juego que cuando va a registrar una marca, acuden a países inverosímiles, pero que han firmado el acuerdo de Madrid, como: ¡El Reino de Tonga! De ahí el título de ese articulo. Y, ¿por qué?, pues sobre todo por que muchos registros de esos países no están on-line: El de Tonga está en este link. No es fácil que se busque allí o en otros países signatarios como Trinidad and Tobago; Bután; Belice; Isla Mauricio; Barbados; Seychelles; Papúa Nueva Guinea; y muchos más. Todos sirven para pensar en registrar marcas con discreción casi absoluta. ¿Dónde se registraron algunas marcas muy famosas, en lugares muy exóticos, pasando a través del ‘Arreglo de Madrid’? Algunos ejemplos concretos en los que se ve la evolución: la marca “iPod”, fue registrada en Suiza por Apple en agosto de 20012; pero “Apple TV”, se registró el 13 de Noviembre de 2006 en Trinidad and Tobago; “iMessage” la registró Apple en Trinidad y Tobago, el 14 de marzo de 2011, fue dada por válida por la USPTO de EE.UU. 14 de septiembre de ese año y fue anunciada el 6 de junio de ese año; y “Apple Pay”, el 19 de junio de 2014 en Jamaica, se aceptó en diciembre en EE.UU., fue anunciada por la empresa de la manzana el 9 de septiembre de ese año. Pero a quién le ha gustado posteriormente Tonga es a Google, que registró la marca “Google Chromecast” el 5 de junio de 2013 en el Reino de Tonga. El caso de la marca “Android Pay” es muy expresivo: Google la registró en el Reino de Tonga el 23 de febrero de 2015 y el 21 de agosto de se mismo año fue aprobada donde EE.UU. “Android Pay” se anunció como servicio por Google el 28 de mayo de 2015. Esto es un ejemplo de caso de hacer cierto tiempo, pero me consta que este ‘juego de tronos’ con los nuevos nombre comerciales continua con los mismos métodos y no solo en Tonga sino en lugares aún más exóticos.

Así que si algún ejecutivo de estas empresas dice que se va de vacaciones alguna isla del Pacífico, del Índico o del Caribe, no le crean, se va a trabajar para su empresa, por cierto, casi en secreto.

21/03/2017, escrito por Adolfo Plasencia

Arduino: el triunfo del hardware libre.

David Cuartielles es un ingeniero electrónico, nacido de Zaragoza, docente en universidad pública de Malmö en Suecia, en donde también investiga en objetos conectados y herramientas educativas y único español de equipo de cofundadores de Arduino, una palabra de las mas pronunciadas en el mundo de la tecnología que da el nombre también a una startup convertida ya una micro-multinacional debido al éxito de mundial de su placa electrónica con microcontrolador, por Adolfo Plasencia. 

Arduino es, al tiempo, una plataforma de creación de prototipos electrónicos de código abierto basado en flexibilidad, hardware libre, bajo coste y software fácil de usar pensado para compartir. Está dirigido a artistas, diseñadores, aficionados y cualquier persona interesada en la creación de objetos o entornos interactivos. El microcontrolador de la placa se programa mediante el lenguaje de programación Arduino (basado en Wiring) y entorno de desarrollo Arduino (basado en Processing). La placa Arduino puede ser independiente o se pueden comunicar con el software que se ejecuta en un ordenador (por ejemplo, Flash, Processing, MaxMSP). Mediante ella se puede controlar desde un PC, todo tipo de sistema mecánicos, sensores, motores, etc.

Arduino, es en realidad, consecuencia lógica de la Ley de Moore que dice que cada 18 meses los chips duplican su capacidad de calculo, al tiempo que reducen su precio y tamaño a la mitad, que lleva vigente cincuenta años. Así que de la misma forma que un PC Raspberry Pi es un PC completo que cabe en la mano, la placa Arduino también cabe en una mano. Juntos, puede forma un sistema que por menos de 50 euros en total pueden sustituir con su misma eficiencia a sistemas para control de sistema mecánicos, control numérico, sensores, motores o actuadores, que aun hoy tienen un coste 200 veces mayor. Aunque fue pensado inicialmente para los entornos de educación y de creatividad artística y de diseño, (Arduino recibió una Mención de Honor en la sección de Comunidades Digitales del Ars Electronica Prix de 2006), su planteamiento abierto (Hardware + Software libre) le da una enorme potencia para la empresas, sobre todo para las Pymes, que mediante Arduino tiene acceso a un coste doscientas veces menor y a sistemas que pueden personalizar para su producción y su productos ya que las placas pueden ser construidas a mano o compradas pre-ensambladas cuyo software personalizable se puede descargar de forma gratuita. Sus diseños de referencia de hardware (archivos CAD) están disponibles bajo licencia de código abierto, que son libres de adaptarlos a necesidades específicas de cualquier mercado y campo empresarial.

A pesar de que el sistema Arduino ya que muy conocido en los foros de hackers y de creatividad digital y en el mundo universitario, aún es un gran desconocido para las empresas y para el público en general.

David Cuertielles 500pxDavid Cuartielles, uno de los co-fundadores y creadores de Arduino, en el Campus de la Universidad Politécnica de Valencia. Foto: Adolfo Plasencia.

David Cuartielles, el único español de equipo de co-fundadores de Arduino, es un auténtico sabio de la informática a pesar de su edad. En un placer charlar con el del mundo de lo digital. Por fin en una de sus breves visitas a España, tras mucho intentarlo, he conseguido dialogar con él con cierta tranquilidad y en profundidad, lo que dada su agenda, viajes y lugar de residencia, no es fácil. Dado el poco tiempo de que dispone, va directamente al grano. “Arduino, -relata David-,  comenzó como un sistema electrónico para enseñar como funciona el mundo digital a diseñadores y artistas. Pero Arduino ahora no solamente es una placa de hardware. Es un ecosistemas de placas de semiconductor, documentación de cómo usarlas y un sistema de programación, un software que permite programarlas de forma muy sencilla y que hace completamente estándar el idioma entre diferentes plataformas tecnológicas; por ejemplo tenemos una placa redonda que se llama Arduino Liliiput que se emplea para hacer ordenadores llevables en la ropa (wareable computers). La idea de que algo puede funcionar en diferentes usos y plataformas con un mismo código fuente es muy potente”.

Y ¿cómo fue el arranque de vuestro proyecto y vuestra startup?, -le digo-. “Arduino (la empresa y el ‘proyecto’), -contesta David-, lo formamos cinco personas: Tom Igoe, que es profesor de la Universidad de Nueva York; David Mellis, un doctorando del MIT; Massimo Banzi, que ahora es el director de la empresa Arduino; Gianluca Martino,  que es el responsable de hardware y, yo mismo. Tenemos una colaboración muy cercana, Daniella Antonetti que es socia en una empresa de Gianluca. Todo comenzó porque yo tuve un intercambio de investigación con la escuela de Diseño interactivo de Ivrea en Italia, financiada por Telecom Italia, a donde furia para desarrollar un sistemas electrónicos para controla vía inalámbrica interfaces y dispositivos físicos. Tuvimos muchos problemas porque no teníamos accedo al código fuente que comandaba una de las placas. hartos de es problema, propuse a Banzi que porqué no hacíamos nuestra propia placa nuestra encargándome yo del hardware. Mellis estaba desarrollando un software para hacer funcionar los circuitos de esas placas base, así que de esa conjunción nació ‘Arduino’ que es, como circuito electrónico es un periférico a un ordenador que te permite conectar a dispositivos del mundo físico y controlarlos desde ese ordenador. Un ordenador tiene un ratón, o trackpad, y un teclado y esa es la forma que interactuar con el mundo físico. Pero no es fácil conectarlo a un sensor, a un motor. En cambio, Arduino es un periférico genérico que te permite conectar sensores, motores, lámparas de alto voltaje, lo que se quiera y todo ello controlarlo desde el ordenador. Esto no se había hecho antes de forma que fuera sencillo hacer ni tampoco barato. Una de las claves de Arduino es que lo introducimos inicialmente en un nicho educativo y muy creativo, en el que había una disfunción: esa comunidad creativa usaba Mac para diseño y el desarrollo estaba separado de ella porque era casi todo del mundo Windows y en algún caso para Linux, -como sucede en las empresas, la creatividad era Mac, y la gestión era toda Windows-“.

“Nosotros,-continua-, creamos desde el principio una herramienta multiplataforma que corre en todos los sistemas. No importaba que ordenador tuvieras. El sistema de desarrollo de Arduino iba a funcionar sí o sí. La gente lo probó y se fue corriendo la voz de que ya había una herramienta que podía usarse casi por cualquier persona para la creación de sistema electrónicos que funcionaba en cualquier ordenador. Se sorprendían de que un diseñador, de pronto estuviera construyendo un robot, cuando antes no tenia el menos interés por la matemáticas, la física o la mecánica”.

David Cuartielles blog 500 xDavid Cuartielles, sostiene un ‘Arduino’ en su mano. A la derecha, arriba El Arduino UNO, y debajo el ‘Arduino Leonardo’. Fotos Adolfo Plasencia

Arduino sirve para muchas cosas. Pero ¿cómo podríamos explicar a la gente, o  qué podemos decir para que cualquiera, puede hacerse una verdadera idea de su enorme potencial?, -le pregunto-. “Yo diría, -responde-, que Arduino ha servido para que surjan oportunidades para personas que antes ni se las podían plantear, al tiempo esta transformando la forma en que educamos muchísima gente y, pro supuesto esta sirviendo para trasformar lo que seria el tejido industrial porque permite la creación de máquina muy sencillas, minimizando el coste en investigación y desarrollo y democratiza el acceso a la tecnología de personas y empresas porque hay otro factor esencial esta diseñado para ser muy económico y por ello, fabricantes y diseñadores que trabajan a pequeña y mediana escala ya no se plantean rediseñar toda la circuitería electrónica de sus productos; ahora se plantean insertar un Arduino en sus productos (precio y tamaño lo permiten), porque les facilita y mucho el proceso productivo. Una de los ejemplos es la impresión 3D. La impresión 3D abierta emplea Arduinos como inteligencia de sus impresoras para la fabricación personalizada. Uno de los aspectos mas importante es el coste. Cuando introducimos Arduino, conjunto del sistema que costaba mas de 1.000 euros fue sustituido por la placa Arduino que costaba 25 euros. Pasar de un coste de 1.000 a 25 es un tremendo cambio de escala económica”.

El paradigma del hardware libre (Open Hardware)

Y crees. le digo-, que el ‘hardware libre’ tiene la connotaciones y puede explotar tal como el software que pasó de Stallman y de ahí se acumuló en Linux, después fue maltratado por la industria tecnológica pero finalmente en la red se ha reencarnado en gigantes de éxito mundial como Google, Facebook, twitter, etc.?. “El hardware libre, -contesta , rotundo-, tiene sus propias especificidades. Nosotros no establecemos un dogma como en su día hizo Stallman. Lanzamos Arduino como fuente abierta sin licencia para que cualquiera lo pudiera usar sin restricciones, pero aunque nos lo preguntaron, creímos que éramos demasiado pequeños para definir nosotros lo que era el ‘hardware libre’. Queríamos que fuera un proceso mucho mas democrático y que incluyera la industria. Alguien tiene que fabricarlo, distribuirlo, mantenerlo, es físico también. Así que lo que pasó fue que se creó un foro global de debate: el ‘Open Hardware Definition’, -que yo traduje al castellano-, para debatir cual deberían ser la bases del ‘hardware libre’, pero no creemos una licencia , porque no teníamos alguien preparado para eso. Empezamos un grupo pequeño pero muy rápido se expandió por el mundo y se reunieron mas d trescientas personas, empresas e instituciones de todo tipo. Una de ellas era el CERN (allí se invento la Web, pro cierto). Y el CERN, lo que hizo fue contratar un abogados adecuado, que redacto la licencia que establece la libertades del hardware libre y que ya puede ser utilizada por cualquiera que quiera crear,  fabricar y usar ‘hardware libre. Se llama ‘CERN Open Hardware Licence’ y esta en una Web abierta que ha publicada por el CERN llamada OPEN HARDWARE REPOSITORY . Arduino no fue quien lo creó el hardware libre, pero sí desarrolló el primer proyecto de hardware libre exitoso de la historia, y después han vendido muchos mas. Lo que si hizo Arduino es crear las bases para operar así y demostrar podemos trabajar con tecnología libre y al tiempo generar negocio tanto para nosotros como para nuestro entorno”. Y esas pegas que ponen mucho inversores de la tecnología?, -le digo-. “Ya se que ellos piensan que no se puede hacer negocio con la tecnología libre. Pero nosotros lo creemos y lo estamos de mostrando. Arduino también es una empresa, pequeña pero una multinacional al fin y al cabo, que ya ha conseguido fabricar y distribuir mas de un millón de placas Arduino, aunque si costamos las que han hecho otros ya habrá mas de tres millones funcionando en todo el mundo”.

David cuertielles blog 3 500pxDavid Cuartielles, en el Campus de la Universidad Politécnica de Valencia. Foto: Adolfo Plasencia.

El futuro de Arduino

Y, ¿cuales el futuro de la empresa ‘Arduino’, -le digo-. Contesta de inmediato:  “Hay tres líneas de trabajo distintas: una es educación . Creemos que formar de tecnología en la universidad es demasiado tarde, hay que empezar en escuelas y colegios. Las personas deberían maneja tecnología digital y programar al tiempo que se aprende a escribir y a leer. la tecnología esta en todas partes y hemos de tener una forma de traerla a todo el mundo, cuento antes mejor. Las segunda línea de trabajo es ‘objetos conectados’ (el internet de las cosas); como puede prepararse, programarse, que le gente puedan gestionar sus máquinas conectadas. Un ejemplo es el Arduino GRM que hemos hecho con celebración con Telefónica para facilitar la conectividad, e incluía el ayudarles a crear un modelo de negocio que les permitiera monta una placa aquí que alguien se la llevara a Chile y empezar a transmitir datos desde Chile sin abrir la caja e intentar resolver ese problema que tienen: dar cobertura mundial en las redes que existen ahora mismo, de forma inalámbrica”. ¿Y la tercera?, -le pregunto-. “La tercera, -dice-, es la de nuevas plataformas de hardware que incluyen, claro, el cómo tu lo programas, y los usas: como le decimos a una máquina que le diga a una tercera o a otras, que debe hacer y que lo haga”.

………………………………………………………….

Arduino, el hardware libre y el CERN

David me cuenta como se fue gestó la relación entre el hardware liber y el CERN “Lanzamos la placa electrónica Arduino como fuente abierta sin licencia para que cualquiera la pudiera usar sin restricciones. Creíamos ser demasiado pequeños para definir nosotros solos qué era el ‘hardware libre’. Queríamos que se definiera en un proceso democrático y que incluyera la industria Así que, ayudamos a lanzar un foro global de debate, el ‘Open Hardware Definition’, -que yo traduje al castellano-. Empezamos un grupo pequeño y pronto se extendió por el mundo, sumándose miles de usuarios, empresas e instituciones, para debatir cuáles debían ser la bases del ‘hardware libre’. Una de ellas era el CERN (allí se invento la Web). El CERN contrató un abogado experto, que redactó la licencia que establece la libertades del ‘hardware libre’ que ya puede ser utilizada por cualquiera para crear, fabricar y usar ‘hardware libre’. Se llama CERN Open Hardware Licence.  Arduino, ademas ayudó a crear las bases para operar así y demostrar podemos trabajar con tecnología libre y, al tiempo, generar negocio tanto para nosotros como para nuestro entorno”. También impulsamos la educación. Las personas deberían manejar tecnología digital y programar al tiempo que aprenden a escribir y a leer. La tecnología esta en todas partes y hemos de conseguir una forma fácil de traerla a todo el mundo, cuanto antes mejor”.
………………………………………………………….

Tim Berners-Lee me dijo que cuando creo el primer software de al Web y el primer servidor en el CERN no se imaginó en absoluto en lo gigantesco que se ha convertido la Web. ¿Os imaginabais vosotros le repercusión mundial que podía alcanzar Arduino?. –le digo-. “Claro en no, -contesta-. Nosotros empezamos a generar diseños de referencia que los dábamos libremente a fábricas que los suministraban a alumnos de todo el mundo y a cambio simplemente recibíamos un descuento en nuestra electrónica y material para nuestra clases. Fue creciendo mucho y nos dimos cuenta de que había que dar un soporte real y que había que trabajar para que la cosa funcionara bien. El ultimo año, se ha duplicado la producción de la suma de los años anteriores. llegamos a un millón de placas de hardware Arduino. Jamás pudimos imaginar que esto iba a ser así: tanta copia de Arduino; placas derivadas, clones ni que iba a entrar en todas las universidades en toda América, toda Europa y parte de Asia. Los números que tenemos son: sabemos que hay mas de un millón de placas oficiales de Arduino; nuestra software se ha bajando en al red exactamente 4.953.103 veces (lo mire antesdeayer para una conferencia que di ayer en Dublín); y tenemos 100.000 visitas al día en nuestra página web. Fácilmente habrá mas de tres millones de placas de hardware libre funcionado en el mundo”. ¿Vosotros sois una industria fuera de al industria informática. Los grandes de la informática os consideran aun demasiado pequeños como competencia?, -le digo-. “. Bueno. –responde, con rictus de escepticismo-. Hemos tenido varios contactos. Con Google en principio tuvimos un no-contacto. Desarrollaron todo una gama de accesorios basada en una placa de Arduino, no se comunicaron con nosotros. Es libre y lo pueden hacer. Lo que paso es que luego tuvimos que dar soporte a su diseño porque los usuarios empezar e venir a nuestra pagina preguntado. Finalmente si hubo contacto y ahora nos llevamos muy bien. Otra empresa grande fue Telefónica. Aprendimos mucho con ellos, cómo trabajar con empresas muy grandes. Al principio al industria no nos tomaban en serio, desde hace un para de años sí. El hecho de que Google haya venido a nosotros finalmente, Telefónica… somos una startup nacida hace siete años ya pero son mucho potencial aun y en unas semanas lanzaremos un nuevo producto: el robot Arduino. Hay mas cosas pero ahora no las puedo decir…”.

David, aunque eres profesor e investigador, también eres emprendedor ya que Arduino también es una Startup: ¿Como ves Arduino como herramienta para transformación innovadora del tejido industrial a la que te has referido antes?, -le digo-.  Esboza una sonrisa y continúa: “Arduino, por la naturaleza de las Licencias open source, tiene un doble valor dentro de una empresa. Por una parte, se puede utilizar tal y como es dentro de productos y servicios, sin tener que cerrar un acuerdo por uso de licencias, -ni pagar pro ellas-, se puede modificar el software y hacer de eso el valor añadido del producto de una determinada empresa (al final Arduino es un ordenador embebido de propósito especifico). Por otra parte, los diseños de Arduino son libres, lo que permite a empresas crear nuevos dispositivos construidos a partir de los ficheros fuentes del hardware de Arduino. Esto es algo que ya hemos visto por ejemplo en el mundo de la impresión en 3D personal. Los fabricantes de impresoras como Makerbot (recientemente adquirida por Stratasys por 400M$ ) o Ultimaker utilizaron durante mucho tiempo la placa Arduino Mega como ‘inteligencia’ de su sistema. Al tiempo pasaron a fabricar sus propias placas basadas en los diseños de referencia de Arduino que se pueden descargar directamente de nuestra pagina web”.

Incluso en estos tiempos de dificultades económicas y empresariales, el ecosistema de empresas que mas empleo crea en España es el de las Pymes y el de las micro-empresas que son casi el 92% del tejido empresarial español, -le señalo-. ¿Como podemos explicar, -le digo-, las formas en que puede ayudar a ése entorno de Pymes el ‘ecosistema Arduino’? Y ¿crees que puede revolucionarlo tanto como lo está haciendo con el entorno educativo y creativo? “Como siempre, -contesta-, depende del campo de trabajo de las citadas empresas. Hay empresas que no tienen nada que ver con la tecnología embebida y que poco pueden beneficiarse de la aplicación de estas tecnológias a su entorno. Sin embargo, hay otras que necesitan de pequeños sistemas de control que antes costaban una fortuna producir y que ahora, gracias a Arduino y a sistemas derivados, se pueden construir por una fracción muy pequeña de ese precio anterior. Algunos ejemplos que podría citar, por ejemplo podrían ser: sistemas de control de invernaderos, pequeños autómatas de control, riego controlado por GSM, redes de sensores … todos estos casos se ven beneficiados por el ecosistema introducido por Arduino, que permite crear entornos de bajo coste y en tiempo record, ya que Arduino permite acelerar el proceso iterativo de creación de productos al permitir hacer muchas pruebas sobre diseños en espacios reducidos de tiempo”.

Muchas Gracias, David, -le digo-, y contesta: “Gracias a ti, Adolfo”.

……………..

Una sintesís de este diálogo se publico en el Suplemento INNOVADORES de El Mundo, el 15 de julio de 2013, como historia de portada.

20/10/2013, escrito por Adolfo Plasencia