Conversing with Leading Thinkers

A surprising book for our times comes true

Adolfo Plasencia

Front and back cover of the book, published by MIT Press

Is the Universe a Hologram?

Scientists Answer the Most Provocative Questions

Foreword by Tim O’Reilly
Conversations with
Hal Abelson, Ricardo Baeza-Yates, John Perry Barlow, Javier Benedicto, José Bernabéu, Michail Bletsas, Jose M. Carmena, David Casacuberta, Yung Ho Chang, Ignacio Cirac, Gianluigi Colalucci, Avelino Corma, Bernardo Cuenca Grau, Javier Echeverria, José Hernández-Orallo, Hiroshi Ishii, Pablo Jarillo-Herrero, Henry Jenkins, Anne Margulies, Mario J. Molina, Tim O’Reilly, John Ochsendorf, Paul Osterman, Alvaro Pascual-Leone, Rosalind W. Picard, Howard Rheingold, Alejandro W. Rodriguez, Israel Ruiz, Sara Seager, Richard Stallman, Antonio Torralba, Bebo White, José María Yturralde


Science today is more a process of collaboration than moments of individual “eurekas.” This book recreates that kind of synergy by offering a series of interconnected dialogues with leading scientists who are asked to reflect on key questions and concepts about the physical world, technology, and the mind. These thinkers offer both specific observations and broader comments about the intellectual traditions that inform these questions; doing so, they reveal a rich seam of interacting ideas.
The persistent paradox of our era is that in a world of unprecedented access to information, many of the most important questions remain unsolved. These conversations (conducted by a science writer, Adolfo Plasencia) reflect this, with scientists addressing such issues as intelligence, consciousness, global warming, energy, technology, matter, the possibility of another earth, changing the past, and even the philosophical curveball, “is the universe a hologram?”
The dialogues discuss such fascinating aspects of the physical world as the function of the quantum bit, the primordial cosmology of the universe, and the wisdom of hewn stones. They offer optimistic but reasoned views of technology, considering convergence culture, algorithms, “Beauty ? Truth,” the hacker ethic, AI, and other topics. And they offer perspectives from a range of disciplines on intelligence, discussing subjects that include the neurophysiology of the brain, affective computing, collaborative innovation, and the wisdom of crowds.

Conversing with Leading Thinkers

A surprising book for our times comes true

by: Adolfo Plasencia

The long experience of putting together the contents of this book: “Is the Universe a Hologram? Scientists Answer the Most Provocative Questions”, just published by The MIT Press, has been for me something extraordinary and is perhaps unique in this world of hyperspecialization we now live in. The publishing house itself, conscious of the diversity of its contents, placed it for months high up on the Web list of its section ‘Science’, but also in that of ‘General Interest’. It’s true that it’s a difficult book to place within the conventional classification. And that will also hold true for the “specialist” sections of bookshops.

It’s a book of non-linear contents, something which today is at the very least surprising, but at the same time most welcome. Any observer with curiosity, and whose capacity for amazement is in a good state of health, knows that the development both of basic science and applied science, technological development and new discoveries are being taken over by hybrid disciplines. Exactly where discovery takes place today has become fuzzy. The points of intersection between equally fuzzy disciplines are where the new flashpoints heralding the future are located. These produce the sparks that are transforming both the horizons of thinking and creation, as well as education, which has ceased to be the guarantee of a professional life with a fixed vocation for the rest of one’s life. This book bears witness to that. Everything is shifting. One illustration of this, taken from the book, is that of José M. Carmena who is director of his own laboratory at UC Berkeley where he investigates Brain-Machine Interface Systems (BMI); neuroprosthesis, the ‘neural basis of sensorimotor learning and control’ and ‘neural ensemble computation’. Professor Carmena, before founding his own laboratory in Berkeley undertook Electronic Engineering studies in Spain, then Robotics and Artificial Intelligence in the United Kingdom and then Neuroscience in the United States. He now works in something even more surprising, also mentioned in the book, called “Neural Dust”. Carmena is carrying out research into the intersections between Neuroscience, A.I. and all types of engineering, electronics and nanotechnologies.

The book – preceded by a foreword written by the prestigious Tim O’Reilly, formulator of Web 2.0-, includes 33 conversations on different aspects of science, technologies, new fields of the humanities, the Internet, on the effects and ethical criteria concerning the use of technologies, all of which affect both individuals and society as a whole. It is a set of dialogues (not interviews), designed to be interrelated and undertaken using a special method of dialogue, partly based on what we find in the works of Plato, such as Phaedrus or Theaetetus. The book has an interconnected literary structure from which emerges questions and answers, sometimes long and thoughtful, and at other, sudden and unexpected. Questions interweave between the dialogues and their participants in such a way that they led the expert on the Internet, Ricardo Baeza-Yates, to tell me- “Not only do are you trying to find out about our searches and findings in the fields of knowledge and technology, but you are also cross-referencing us with the humanities so that we put ourselves at risk. What you like most is to take us out of our ‘intellectual comfort zone’. But that’s O.K with me, I like it”. Another example of someone who took risks in his conversation in the book is the young MIT physicist Pablo Jarillo-Herrero, pioneer of ‘two dimensional materials’. Pablo, a few months before undertaking the dialogue for the book received an award from President Barak Obama, the Presidential Early Career Awards for Scientists and Engineers, an awards that recognizes young scientists that take on the riskiest of research and confront the greatest challenges. The title of Pablo’s dialogue in the book uses his own words “Graphene is the finest material that has ever existed, exists and will exist”. Although there are many other worthy examples I could mention, space does not permit it here.

Questions are much more important than answers

To get an immediate idea of the diverse contents of this book, the best thing to do is to carefully read the list of questions that form the contents of the book: questions such as “What is intelligence, how does it work, where does it reside, and how is it measured?”; “What will intelligent machines be like? Will there be nonbiological intelligence (not based on Homo Sapiens)?”; “Where does consciousness reside and how does it emerge?”; “Is the universe a hologram?” (discussed by the philosopher Javier Echeverría); “How does the brain really work? Where is the “I”?; “Is it possible to govern uncertainty and live with its stochastic effects? Can we plan the impossible?”; “Are search technologies now allowing us to remember the future?”…. And there are also dialogue titles such as, for example “Quantum Physics Takes Free Will into Account”, a dialogue with Ignacio Cirac, director of the Theoretical Division of the Max-Planck institute for Quantum Optics, who describes the ‘little problem’ of quantum physics called the ‘problem of measurement’ that tries to discover why that discipline describes knowledge of ‘the others’, but is incapable of describing itself. There are other expressive titles such as: “The Emergence of a Nonbiological Intelligence”, with Michail Bletsas, director of computation at MIT Media Lab; or “Remembering Our Future: The Frontier of Search Technologies”, with the information technology scientist Ricardo Baeza-Yates.

In the book I have a dialogue with José Bernabéu about, among other things, whether, having found the Higgs Boson and other fundamental particles at CERN, he can enlighten us on one of the more categorical – in Berbabéu’s own words more mystical- questions of physics: “how mass arises from the properties of the vacuum state”… Or going beyond that question, as he explains, “That arrow of time does not eliminate the question of whether the dynamics of the fundamental laws for elementary particles, for those that we observe to have reversible processes in time, are able to describe both the direct process and the reverse process in time”, things that are not contradictory and something that the Harvard neurophysiologist, Alvaro Pascual-Leone affirms when he says that “causality ceases to exist”, a statement that the quantum physicist Ignacio Cirac is also party to. However what really interests Pascual-Leone is “the deep workings of the mind within the brain; and what is intelligence, that emerging property of the brain and to know where it resides and why some have more and others less”.

But the book’s not only about that. Other important questions are addressed too, for example, the relationship between ethics and the uses of technology. The great Richard Stallman reflects in the book on the ‘hacker ethics’ paradigm and explains the reason “It’s absurd to ask whether ethics is profitable or not; because it is a prior responsibility, an obligation towards others”. And why Choosing ethics as a guide only when it is profitable is really the same as not having any ethics.” David Casacuberta also gives us his strong and wide-ranging reasons on why “Encryption must be considered as a human right.”








03/06/2017, escrito por Adolfo Plasencia

La Inteligencia Artificial (AI) es una ciencia muy horizontal, como las matemáticas, y se inspira en la filosofía

Ramón López de Mantaras, director del IIIA.CSIC, impartiendo una conferencia. Foto. Adolfo Plasencia.

“No creo en la ‘exponencialidad’ del progreso de la técnica y la tecnología. Esto es falso. No progresan exponencialmente.”


Por: Adolfo Plasencia.

El actual momento de la Inteligencia Artificial.


Según en diccionario de la RAE, la expresión ‘inteligencia artificial’ es un término de Informática cuyo significado es: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. Según Wikipedia, La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma la inteligencia humana.

La actual explosión de aplicaciones prácticas para la Inteligencia artificial (AI) es la consecuencia, al menos de varios factores combinados tras un largo periodo en el que parecía que la disciplina había quedado como aletargada después de que el la época de los años 90 se vieron avances espectaculares. Las causas de esta explosión podrían estar en varios factores de cambio combinados a mi modesto entender. Por supuesto en primer lugar en el avance continuado de la Ley de Moore que ha seguido aumentando la capacidad de computación de todos los dispositivos digitales al tiempo que hacían la capacidad de cálculo mucho mas baratas, lo que ha dado lugar a que pequeños dispositivos sean capaces de procesar cantidades antes impensables. Por ejemplo los smarphones avanzados, mas potentes que la mayoría de los grandes ordenadores de sobremesa de la Era del PC. El segundo factor es el cambio de paradigma de la informática que parece haber dado la vuelta a una esquina para abrirse a la era post-PC como la definió Steve Jobs poco antes de dejarnos. En la Era Post-PC, gracias a los Data Centers y las ‘granjas de Servidores’ y, obviamente a Internet, disponemos de una inmensa capacidad de cómputo que podemos situar en forma ubicua (en cualquier momento y cualquier lugar) para propósitos concretos que serían irrealizables. Y el tercer factor y no menos importante es el trabajo incansable y callado de investigadores muy especiales que se han centrado durante muchos años en avanzar en aspectos decisivos de la Inteligencia Artificial que permitieran usar aspectos de esta disciplina en la práctica. Uno de ellos es Ramón López de Mántaras, que actualmente dirige el Instituto de Investigación en Inteligencia Artificial (IIIA), del CSIC, que ha realizado numerosos avances en la investigación de la creatividad computacional, entre otros, en campos como los de la música. He conversado con él para comentar ‘el estado del arte’ en esta fase de enrome expansión actual de la Inteligencia Artificial. Esta ha sido la conversación:

ADOLFO PLASENCIA: Ramón, para alguien como tú, que tienes formación en Ingeniería eléctrica, física, diriges el Instituto de Inteligencia Artificial del CSIC y eres Premio Nacional de Informática 2012, ¿La Inteligencia Artificial, es un tema de ciencias de la computación, o como dice Wikipedia, va mas allá y para ti llega hasta las humanidades?

RAMÓN LÓPEZ DE MÁNTARAS: Yo pienso que va mas allá de la informática, de la Computer Science para se llama en EE.UU., y efectivamente llega hasta las humanidades. No sólo a nivel de las aplicaciones. Obviamente existan ya aplicaciones para la simulación de grandes agentes y entes sociales, que tiene que ver con temas de sociología. Tiene que ver con la economía porque la Teoría de Juegos se utiliza mucho en Inteligencia Artificial (AI). Y para las aplicaciones en esta campo nos inspiramos en mucha otras ciencias. La Inteligencia Artificial, no es ahora una tecnología o una ciencia vertical, es muy ‘horizontal’, como las matemáticas por ejemplo. Sirve para modelar, modelizar muchas cosas.

A.P.: ¿Y se inspira de la filosofía, también, ¿no?

R.L.M.: También de la filosofía, claro. Hay muchos filósofos de la ciencia contribuyendo como Daniel Dennet o John Searle, por ejemplo, que son muy críticos con la AI, pero eso está bien porque así hay diálogo y discusión y, de ello salen nuevas ideas. Como te decía, la Inteligencia Artificial es una herramienta muy buena para modelizar computacionalmente fenómenos complejos y en particular la actividad cognitiva. La cognición, y la inteligencia es un fenómeno muy complejo, que nadie sabe muy bien aún qué es, pero que sabemos que está ahí, que emerge del cerebro y que permite tomar decisiones racionales, o no, y también emocionales. Ya sabemos por los trabajos de Antonio Damasio que es necesaria la capacidad emotiva para tomar decisiones. Si fueras cien por cien racional no llegarías nunca a tomar ninguna decisión. O sea que hay muchos ‘va y viene’ entre la AI y otras disciplinas. Actualmente es mucho mas que informática y, en mi opinión, la gente que se forma para AI no solo deben saber de programar y saber matemáticos sino muchas otras cosas una formación mas pluridisciplinar en los niveles avanzados. Deberían conocer cosas, por ejemplo, cosas sobre psicología cognitiva, lingüística, etc. Hay un término: ‘cognitive sciences’ que intenta englobar todas estas áreas que tienen en común el estudio del comportamiento inteligente y de la cognición desde distintos puntos de vista. Hay nuevas sinergias claras que nos permitirán avanzar en Inteligencia Artificial y en modelizar la cognición humana.

A.P.: ¿Ramón, Estás mas por el paradigma de la inteligencia artificial que parte del modelo de la imitación de la inteligencia humana o crees que no siempre es necesario partir de ese principio y se puede crear una inteligencia artificial partiendo de un paradigma distinto?

R.L.M.: Ya estamos haciendo inteligencia artificial que no tiene nada que ver con el emular o imitar a nivel detallado a la inteligencia humana. Hay las dos vías en la AI. Los aviones no vuelan batiendo las alas, porque no han imitado exactamente a la naturaleza, pero se han inspirado en ella. Una cosa es imitar y otra inspirarse. El referente es la inteligencia humana. Siempre. De eso no hay duda. Ahora, tú puedes llegar a soluciones distintas a las que ha llegado la naturaleza para resolver ciertos problemas. El problema de volar, de que un artefacto que pesa mas que el aire vuele, primero lo resolvimos con la propulsión de las hélices y luego mediante el motor a reacción a chorro. Pero el construir aviones con esos sistema contribuyó a que progresara la aerodinámica y con ello, después, pudimos explicar porqué los pájaros vuelan. De nuevo vemos un ‘va y viene’. Yo creo que en la inteligencia artificial puede pasar lo mismo. Hay modelos computacionales que se han desarrollado no necesariamente imitando a nivel de detalle las neuronas del cerebro, sino que se han hecho de forma distinta y después esto puede arrojar alguna luz sobre cómo pueden funcionar los proceso mentales en el cerebro, o viceversa. Cuando hacemos razonamiento basado en casos, que es un área de la AI muy interesante que trata de cosas como aprender o razonar por analogía, reconociendo similitudes entre situaciones, que es algo muy bien fundado y tiene muchas bases cognitivas, nos damos cuenta de que los humanos hacemos mucho esto. Tenemos un problema a resolver y vemos se parece a uno que ya hemos resuelto, y utilizamos las soluciones anteriores, adaptándolas, para resolver el nuevo problema. Casi es de sentido común que sea así. Se ha conseguido hacer con ordenadores, con máquinas que hacen razonamiento por analogía basado en casos y cuando lo hemos resuelto, esto a su vez, posteriormente, hemos comprobado que arroja luz sobre cómo lo hace el cerebro humano. El concepto de similitud y todos esto. Yo diría en resumen que la Inteligencia Artificial, más que imitar al detalle la inteligencia del cerebro, ‘se inspira’ en el funcionamiento del cerebro pero para hacerlo, quizás, de otra manera. Bueno, a excepción de algunos proyectos como, por ejemplo el Blue Brain y otros que van por el camino de intentar emula lo que se hace desde cada neurona, sobre lo que tengo una opinión muy critica al respecto.

A.P.: Marvin Minsky, afirmó que crear una inteligencia no es tan complicado: según la teoría de Marvin Minsky de que un principio de inteligencia puede construir comenzando por un conjunto bastante simple de primitivos y que al conectividad entre ellos es la que da como resultado la complejidad que surge y se deriva una conducta, y que tiene que ver con la toma de decisiones, de la que en caso extremos puede depender la supervivencia. Minsky piensa que a inteligencia no procede de un mecanismo único, sino que se genera por la interacción de muchos agentes distintos. Y en su libro ‘La máquina de las emociones’ atribuye ese origen múltiple también a las emociones, los sentimientos y el pensamiento consciente. ¿Que opinas de esta visión de Minsky?

R.L.M.: Yo estoy de acuerdo con él, en la parte esta de que la inteligencia no es el resultado de un mecanismo único y que se genera por interacción de muchos agentes distintos. Todo eso está basado en la teoría de su libro ‘The Society of Mind‘. En el fondo lo que está diciendo es que la inteligencia emerge de interacciones de agentes muy simples (él piensa que son ‘muy simples’), y al interaccionar entre ellos, la colectividad produce la inteligencia. Es como la idea de la inteligencia de las colonias de hormigas. Cada una de ellas no es inteligente pero la colonia globalmente hace cosas inteligentes. Pero Minsky va mas allá de esto. Habla de una arquitectura cognitiva basada en una Sociedad de la mente, una sociedad, -en sentido metafórico-, de ‘agentes’ de la mente en el cerebro y que de ahí emerge la inteligencia. Yo no veo ningún problema en esta afirmaciones de Minsky, pero lo que no me ha dicho ni él ni nadie, hasta ahora es cómo construimos esto, cómo lo reproducimos. En su libro, no nos dice cómo podemos implementar eso en una máquina. Se queda en un nivel filosófico, pero no llega al cómo hacerlo.

A. P.: Hablemos ahora, en relación a esa conexión masiva de la que hablaba Minsky, pero referida a la ‘maquinaria’ del cerebro que es de al que se supone que emerge al inteligencia humana. Kenneth D. Miller, profesor de neurociencia en Columbia y co-director del Centro para la Neurociencia Teórica, publicó no hace mucho en el New York Times un artículo titulado: “Will You Ever Be Able to Upload Your Brain?“. En él afirma muy critico sobre las pretensiones de algunos grandes proyectos actuales. En su articulo escribe: “Gran parte de la esperanza actual de la reconstrucción de un funcionamiento del cerebro descansa sobre conectómica: la ambición de construir un diagrama de ‘cableado completo’ [en el sentido de la metáfora informática ], o “conectoma,” de todas las conexiones sinápticas entre neuronas en el cerebro de los mamíferos. Desafortunadamente, la conectómica, mientras que una parte importante de la investigación básica. Yo creo que está muy lejos de la meta de la reconstrucción de una mente, en dos aspectos. En primer lugar, estamos muy lejos de construir un conectoma. El actual mejor logro fue determinante las conexiones en un pequeño trozo de tejido cerebral que contiene 1.700 sinapsis; el cerebro humano tiene más de cien mil millones de veces ese número de sinapsis. Si bien el progreso es rápido, nadie tiene ninguna estimación realista de cuánto tiempo se tardará en llegar a conectomas cerebro de tamaño”. Mi conjetura ‘salvaje’ -dice Miller-, es que replicar un conectoma como el del cerebro es algo que llevaría una escala de tiempo de siglos. Teniendo en cuenta que no eres neurofisiólogo, sino ingeniero y informático. ¿Crees que lo del ‘Uplooad’ de una inteligencia, que menciona se quedará Miller, seguirá siendo cosa de literatura, cine o ficción? ¿Crees que una inteligencia de la escala de la humana se podría reubicar, ‘subir’ o ‘descargar’, o eso no es posible ni siquiera en teoría?

R.L.M.: para mi lo del hacer un ‘Uplooad’ de una inteligencia, descargarla, llevarla a otro lugar, es una pura ciencia ficción. Y no solo para mí, sino para varios premios Nobel de Biología y Bio-medicina. Eso estar relacionado con lo de la Singularidad…

A.P. … de la que tanto ha escrito Ray Kurzweil, hoy director de Ingeniería de Google…

R.L.M.:… que hablan de que el ‘upload’ del cerebro en una máquina, y luego la sinergia entre este ‘upload’ y la propia inteligencia artificial de a máquina sería un conjunto que permitirá crear superinteligencias. El problema de mucha de esta gente es que subestiman la complejidad del cerebro. Del cerebro se sabe más que antes, pero aun sabemos muy poco. Todo esto parte conocer y modelizar la parte eléctrica de las neuronas. Las neuronas tienen un parte química, están, funcionan, sumergidas en una ‘sopa’ de química. Y todo esto, ningún modelo computacional de redes neuronales tiene en cuenta eso, ninguno. Además, hasta hace poco no se sabía que las células llamadas ‘gliales’ del cerebro son como un ‘metacontrol’, controlan lo que hacen las neuronas y son más numerosas en que las neuronas. Fíjate, hay mas células ‘gliales’ que neuronas en el cerebro. Y controlan las sinapsis, la conexiones entre neuronas. Ahora los biólogos creen que estas células tienen un papel importantísimo en el funcionamiento del cerebro. Y ningún modelo computacional de redes neurales tiene en cuenta esto ni lo modeliza. Y tampoco lo tienen en cuenta los modelos de mapas de conexiones de la conectómica. La parte química del cerebro no se ‘modeliza’. Por tanto, ¿qué significa hacer un ‘upload’ de un cerebro? ¿Qué van a ‘descargar? ¿El estado eléctrico de cada neurona? No son estados discretos (como en lo digital). Hay muchas cosas que son de procesamiento continuo, de nivel analógico, no tanto digital, en el cerebro. ¿Que significa hacer un upload? ¿hacer una ‘foto’ de un instante del cerebro y cargar eso?¿Y luego qué? ¿El siguiente instante qué; aquello de queda fijo? ¿Y las experiencias de toda tu vida? porque esas también están en algún lugar del cerebro, pero nos e sabe cómo están almacenadas ni nada. Para mí tiene muy poco sentido esto que dicen de hacer un ‘upload’ de un cerebro. Cualquier biólogo te dirá que esto no tiene sentido y que esa idea es pura ciencia-ficción. Nuestro cerebro es en cada instante distinto.

A.P.: Michail Bletsas me ha dicho que él esta seguro que a lo largo de este siglo surgirá una inteligencia no-biológica, o no basada en el homo-sapiens. La astrofísica Sara Seager, especialista en exoplanetas, a su vez me ha dicho que lo mas probable es que mas allá del sistema solar, es que la inteligencia actúe en formas ‘no-biológicas’”. Teniendo en cuenta la evolución actual de la tecnología, si te pido que intentes imaginar una inteligencia no-biológica, ¿cuál es lo primer camino que viene a tu imaginación? ¿Cómo imaginas que podría ser en el largo plazo, la AI?

R.L.M.: En la inteligencia artificial que tenemos hoy en día está la ‘AI débil’, de la que hablaba yo ayer, y también de la que habla Thomas G. Dietterich, que funciona cómo herramienta que nos ayuda a tomar decisiones, pero que no tiene porqué tener ‘estados mentales’ ni nada de eso sino que es una visión muy práctica de la AI es una inteligencia no-biológica. está basa en el silicio y los ordenadores no son biológicos actualmente ¿no? Ya sabemos hacer inteligencia no-biológica. Ahora, … elucubrar sobre cómo será en el futuro la AI no-biológica, si estará en algo distinto del silicio. Pues sí, muy probablemente. Los ordenadores basados en silicio va a ser reemplazados, porque sabemos que la Ley de More esta llegando a un límite, así que si se quiere seguir aumentando la capacidad de los ordenadores habrá que cambiar de tecnología. Habrá hardware distinto para hacer cálculos. Hay varias tecnologías posibles de las que se habla, basadas en memristores, o en el DNA computing, en computación cuántica, hay muchas propuesta ya por ahí. A largo plazo no tengo ni idea pero es muy probable que tanto la computación como la futura AI, deje de estar basada en el silicio.


A.P.: El de las ‘máquinas inteligentes’ es uno de los paradigmas mas atractivos de la tecnología y en los humanos asociamos inteligencia y mente con el cerebro. Bertrand Russel afirmó que la diferencia entre mente y cerebro no es una diferencia de cualidad sino de ‘disposición’. ¿Tu crees que la inteligencia en una máquina que lo sea, dependerá mas esencialmente de una masa crítica de capacidad de calculo (computación) o de la combinatoria y disposición o combinación de partes, recursos y mecanismos, a imitación, por ejemplo, de la disposición de un cerebro?.

R.L.M.: Creo que dependerá un poco de todo. Ahora mismo, el Machine Learning (el aprendizaje o razonamiento automático) está dando un buen paso adelante en cuanto a aplicaciones prácticas aunque en lo conceptual no hay nada nuevo. Lo que hay es que con la disponibilidad, al tiempo, computación de altas prestaciones en y del acceso a enormes cantidades de datos (Big Data), se pueden hacer cosas que hace veinte años no se podían hacer por no disponer de ello. pero los conceptos que hay detrás del Deep Learning (Aprendizaje profundo) ya existían hace veinte años lo que pasa es que ahora se pueden aplicar en la práctica. Así que lo que se pueda hacer con la futura AI, creo que dependerá a la vez de la capacidad de cálculo tanto como del software y de la combinación de los distintos componentes de la inteligencia, de su integración, de las arquitecturas cognitivas que integren razonamiento con aprendizaje y con planificación, etc. Aunque no sepamos aún qué es la inteligencia lo que si sabemos son cuáles son algunos de sus componentes: capacidad de percibir, de comunicar, de razonar, de planificar, de aprender… Los componentes de la inteligencia habrá que combinarlos de forma conveniente mediante una buena arquitectura. Necesitamos buenos arquitectos cognitivos que nos digan cómo conectar estos componentes de la inteligencia. La disposición de estos componentes es importante y la capacidad de cálculo también. Es la combinación de ambas cosas, creo yo.

Robots en el MIT Media Lab. Foto: Adolfo Plasencia


A.P.: Volvamos a lo de la disciplina de la AI. En tu conferencia has hablado sobre que, en la AI, tras una época de grandes expectativas, hubo un parón o un ‘invierno’ en la ciencia de la Inteligencia Artificial’. Rodney Brooks, que ha dirigió casi 18 años el “Computer Science and Artificial Intelligence Laboratory (CSAIL)”, del MIT me dijo que él prefería dejar las ‘grandes preguntas’ de la AI para la siguiente generación de científicos. Hoy, tras abandonar la investigación académica como centro de su actividad, lanzó con la empresa iRobot el exitoso robot de limpieza Roomba; ahora dirige su nueva empresas Rethink Robotics, especializada en ‘collaborative robotics’.

Tú también llevas muchos años en el campo de la AI. ¿A ti no te afectó ese ‘invierno’ de la AI.? ¿Ya ha cambiado de ‘estación’? ¿Hay ahora una nueva primavera en la AI?

Y también: ¿No has tenido tentaciones de irte al sector empresarial en donde aplicar lo adquirido e tu larga experiencia de investigador en AI?

R.L.M.: Sí, hay una nueva primavera, sin duda. Bueno, a ver. Yo empecé a trabajar en AI en el año 76. Y el ‘invierno de la AI’ llegó justo después, pero yo era entonces un joven estudiante. Luego estuve en Berkeley aprendiendo más sobre Inteligencia Artificial, después hice mi tesis en Francia. En aquél momento yo todavía no dirigía un equipo de investigación, no me tenía que preocupar por captar recursos para la investigación como sí tenían que hacerlo mis ‘seniors’, mis supervisores en EE.UU. que sí que recuerdo que tenían problemas a la hora de conseguirlos. A mí personalmente no me afectó. Ya en España no afectó porque el ‘invierno’ era aquí lo normal en la AI. Era un desierto. En los Congresos y reuniones internacionales recuerdo que si que había esa sensación con colegas. Lo que sí puedo decirte que sí ha cambiado la estación de la AI en el mundo: en EE.UU., Alemania, Inglaterra ha habido un resurgimiento importantísimo de la inteligencia artificial a partir de los ‘programas expertos’ y con ellos florece toda una industria, aparecen montones de empresas que fabrican hardware especializado para sistemas expertos como las ‘Lisp machines’. Por ejemplo los congresos de AI de Chicago en 1995 y en Los Ángeles 1987 hay como 6.000 participantes en cada uno. Así que, tras el invierno anterior llegó la nueva primavera de la inteligencia artificial. Luego se ha ido manteniendo bien a nivel de financiación. Pero últimamente lo nuestro, la AI vuelve a estar muy de moda. Llevamos uno o dos años que hay un ‘hype’ de la Inteligencia Artificial que entre cantidad de películas que están tratando el tema han surgido incluso multitud de debates. Hay ahora un resurgimiento de la AI.


A.P.: Hablemos ahora de la ‘AI’ aplicada. ¿Crees que ha cambiado el rumbo de la Ciencia de la Inteligencia Artificial el que haya ‘girado la esquina’ la industria informática, pasando a lo que Steve Jobs ya llamó ‘la Era PostPC’, a la era de los Data Center que contienen gigantescas granjas de servidores, capaces de poner a disposición de la gente aplicaciones que tienen detrás una enorme capacidad de computación que esta oculta tras ellas? ¿Esta emergiendo, en este cambio de paradigma de la informática, una AI distinta a la que habías imaginado hace una década cuando los científicos de la disciplina pensabais cómo seria el próximo futuro de esta ciencia?

R.L.M.: Sí, así es. Ha cambiado mucho. Nosotros pensábamos la década pasada que la Inteligencia Artificial seguiría el camino este de intentar hacer la AI con bases cognitivas o plausible cognitivamente. De nuevo, como en la pregunta anterior, pensábamos que avanzaríamos imitando al cerebro a nivel macroscópico, es decir había que avanzar inspirándose mucho en la inteligencia humana, a alto nivel cognitivo. Imitando la forma de razonar, aprender de humana a un nivel de sistema. Entonces, lo que ha sorprendido a mucha gente en estos últimos años se es lo que esta consiguiendo en ejemplos como Watson, lo del Google Traslator, lo de Siri de Apple, que se basan en técnicas, práctica y puramente estadísticas de análisis de gran cantidad de datos, de buscar relaciones y correlaciones entre datos que dan unos resultados prácticos muy buenos, muy interesantes, pero sin olvidarse completamente de lo que es la cognición humana. El superordenador Watson, (que ganó a dos humanos muy especializados en el concurso de televisión estadounidense Jeopardy! ), no entiende ni una sola palabra de las preguntas qué le hacen y, sin embargo, las responde correctamente. ¿cómo puedes responder a una pregunta de la que no entiendes nada semánticamente? Watson no entiende semánticamente nada del significado de las preguntas que le hacen. Hace ‘contaje’ de las frecuencias y proximidad con que aparecen esos términos en millones de documentos (a grandísima velocidad) y de ahí consigue dar respuestas que son correctas en la inmensa mayoría de los casos.

A.P.: O sea que responde correctamente sin entender nada, ni siquiera de sus respuestas ni tener conciencia de ello.

R.L.M.: No, no. Ni conciencia ni capacidad de comprender el lenguaje. Es un proceso de pregunta-respuesta, que funciona. Te voy a explicar un ejemplo para que se entienda bien. En el concurso Jeopardy! Contra dos seres humanos a los que venció, una pregunta que respondió Watson fue la siguiente: “El nombre de este sombrero es elemental, querido concursante”. Y Watson respondió de inmediato que era el sobrero de cazador. ¿porqué? Pues porque encontró que la frase “Elemental, querido…, aparecía en muchas novelas de Sherlock Holmes, y en miles y miles de documentos, no en las mismas páginas sino en muchas otras de los mismo documentos aparecía el nombre de un sombrero cuando se describía el aspecto de Sherlock Holmes que llevaba un sombrero de cazador. Al encontrar esta correlación tan alta entre la frase de elemental querido” con la descripción de una sombrero, el ordenador Watson está programado para encontrar estas concurrencias de términos, dio la respuesta, “sombrero de caza”, que es la respuesta correcta, pero que él no sabe lo que significa. Watson no sabe lo que es un sombrero, ni lo que es ‘elemental’. No sabe nada. No entiende la semántica del lenguaje. Esto es muy sorprendente y sorprendió a mucha gente el que Watson fuera tan bueno respondiendo preguntas, cuando todos en el mundo de la AI sabíamos o sabemos lo difícil que es para una máquina, para un ordenador, comprender el verdadero, significado profundo del lenguaje.

A.P.: Y sin embargo, para esto, funciona la fuerza bruta de computación.

R.L.M.: Sí, a nivel tan superficial sin conocer el lenguaje, funciona con fuerza bruta, con mucha mucha computación.

A.P.:   ¿Es la Inteligencia Artificial de la Era de Internet distinta a la de la época de los Robots ‘arácnidos’ del MIT CSAIL con inteligencia artificial por capas, como Hannibal o Attila que aprendían cada vez a andar desde cero; o como Herbert o Allen, el primer robo móvil, o como Cog o Kismet los robots con aspecto e inteligencia humanoide capaces de interactuar e imitar a los humanos?. ¿Que tienen en común y que diferencias hay entre la AI pre-Internet, y la actual de la época del Internet global?

R.L.M.: Sí, claro. Hay mucha diferencia. Internet es, en el fondo como una gran base de conocimientos y hay una nueva tendencia que se llama la ‘Cloud-robotics’ en donde cada robot aprende mucha mas rápidamente, porque no esta aislado sino que a través del ‘Cloud’ (La Nube) y de Internet puede tener acceso a información. Y lo que aprende un robot lo puede aprovechar otro robot que está relacionado con el primer robot a través del Cloud o a través de Internet. Hay una aplicación muy divertida en robótica que es un robot que mira un objeto: No lo puede reconocer, y  entonces saca una foto del objeto que está viendo, sube la foto a Internet y usando mecanismo como el del Mechancial Turk que usa también Amazon y es muy probable que de forma colaborativa alguien etiquete la imagen semánticamente y añada una etiqueta (un ‘tag’), por ejemplo: “florero”, no sé, “bicicleta”, lo que sea, ye entonces, el robot ya recibe este ‘tag’ y ha conseguido que le digan qué es aquello que esta mirando y que no sabe lo que es. Esto, en la era pre-Internet era imposible. Entonces, un robot era una cosa aislada completamente que, o tenía los recursos dentro de él, en su memoria, en su sistema, o no podía preguntar, Bueno podía hacerlo a su programador pero estaba aislado y no podía resolver por sí solo su pregunta como sí lo hacen ahora-. Ahora, estas cosas cambian completamente gracias a internet, o sea que la diferencia es enorme.


A.P.: Los Agentes de AI son una pieza fundamental de la gigantesca cibernética que circula y actúa en las redes y en Internet hoy en día: son capaces de realizar miles de ‘negociar’ transacciones por segundo en la Bolsa (es ocurre cada día en la High-Frequency Trading. HFT), cosa imposible para un humano; también son capaces de negociar entre muchas ofertas, comparando y eligiendo la mas rentable. Tengo varias preguntas, de nuevo: ¿Eso no esta muy cerca de lo que serían máquinas (de software) tomando decisiones autónomas? ¿Que diferencia hay entre la negociación entre humanos en comparación con la negociación entre AI Agents?

R.L.M.: Sí, los AI Agents, o ‘agentes inteligentes’ de software toman decisiones autónomas en la Bolsa. Y ha habido crahses de la bolsa cuyos culpables han sido estos agentes que toman decisiones y compren o venden acciones en milisegundos. A ver, no es que negocien nada. No hacen un diálogo con argumentos con nadie, estos ‘agentes-programas de software’. Toman decisiones así, ellos solitos sin negociar con nadie.

A.P.: Pero hacen operaciones de bolsa que duran nanosegundos, algo imposible para un humano.

R.L.M.: Ahí no hay negociación posible. El software compra y vende y punto. Y en base a su programación.

A.P.:¿Y eso es rentable?.

R.L.M.: Bueno, sí claro, pero también ha provocado problemas en la bolsa. Hubo un crash enorme en la bolsa por esta causa. Para mi esto es algo pernicioso. Debería estar prohibido completamente. Habría que quitar estos agentes autónomos de la bolsa y el mercado bursátil. ¿Porqué tenemos en Internet Captchas y todo eso en Internet? Pues para evitar que esto agentes automáticos hagan cosas que nos engañan. ¿Y porqué se permite que estos agentes compren y vendan acciones en el mercado electrónico de la bolsa? Pues no sé. Yo creo que es una burrada que actúen estos agentes autónomos, que son completamente autónomos y que, por tanto, que escapan a nuestro control. Yo creo que siempre debe haber un control. Siempre hemos de tener un control sobre las máquinas, sean físicas o de software. Yo, la autonomía plena, la prohibiría completamente, dentro de la inteligencia artificial.

Ramón López de Mántaras, director del IIIA-CSIC. Foto: Adolfo Plasencia

A.P.: ¿O sea, tú estas contra de que se use la inteligencia artificial para la High-Frequency Trading (HFT), o Negociación de Alta Frecuencia.

R.L.M.: Absolutamente. Habría que prohibir drásticamente que esto, (el HFT), funcione en las bolsas. Están causando muchos muchos perjuicios. Están proporcionando mucho dinero a unos cuantos, pero están perjudicando a la sociedad. A.P.: ¿Cómo se entiende la Innovación en tu disciplina? ¿Se entiende normalmente como algo incremental, o la verdadera innovación en AI emerge cuando hay un cambio disruptivo?

R.L.M.: En general, en ciencia no creo demasiado en la disrupción. La ciencia progresa incrementalmente y te vas apoyando incrementalmente en lo que otros han conseguido, haces mejoras en lo que otros han hecho y los otros, tus peers, tus iguales, mejoran lo tuyo. Es un progreso mas o menos lineal. No creo en la exponencialidad del progreso de la técnica y la tecnología. Esto es falso. No progresan exponencialmente.

A.P.: ¿Entonces no estarás de acuerdo con el argumento de la ‘Singularidad esta cerca’ de Kurzweil, verdad?

R.L.M.: Estoy en total desacuerdo con él. Entre los años 60 y los 80 hubo mas progresos en AI que entre los 80 y 2000. Se ha ido progresando pero linealmente, no exponencialmente. En inteligencia artificial, disruptivo no ha habido nada. Y dudo que algún día haya algo realmente disruptivo y en otras ciencias tampoco. También me puedo equivocar pero lo mas probablemente es que todo vaya cambiando incrementalmente. 


A.P.: te he visto participar ya en dos Jornadas sobre Machine Learning. Sobre el Aprendizaje Automático y el Deep Learning basado en Inteligencia Artificial, se dice que se pueden aplicar, combinado con el Big Data a casi todos los sectores de negocio tanto para análisis y gestión de producción y mercados como para predecir el comportamiento o evolución futura, desde el comercio hasta las enfermedades. Estos términos están en todos los medios, en las noticias, por todos lados. ¿No hay una cierta ‘burbuja’ sobre las virtudes del Machine Learning y de sus aplicaciones?

R.L.M.: Yo creo que es cierto que el Machine Learning (Aprendizaje automático) y el Deep Learning (aprendizaje profundo) por la capacidad actual de procesar con gran rapidez cantidades masivas de datos ha permitido progresos importantes, siempre incrementales, sin ser disruptivos. En cuanto a la aplicaciones de la Inteligencia Artificial para tomar mejores decisiones en todos estos ámbitos empresariales que has mencionado y otros, yo pienso que eso es cierto. Bueno, es inevitable que venga acompañado de una cierta burbuja, de un cierto ‘hype’. Parece que ahora esta muy de moda el término. Da la impresión de que si estás trabajando en Machine Learning y no haces Deep Learning, no estás haciendo nada. Aun se pueden hacer aportaciones en ideas básicas en el primero sin entrar en el segundo. Todas las ideas que están aplicándose en el Deep Learning son de hace diez o quince años. No hay ahora conceptualmente nada nuevo en este campo ahora mismo.

A.P.: Pero es que lo que se está diciendo es que sirve para todo tipo de sectores y empresas.

R.L.M.: Yo creo que sirve para muchísimas cosas. Porque es muy común que en muchos sectores, -mientras haya grandes cantidades de datos que manejar, si no, no-, en donde puedes detectar patrones, tendencias, comportamientos, etc., desde cualquier sector económico hasta los de la salud, pasando por todo lo que te puedas imaginar. La verdad es que se ha abierto y hay un potencial de aplicación brutal.

A.P.: Cuando la gente usa Siri, el asistente personal que Apple ha puesto disponible (si tiene buen ancho de banda) en su iPhone, en su inmensa mayoría no sabe que al otro lado. Al otro de Siri, hay enormes granjas de servidores con una inmensa capacidad de computación e inteligencia artificial, que es lo que hacen que Siri le hable y contesta a sus preguntas de modo ubicuo, es decir en cualquier momento y lugar. La gente lo usa cómodamente en su vida cotidiana pero ni se imagina todo esto ¿No crees?

R.L.M.: es verdad que no lo sabe y no lo pensamos.

A.P.: Pero si ha AI ha llegado aparentemente tan fácilmente a nuestra vida cotidiana, el paso siguiente podría ser que la Inteligencia artificial que hasta ahora era algo propio de grandes corporaciones y empresa globales, también llegue pronto a las pequeñas y medianas empresa para que lo usen en sus negocios, ¿Ese seria el siguiente paso de la AI en las empresas? ¿El que una Pyme puede usar la inteligencia artificial en su actividad cotidiana?

R.L.M.: Sí, claro que es posible y puede ser. Eso esta cercano. Mira lo que hace la misma BigML que tiene su centro de desarrollo en Valencia, en España. Tú ya no tienes que tener los servidores y la gran capacidad de cálculo que hay detrás de la AI. Es el Sofware As A Service (Software como Servicio), el software en tanto que servicio. Por usar una comparación, es como al agua corriente. Abres el grifo y tú consume la cantidad de agua que necesitas hasta que cierras el grifo, igual que la cantidad de electricidad del contador de tu empresa. Ahí puede tener tus datos, mayor o menor en función de la actividad de la empresa; cargar estos datos en la plataforma de Big ML y sacar partido de toda esta tecnología basada en AI desde tu empresa y para tu empresa de una forma poco costosa.

A.P.: Un poco las pequeñas empresas como ‘usuarios casuales’ de la AI y sus aplicaciones para las empresas.

R.L.M.: Sí, claro es un uso muy transparente. El usuario, la empresa, no tiene porqué saber cómo funciona los algoritmos de aprendizaje profundo, ni nada. Una empresa puede ser, sí, usuario casual o permanente o usarlo en parte cada día, como quien abre el grifo cada día o como quien conecta la electricidad cada día como te he dicho. El SaaS es un concepto muy interesante.


A.P.: En relación a la AI, también hay quien vislumbra amenazas. A pesar de que Rodney Brooks publicó en noviembre pasado un artículo llamado “La inteligencia artificial es una herramienta, no una amenaza“, Stephen Hawking ha afirmado en la BBC que “El desarrollo completo de la inteligencia artificial podría significar el fin de la raza humana.” Imagino que sabrás sobre La polémica sobre la Ética de los Robots y la posible (probable para algunos) ‘amenaza’ de la AI encarnada sobre todo en forma de ‘Armas Letales Autónomas’. Dicho debate se ha multiplicado cuando nombres de mucha importancia de la tecnología como Elon Musk, CEO de Tesla, o Steven Wozniak co-fundador de Apple, junto a miles de investigadores de todo el mundo (entre ellos alguno de vuestro IIIA), han suscrito la ‘Carta Abierta del Instituto para el Futuro de la Vida’, titulada “Research Priorities for Robust and Beneficial Artificial Intelligence” en la que marcan ‘prioridades’ de investigación para la AI. ¿Crees que pueden, aplicaciones de la AI, como las armas letales autónomas’, convertirse en una Amenaza para la humanidad como aseguran algunas figuras relevantes del mundo tecnológico? ¿Crees que al investigación en AI debe ‘auto-inhibirse’ en relación a su futuro? ¿Cuál es tu posición al respecto como científico?

R.L.M.: Actualmente, la Inteligencia Artificial, mas que como amenaza ya hay que tener en cuenta que viene aplicándose con una serie de problemáticas y riesgos. Las armas autónomas son ya una amenaza muy real, desde luego que sí. Se está trabajando en ello, por ejemplo en EE.UU., construyendo robots-soldad, drones con capacidades autónomas para disparar o no, sin que un ser humano intervenga en esa decisión. Esta es una amenaza muy real. O la de la privacidad: la verdad es que la estas tecnologías han contribuido a que ya no tengamos vida privada, actualmente. Todo esto no es que sea una amenaza, es que ya está aquí. Yo pienso que sí, que hay que poner limitaciones. Algunos investigadores sí nos oponemos. En mi instituto nos negamos absolutamente a trabajar en prontos militares de robots soldados, etc. No vamos a hacer nada de todo eso. La comunidad es libre. Hay cantidad de mis colegas que están trabando en temas militares, sin ningún problema de conciencia. A mí me sabe mal pero no puedo hacer nada. Mi posición es clarísimamente en contra. Lo que estamos intentando algunos es que la ONU haga una resolución igual que hizo con las armas química y bacteriológicas. Ya hicieron una resolución en contra de las ‘Lethal autonomous weapon’ (Armas letales autónomas), pero siempre habrá mercados negros y gente que las fabrique. Hay muchos interese económicos y la industria del armamento es un lobby muy potente. Por mucho que algunos protestemos, inevitablemente y desgraciadamente, acabará habiendo armas autónomos. Estamos haciendo cosas… en la humanidad se están también haciendo cosas completamente locas, guiados por la única ambición y avaricia del dinero y esto pasa por encima de cualquier consideración ética. Pero bueno, tenemos derecho al pataleo, a llamar la atención a la opinión pública y a lo mejor sí, si una gran mayoría se pone en contra, igual podemos frenar algo esto. Pero en algún lugar acabarán apareciendo.

Parte VIII. SOBRE EL IIIA (Instituto de Inteligencia Artificial del CSIC).

En el IIIA (Instituto de Inteligencia Artificial del CSIC), que tú diriges, mantenéis tres líneas principales de investigación: la lógica, el razonamiento y la búsqueda; El razonamiento y el aprendizaje basado en casos; y los agentes y sistemas multi-agente inteligente. Estas líneas de investigación se aplican a muchos ámbitos comerciales y de negocios como los mercados electrónicos, las ‘tecnologías de acuerdo’, la medicina, la música, la información de privacidad / seguridad y robots autónomos. ¿Puedes describirnos vuestras actividades investigadoras? ¿Como es vuestra relación con el tejido empresarial, con que tipo de empresas colaboráis y cómo son los tipos de aplicación práctica ahora mismo en el mundo de la empresa?

R.L.M.: Estamos colaborando todo tipo de sectores, desde el sector salud hasta el de logística y transporte o turismo, en todos esos ámbitos que has mencionado. La inteligencia artificial es que es aplicable a todo. Es aplicable prácticamente al 100% de cosas. No hay nada en lo que la AI no pueda ser útil. Hemos trabajado en todos estos sectores que te he mencionado, hasta en entretenimiento o la TV, para resúmenes automáticos de partidos de fútbol, o en Fórmula 1, por ejemplo. Tenemos una unidad de transferencia de tecnología que coordina toda nuestra actividad con empresas y sectores.

A.P.: Entonces eres optimista.

R.L.M.: Soy optimista para esta Inteligencia Artificial que es útil, socialmente responsable, funciona muy bien y nos ha servido para hacer hasta cuatro empresas spin-off que han creado entre 100 y 150 puestos de trabajo de alta cualificación. Tenemos una muy buena experiencia de transferencia de tecnología en nuestra actividad compartida con empresas.

A.P.: Muchas gracias, Ramón.

R.L.M.: Gracias a ti.


Publiqué una síntesis de esta conversación con Ramón López de Mántaras en el Suplemento INNOVADORES de El Mundo, con el título: “Deben prohibir los robots con inteligencia artificial en Bolsa”


06/05/2017, escrito por Adolfo Plasencia

Apple, Google y el Reino de Tonga

Qué van a hacer los directivos de Google y Apple al Reino de Tonga

por, Adolfo Plasencia

Tonga 550px

Las islas Uoleva y Pangai, del  Reino de Tonga.

¿Que tiene que ver Apple, la empresa más valorada del mundo hoy, con Tonga?, -(oficialmente, el ‘Reino de Tonga’)-. Más de lo que parece. Y mucho más de lo que cualquiera podría imaginar hasta no hace mucho. A la mayoría Tonga le sonara a destino exótico de vacaciones. Y en cuanto busque Vd. en Google Maps, verá que es un conjunto de minúsculas Islas a medio camino entre Australia y la Polinesia francesa casi en el norte de Nueva Zelanda. ¿Es el destino de descanso remoto de Tim Cook y los ejecutivos de al empresa de la manzana?. Nada de eso. Es por algo mucho más interesante. El abogado Roberto Ledesma, miembro del Comité de la International Trademark Association (INTA) lo contaba hace ya tiempo en su página Web. Le puso sobre la pista ya hace bastante tiempo una noticia sobre las dificultades que tuvo, otro gigante de la tecnología, Google, para registrar la marca ‘Google Glass’. Al revisar la solicitud de la empresa vio asociada el nombre de Google y el esa lejana geografía: Tonga. El documento en que lo vio llevaba el membrete de la USPTO (United States Patent and Trademark Office), es decir, la Oficina estadounidense de Patentes y Marcas. ¡Vaya!

Resulta que el Reino de Tonga es un país y además un país signatario de acuerdos internacionales de marcas. Y como nos lleva esto a relacionarlo con Apple. Pues bien, veamos algunos detalles y ataremos cabos. En septiembre de 2014, en la presentación de los nuevos iPhone 6 y 6 Plus de Apple, fueron mencionados un millones de veces en twitter en su solo día. Y hay otro cosa interesante. En las búsquedas de Yahoo! la gente conectada hacia lo propio pero buscando, no el “Apple Watch’ que es la marca oficial sino que por centenares de miles buscaban “Apple iWatch”. Por otra parte, el ‘Evento’ de Apple en septiembre de 2015 fue mencionado solo en twitter 2,45 millones de veces. ¿Tiene que ver esto con las ventas? Por supuesto. ¿Tiene que ver con los dimensionamientos de las previsiones de producción a gran escala y su cadenas de suministro? También. El que esto es importante, lo demuestra que Apple compró una startup relacionada con el ‘Twitter Analitics’. La empresa de llamaba Topsy Labs, y pagó por ella más de 200 millones de dólares. Todo el mundo se hizo cábalas sobre esta adquisición entonces sobre los motivos. Muchos analistas especularon sobre factores tecnológicos y va a resultar que el verdadero motivo es lo que viaja por esas ‘menciones’ en Twitter y en las búsquedas: las marcas. Ahí es donde encajen Apple y Tonga. Una clave esta en el proceso de registro de marcas en EE.UU. y su proceso según las leyes federales. Si no te aceptan el registro de una marca en la oficina de marcas americana, USPTO, dicha marca no será viable. Así que hay que seguir un proceso de solicitud de registro de marca de cuatro pasos (o secciones) como relata en su explicación el abogado Ledesma: a) primero, sección 1, argumentar que se trata de una marca para comercial en EE.UU.; el segundo, (sección 1 también), el paso dos que hay buena fe en su uso; después, el paso tres; -y esto es lo bueno-, sección 44, (d): petición de prioridad de registro “basada en una solicitud extranjera presentada dentro de los 6 meses siguientes a la solicitud de EE.UU.”; el siguiente paso el registro extranjero, en el que se basa dicha solicitud y, por último el paso 5º que es el de la extensión del registro internacional a través de Protocolo de Madrid WIPO / [ ]. ¿Interesante verdad?. Resulta que uno de los pasos que siguen todas esta marcas conocidas a nivel mundial es el ‘The Madrid sistema’ , oficialmente ‘The Madrid sistema for the international registration of marks‘, un protocolo que entró en vigor desde su firma en Madrid, el 1 de abril de 1996, pero que se administra Organización Mundial de la Propiedad Intelectual (OMPI), en Ginebra, Suiza. Este sistema permite Ya hay 90 países registrados en el ‘Sistema de Madrid’. El sistema de ‘Protocolo de Madrid’ ofrece un registro internacional de marcas por medio de una aplicación que puede cubrir más de un país. La oportunidad de tener un único registro para cubrir una amplia gama de países da ventajas, en comparación con una cartera de registros nacionales independientes. En Wikipedia haya una detallada página Web en inglés . La versión en español se llama el “Arreglo de Madrid“.

Pues bien, cuenta Ledesma que él ya ha comprobado varios casos en que Google y Apple han aprovechado este proceso ‘silencioso’ para conseguir beneficio de una fecha temprana antes de que haya una filtración sin tener que revelar sus planes de nuevas marcas. Se supone que los actos de registro de una patente y una marca son un acto público, pero hay tanto en juego que cuando va a registrar una marca, acuden a países inverosímiles, pero que han firmado el acuerdo de Madrid, como: ¡El Reino de Tonga! De ahí el título de ese articulo. Y, ¿por qué?, pues sobre todo por que muchos registros de esos países no están on-line: El de Tonga está en este link. No es fácil que se busque allí o en otros países signatarios como Trinidad and Tobago; Bután; Belice; Isla Mauricio; Barbados; Seychelles; Papúa Nueva Guinea; y muchos más. Todos sirven para pensar en registrar marcas con discreción casi absoluta. ¿Dónde se registraron algunas marcas muy famosas, en lugares muy exóticos, pasando a través del ‘Arreglo de Madrid’? Algunos ejemplos concretos en los que se ve la evolución: la marca “iPod”, fue registrada en Suiza por Apple en agosto de 20012; pero “Apple TV”, se registró el 13 de Noviembre de 2006 en Trinidad and Tobago; “iMessage” la registró Apple en Trinidad y Tobago, el 14 de marzo de 2011, fue dada por válida por la USPTO de EE.UU. 14 de septiembre de ese año y fue anunciada el 6 de junio de ese año; y “Apple Pay”, el 19 de junio de 2014 en Jamaica, se aceptó en diciembre en EE.UU., fue anunciada por la empresa de la manzana el 9 de septiembre de ese año. Pero a quién le ha gustado posteriormente Tonga es a Google, que registró la marca “Google Chromecast” el 5 de junio de 2013 en el Reino de Tonga. El caso de la marca “Android Pay” es muy expresivo: Google la registró en el Reino de Tonga el 23 de febrero de 2015 y el 21 de agosto de se mismo año fue aprobada donde EE.UU. “Android Pay” se anunció como servicio por Google el 28 de mayo de 2015. Esto es un ejemplo de caso de hacer cierto tiempo, pero me consta que este ‘juego de tronos’ con los nuevos nombre comerciales continua con los mismos métodos y no solo en Tonga sino en lugares aún más exóticos.

Así que si algún ejecutivo de estas empresas dice que se va de vacaciones alguna isla del Pacífico, del Índico o del Caribe, no le crean, se va a trabajar para su empresa, por cierto, casi en secreto.

21/03/2017, escrito por Adolfo Plasencia

Arduino: el triunfo del hardware libre.

David Cuartielles es un ingeniero electrónico, nacido de Zaragoza, docente en universidad pública de Malmö en Suecia, en donde también investiga en objetos conectados y herramientas educativas y único español de equipo de cofundadores de Arduino, una palabra de las mas pronunciadas en el mundo de la tecnología que da el nombre también a una startup convertida ya una micro-multinacional debido al éxito de mundial de su placa electrónica con microcontrolador, por Adolfo Plasencia. 

Arduino es, al tiempo, una plataforma de creación de prototipos electrónicos de código abierto basado en flexibilidad, hardware libre, bajo coste y software fácil de usar pensado para compartir. Está dirigido a artistas, diseñadores, aficionados y cualquier persona interesada en la creación de objetos o entornos interactivos. El microcontrolador de la placa se programa mediante el lenguaje de programación Arduino (basado en Wiring) y entorno de desarrollo Arduino (basado en Processing). La placa Arduino puede ser independiente o se pueden comunicar con el software que se ejecuta en un ordenador (por ejemplo, Flash, Processing, MaxMSP). Mediante ella se puede controlar desde un PC, todo tipo de sistema mecánicos, sensores, motores, etc.

Arduino, es en realidad, consecuencia lógica de la Ley de Moore que dice que cada 18 meses los chips duplican su capacidad de calculo, al tiempo que reducen su precio y tamaño a la mitad, que lleva vigente cincuenta años. Así que de la misma forma que un PC Raspberry Pi es un PC completo que cabe en la mano, la placa Arduino también cabe en una mano. Juntos, puede forma un sistema que por menos de 50 euros en total pueden sustituir con su misma eficiencia a sistemas para control de sistema mecánicos, control numérico, sensores, motores o actuadores, que aun hoy tienen un coste 200 veces mayor. Aunque fue pensado inicialmente para los entornos de educación y de creatividad artística y de diseño, (Arduino recibió una Mención de Honor en la sección de Comunidades Digitales del Ars Electronica Prix de 2006), su planteamiento abierto (Hardware + Software libre) le da una enorme potencia para la empresas, sobre todo para las Pymes, que mediante Arduino tiene acceso a un coste doscientas veces menor y a sistemas que pueden personalizar para su producción y su productos ya que las placas pueden ser construidas a mano o compradas pre-ensambladas cuyo software personalizable se puede descargar de forma gratuita. Sus diseños de referencia de hardware (archivos CAD) están disponibles bajo licencia de código abierto, que son libres de adaptarlos a necesidades específicas de cualquier mercado y campo empresarial.

A pesar de que el sistema Arduino ya que muy conocido en los foros de hackers y de creatividad digital y en el mundo universitario, aún es un gran desconocido para las empresas y para el público en general.

David Cuertielles 500pxDavid Cuartielles, uno de los co-fundadores y creadores de Arduino, en el Campus de la Universidad Politécnica de Valencia. Foto: Adolfo Plasencia.

David Cuartielles, el único español de equipo de co-fundadores de Arduino, es un auténtico sabio de la informática a pesar de su edad. En un placer charlar con el del mundo de lo digital. Por fin en una de sus breves visitas a España, tras mucho intentarlo, he conseguido dialogar con él con cierta tranquilidad y en profundidad, lo que dada su agenda, viajes y lugar de residencia, no es fácil. Dado el poco tiempo de que dispone, va directamente al grano. “Arduino, -relata David-,  comenzó como un sistema electrónico para enseñar como funciona el mundo digital a diseñadores y artistas. Pero Arduino ahora no solamente es una placa de hardware. Es un ecosistemas de placas de semiconductor, documentación de cómo usarlas y un sistema de programación, un software que permite programarlas de forma muy sencilla y que hace completamente estándar el idioma entre diferentes plataformas tecnológicas; por ejemplo tenemos una placa redonda que se llama Arduino Liliiput que se emplea para hacer ordenadores llevables en la ropa (wareable computers). La idea de que algo puede funcionar en diferentes usos y plataformas con un mismo código fuente es muy potente”.

Y ¿cómo fue el arranque de vuestro proyecto y vuestra startup?, -le digo-. “Arduino (la empresa y el ‘proyecto’), -contesta David-, lo formamos cinco personas: Tom Igoe, que es profesor de la Universidad de Nueva York; David Mellis, un doctorando del MIT; Massimo Banzi, que ahora es el director de la empresa Arduino; Gianluca Martino,  que es el responsable de hardware y, yo mismo. Tenemos una colaboración muy cercana, Daniella Antonetti que es socia en una empresa de Gianluca. Todo comenzó porque yo tuve un intercambio de investigación con la escuela de Diseño interactivo de Ivrea en Italia, financiada por Telecom Italia, a donde furia para desarrollar un sistemas electrónicos para controla vía inalámbrica interfaces y dispositivos físicos. Tuvimos muchos problemas porque no teníamos accedo al código fuente que comandaba una de las placas. hartos de es problema, propuse a Banzi que porqué no hacíamos nuestra propia placa nuestra encargándome yo del hardware. Mellis estaba desarrollando un software para hacer funcionar los circuitos de esas placas base, así que de esa conjunción nació ‘Arduino’ que es, como circuito electrónico es un periférico a un ordenador que te permite conectar a dispositivos del mundo físico y controlarlos desde ese ordenador. Un ordenador tiene un ratón, o trackpad, y un teclado y esa es la forma que interactuar con el mundo físico. Pero no es fácil conectarlo a un sensor, a un motor. En cambio, Arduino es un periférico genérico que te permite conectar sensores, motores, lámparas de alto voltaje, lo que se quiera y todo ello controlarlo desde el ordenador. Esto no se había hecho antes de forma que fuera sencillo hacer ni tampoco barato. Una de las claves de Arduino es que lo introducimos inicialmente en un nicho educativo y muy creativo, en el que había una disfunción: esa comunidad creativa usaba Mac para diseño y el desarrollo estaba separado de ella porque era casi todo del mundo Windows y en algún caso para Linux, -como sucede en las empresas, la creatividad era Mac, y la gestión era toda Windows-“.

“Nosotros,-continua-, creamos desde el principio una herramienta multiplataforma que corre en todos los sistemas. No importaba que ordenador tuvieras. El sistema de desarrollo de Arduino iba a funcionar sí o sí. La gente lo probó y se fue corriendo la voz de que ya había una herramienta que podía usarse casi por cualquier persona para la creación de sistema electrónicos que funcionaba en cualquier ordenador. Se sorprendían de que un diseñador, de pronto estuviera construyendo un robot, cuando antes no tenia el menos interés por la matemáticas, la física o la mecánica”.

David Cuartielles blog 500 xDavid Cuartielles, sostiene un ‘Arduino’ en su mano. A la derecha, arriba El Arduino UNO, y debajo el ‘Arduino Leonardo’. Fotos Adolfo Plasencia

Arduino sirve para muchas cosas. Pero ¿cómo podríamos explicar a la gente, o  qué podemos decir para que cualquiera, puede hacerse una verdadera idea de su enorme potencial?, -le pregunto-. “Yo diría, -responde-, que Arduino ha servido para que surjan oportunidades para personas que antes ni se las podían plantear, al tiempo esta transformando la forma en que educamos muchísima gente y, pro supuesto esta sirviendo para trasformar lo que seria el tejido industrial porque permite la creación de máquina muy sencillas, minimizando el coste en investigación y desarrollo y democratiza el acceso a la tecnología de personas y empresas porque hay otro factor esencial esta diseñado para ser muy económico y por ello, fabricantes y diseñadores que trabajan a pequeña y mediana escala ya no se plantean rediseñar toda la circuitería electrónica de sus productos; ahora se plantean insertar un Arduino en sus productos (precio y tamaño lo permiten), porque les facilita y mucho el proceso productivo. Una de los ejemplos es la impresión 3D. La impresión 3D abierta emplea Arduinos como inteligencia de sus impresoras para la fabricación personalizada. Uno de los aspectos mas importante es el coste. Cuando introducimos Arduino, conjunto del sistema que costaba mas de 1.000 euros fue sustituido por la placa Arduino que costaba 25 euros. Pasar de un coste de 1.000 a 25 es un tremendo cambio de escala económica”.

El paradigma del hardware libre (Open Hardware)

Y crees. le digo-, que el ‘hardware libre’ tiene la connotaciones y puede explotar tal como el software que pasó de Stallman y de ahí se acumuló en Linux, después fue maltratado por la industria tecnológica pero finalmente en la red se ha reencarnado en gigantes de éxito mundial como Google, Facebook, twitter, etc.?. “El hardware libre, -contesta , rotundo-, tiene sus propias especificidades. Nosotros no establecemos un dogma como en su día hizo Stallman. Lanzamos Arduino como fuente abierta sin licencia para que cualquiera lo pudiera usar sin restricciones, pero aunque nos lo preguntaron, creímos que éramos demasiado pequeños para definir nosotros lo que era el ‘hardware libre’. Queríamos que fuera un proceso mucho mas democrático y que incluyera la industria. Alguien tiene que fabricarlo, distribuirlo, mantenerlo, es físico también. Así que lo que pasó fue que se creó un foro global de debate: el ‘Open Hardware Definition’, -que yo traduje al castellano-, para debatir cual deberían ser la bases del ‘hardware libre’, pero no creemos una licencia , porque no teníamos alguien preparado para eso. Empezamos un grupo pequeño pero muy rápido se expandió por el mundo y se reunieron mas d trescientas personas, empresas e instituciones de todo tipo. Una de ellas era el CERN (allí se invento la Web, pro cierto). Y el CERN, lo que hizo fue contratar un abogados adecuado, que redacto la licencia que establece la libertades del hardware libre y que ya puede ser utilizada por cualquiera que quiera crear,  fabricar y usar ‘hardware libre. Se llama ‘CERN Open Hardware Licence’ y esta en una Web abierta que ha publicada por el CERN llamada OPEN HARDWARE REPOSITORY . Arduino no fue quien lo creó el hardware libre, pero sí desarrolló el primer proyecto de hardware libre exitoso de la historia, y después han vendido muchos mas. Lo que si hizo Arduino es crear las bases para operar así y demostrar podemos trabajar con tecnología libre y al tiempo generar negocio tanto para nosotros como para nuestro entorno”. Y esas pegas que ponen mucho inversores de la tecnología?, -le digo-. “Ya se que ellos piensan que no se puede hacer negocio con la tecnología libre. Pero nosotros lo creemos y lo estamos de mostrando. Arduino también es una empresa, pequeña pero una multinacional al fin y al cabo, que ya ha conseguido fabricar y distribuir mas de un millón de placas Arduino, aunque si costamos las que han hecho otros ya habrá mas de tres millones funcionando en todo el mundo”.

David cuertielles blog 3 500pxDavid Cuartielles, en el Campus de la Universidad Politécnica de Valencia. Foto: Adolfo Plasencia.

El futuro de Arduino

Y, ¿cuales el futuro de la empresa ‘Arduino’, -le digo-. Contesta de inmediato:  “Hay tres líneas de trabajo distintas: una es educación . Creemos que formar de tecnología en la universidad es demasiado tarde, hay que empezar en escuelas y colegios. Las personas deberían maneja tecnología digital y programar al tiempo que se aprende a escribir y a leer. la tecnología esta en todas partes y hemos de tener una forma de traerla a todo el mundo, cuento antes mejor. Las segunda línea de trabajo es ‘objetos conectados’ (el internet de las cosas); como puede prepararse, programarse, que le gente puedan gestionar sus máquinas conectadas. Un ejemplo es el Arduino GRM que hemos hecho con celebración con Telefónica para facilitar la conectividad, e incluía el ayudarles a crear un modelo de negocio que les permitiera monta una placa aquí que alguien se la llevara a Chile y empezar a transmitir datos desde Chile sin abrir la caja e intentar resolver ese problema que tienen: dar cobertura mundial en las redes que existen ahora mismo, de forma inalámbrica”. ¿Y la tercera?, -le pregunto-. “La tercera, -dice-, es la de nuevas plataformas de hardware que incluyen, claro, el cómo tu lo programas, y los usas: como le decimos a una máquina que le diga a una tercera o a otras, que debe hacer y que lo haga”.


Arduino, el hardware libre y el CERN

David me cuenta como se fue gestó la relación entre el hardware liber y el CERN “Lanzamos la placa electrónica Arduino como fuente abierta sin licencia para que cualquiera la pudiera usar sin restricciones. Creíamos ser demasiado pequeños para definir nosotros solos qué era el ‘hardware libre’. Queríamos que se definiera en un proceso democrático y que incluyera la industria Así que, ayudamos a lanzar un foro global de debate, el ‘Open Hardware Definition’, -que yo traduje al castellano-. Empezamos un grupo pequeño y pronto se extendió por el mundo, sumándose miles de usuarios, empresas e instituciones, para debatir cuáles debían ser la bases del ‘hardware libre’. Una de ellas era el CERN (allí se invento la Web). El CERN contrató un abogado experto, que redactó la licencia que establece la libertades del ‘hardware libre’ que ya puede ser utilizada por cualquiera para crear, fabricar y usar ‘hardware libre’. Se llama CERN Open Hardware Licence.  Arduino, ademas ayudó a crear las bases para operar así y demostrar podemos trabajar con tecnología libre y, al tiempo, generar negocio tanto para nosotros como para nuestro entorno”. También impulsamos la educación. Las personas deberían manejar tecnología digital y programar al tiempo que aprenden a escribir y a leer. La tecnología esta en todas partes y hemos de conseguir una forma fácil de traerla a todo el mundo, cuanto antes mejor”.

Tim Berners-Lee me dijo que cuando creo el primer software de al Web y el primer servidor en el CERN no se imaginó en absoluto en lo gigantesco que se ha convertido la Web. ¿Os imaginabais vosotros le repercusión mundial que podía alcanzar Arduino?. –le digo-. “Claro en no, -contesta-. Nosotros empezamos a generar diseños de referencia que los dábamos libremente a fábricas que los suministraban a alumnos de todo el mundo y a cambio simplemente recibíamos un descuento en nuestra electrónica y material para nuestra clases. Fue creciendo mucho y nos dimos cuenta de que había que dar un soporte real y que había que trabajar para que la cosa funcionara bien. El ultimo año, se ha duplicado la producción de la suma de los años anteriores. llegamos a un millón de placas de hardware Arduino. Jamás pudimos imaginar que esto iba a ser así: tanta copia de Arduino; placas derivadas, clones ni que iba a entrar en todas las universidades en toda América, toda Europa y parte de Asia. Los números que tenemos son: sabemos que hay mas de un millón de placas oficiales de Arduino; nuestra software se ha bajando en al red exactamente 4.953.103 veces (lo mire antesdeayer para una conferencia que di ayer en Dublín); y tenemos 100.000 visitas al día en nuestra página web. Fácilmente habrá mas de tres millones de placas de hardware libre funcionado en el mundo”. ¿Vosotros sois una industria fuera de al industria informática. Los grandes de la informática os consideran aun demasiado pequeños como competencia?, -le digo-. “. Bueno. –responde, con rictus de escepticismo-. Hemos tenido varios contactos. Con Google en principio tuvimos un no-contacto. Desarrollaron todo una gama de accesorios basada en una placa de Arduino, no se comunicaron con nosotros. Es libre y lo pueden hacer. Lo que paso es que luego tuvimos que dar soporte a su diseño porque los usuarios empezar e venir a nuestra pagina preguntado. Finalmente si hubo contacto y ahora nos llevamos muy bien. Otra empresa grande fue Telefónica. Aprendimos mucho con ellos, cómo trabajar con empresas muy grandes. Al principio al industria no nos tomaban en serio, desde hace un para de años sí. El hecho de que Google haya venido a nosotros finalmente, Telefónica… somos una startup nacida hace siete años ya pero son mucho potencial aun y en unas semanas lanzaremos un nuevo producto: el robot Arduino. Hay mas cosas pero ahora no las puedo decir…”.

David, aunque eres profesor e investigador, también eres emprendedor ya que Arduino también es una Startup: ¿Como ves Arduino como herramienta para transformación innovadora del tejido industrial a la que te has referido antes?, -le digo-.  Esboza una sonrisa y continúa: “Arduino, por la naturaleza de las Licencias open source, tiene un doble valor dentro de una empresa. Por una parte, se puede utilizar tal y como es dentro de productos y servicios, sin tener que cerrar un acuerdo por uso de licencias, -ni pagar pro ellas-, se puede modificar el software y hacer de eso el valor añadido del producto de una determinada empresa (al final Arduino es un ordenador embebido de propósito especifico). Por otra parte, los diseños de Arduino son libres, lo que permite a empresas crear nuevos dispositivos construidos a partir de los ficheros fuentes del hardware de Arduino. Esto es algo que ya hemos visto por ejemplo en el mundo de la impresión en 3D personal. Los fabricantes de impresoras como Makerbot (recientemente adquirida por Stratasys por 400M$ ) o Ultimaker utilizaron durante mucho tiempo la placa Arduino Mega como ‘inteligencia’ de su sistema. Al tiempo pasaron a fabricar sus propias placas basadas en los diseños de referencia de Arduino que se pueden descargar directamente de nuestra pagina web”.

Incluso en estos tiempos de dificultades económicas y empresariales, el ecosistema de empresas que mas empleo crea en España es el de las Pymes y el de las micro-empresas que son casi el 92% del tejido empresarial español, -le señalo-. ¿Como podemos explicar, -le digo-, las formas en que puede ayudar a ése entorno de Pymes el ‘ecosistema Arduino’? Y ¿crees que puede revolucionarlo tanto como lo está haciendo con el entorno educativo y creativo? “Como siempre, -contesta-, depende del campo de trabajo de las citadas empresas. Hay empresas que no tienen nada que ver con la tecnología embebida y que poco pueden beneficiarse de la aplicación de estas tecnológias a su entorno. Sin embargo, hay otras que necesitan de pequeños sistemas de control que antes costaban una fortuna producir y que ahora, gracias a Arduino y a sistemas derivados, se pueden construir por una fracción muy pequeña de ese precio anterior. Algunos ejemplos que podría citar, por ejemplo podrían ser: sistemas de control de invernaderos, pequeños autómatas de control, riego controlado por GSM, redes de sensores … todos estos casos se ven beneficiados por el ecosistema introducido por Arduino, que permite crear entornos de bajo coste y en tiempo record, ya que Arduino permite acelerar el proceso iterativo de creación de productos al permitir hacer muchas pruebas sobre diseños en espacios reducidos de tiempo”.

Muchas Gracias, David, -le digo-, y contesta: “Gracias a ti, Adolfo”.


Una sintesís de este diálogo se publico en el Suplemento INNOVADORES de El Mundo, el 15 de julio de 2013, como historia de portada.

20/10/2013, escrito por Adolfo Plasencia

Somos lo que elegimos (Jeff Bezos)

Jeff Bezos 500 Big DataJeff Bezos fue un pionero del Big Data con sus ‘granjas de servidores’ para Amazon

Jeff Bezos fundó Amazon en 1994. Nacido en Alburquerque, recibió el apellido de su padrastro, el cubano Miguel Bezos, a su vez de ascendencia española, e hijo del español Félix Bezos, natural de Villafrechós (Valladolid). Tras estudiar Ingeniería Eléctrica e Informática en la Universidad de Princeton de donde se graduó en 1986, trabajó para una empresa del sector de fibra óptica y luego en Wall Street. En 1994 se decidió a emprender y fundó una librería on-line llamada en el garaje de una casa que habían alquilado con su esposa Mackenzie en Seattle. Allí instalaron tres servidores con los que comenzaron a procesar la información de su web, que registró la venta de su primer libro el 16 de julio de 1995. Parece ser que cambió el nombre de su empresa por Amazon, al poco tiempo, para que la inicial le posicionara mejor en los listados de páginas web que entonces estaban ordenados alfabéticamente, y así consiguió que Amazon comenzara a aparecer en los primeros lugares de los buscadores. Fue una de las primeras y rudimentarias estrategias SEO. En pocos meses su web logró alcanzar más de 2.000 visitantes diarias, y al año siguiente consiguió multiplicar por 25 dicha cifra. Pronto, Bezos auguró que el comercio electrónico para el mundo editorial se convertiría en un negocio mucho mejor que el tipo de mercado convencional de libros. Ello le granjeó desprecios varios de las poderosas industria editoriales y de influyentes medios de comunicación que le criticaron la insolencia de su vaticinios; entre ellos, los columnista especializados del periódico políticamente mas influyente de EE.UU.: The Washington Post. Menos de una década después, en agosto de 2013, Jeff Bezos ha comprado el Washington Post pagando 250 millones de dólares en efectivo de su dinero personal. No esta claro si lo ha comprado por razones de negocio o personales.

El 30 de mayo 2010, Bezos pronunció el discurso de graduación de 2010 en la Universidad de Pricenton, que tenía un título nada determinista: “We are What We Choose” (Somos lo que elegimos). Fue un discurso muy breve que contenía mas preguntas que afirmaciones. Preguntas que él dirigía a los jóvenes universitarios para que se las hicieran a sí mismos. Preguntas como estas:

¿Cómo vas a utilizar tus dones? ¿Qué decisiones vas a tomar ?

¿Será la inercia tu guía, o vas a seguir a tus pasiones?

¿Vas a seguir los dogmas, o serás original?

¿Vas a elegir una vida cómoda, o una vida de servicio y aventura?

¿Vas a debilitarte por las críticas, o vas a seguir tus convicciones?

¿Dirás Uuff! que cuando te equivoques, o pedirás disculpas?

¿Vas a proteger tu corazón contra el rechazo, o vas a actuar como cuando te enamoras?

¿Jugarás a lo seguro, o vas a ser un aventurero?

¿Cuando te sea todo difícil, vas a renunciar, o vas a ser implacable?

¿Te convertirás en un cínico, o vas a ser un ‘constructor’?

¿Vas a vivir a expensas de los demás, o querrás ser el protagonista?

… y finalizó  diciéndoles: “…finalmente, vuestra vida será la suma de decisiones que hayáis tomado. Al final, (todos) somos nuestras elecciones”.

No se si esto lo ha aprendido con la experiencia de crear y hacer crecer Amazon. Desde luego, se cumplió lo que él vaticinó sobre Internet y los libros: “Los libros no están muriendo, simplemente, se están volviendo digitales”. Quizá los columnistas del Washington Post, le empiecen a creer ahora que es el dueño, además de que fue de los primeros que invirtió también en twitter que esta a punto de salir a Bolsa valorado en 15.000 millones de dólares.

Jeff Bezos princpeton 500Jeff Bezos pronunciando el discurso de la Ceremonia de Graduación 2010 de la Universidad de Princeton, en la que estudió ingeniería eléctrica e informática, y donde él mismo se graduó en 1986 (foto: Princenton Photos / Denise Applewhite).


Este post se publicó en forma de columna en la página 4 del Suplemento Innovadores del Diario El Mundo, el 23 de setiembre de 2013.

03/10/2013, escrito por Adolfo Plasencia

Wikipedia: un diálogo con Jimmy Wales

Wikpedia un miilón de articulos¡Wikipedia ha superado esta semana el millón de artículos en español,

exactamente el 16 de mayo de 2013!

¡Felicidades a todos los usuarios de wikipedia en español!

Como homenaje, incluyo en este post una entrevista que hice con el fundador de Wikipedia Jimmy Wales.

Introducción. El concepto Wikipedia

Wikipedia es una versión electrónica de las enciclopedias en papel. Los primeros pasos en la utilización de artefactos automáticos que superasen la imprenta como medio más ágil y práctico de acceso a los contenidos enciclopédicos se dan ya en la década de los años treinta con la novela de ficción de H. G. Wells The Idea of a World Encyclopaedia (1936) y El Cerebro del Mundo (1938) –El cerebro del mundo es una visión de Wells acerca de una vasta enciclopedia impresa de todo el conocimiento humano-; la visión futurista de Vannevar Bush,  que en su ensayo Como podemos pensar (1945) describe un dispositivo llamado ‘memex ‘, que tendría el tamaño de un escritorio, almacenaría los libros y otros materiales en microfilm, y tendría la capacidad de vincular documentos para almacenar toda la información relevante de una persona (idea expuesta posteriormente en su obra de 1945 As we may think). Otro hito importante fue la idea de Ted Nelson, acuña el término ‘ hipertexto ‘ y en su proyecto utópico Xanadu (1960) en el cual todos los textos del mundo se almacenarían permanentemente en un depósito universalmente accesible.

La primera propuesta conocida para una enciclopedia en línea fue realizada por Rick Gates (quien para ello propuso un sistema colaborativo, el Usenet newsgroup en 1993. Sin embargo, el concepto de código abierto para una enciclopedia en línea basada en la web, lo propuso un poco más tarde Richard Stallman, líder del movimiento de software libre, en torno a 1999. Wikipedia fue lanzada formalmente el 15 de enero de 2001 por Jimmy (Jimbo) Wales y Larry Sanger, basándose en la práctica por primera vez en el concepto y la tecnología de un wiki según la idea de Ward Cunningham mediante la aplicación UseModWiki /WikiWikiWeb, escrita en lenguaje Perl por Clifford Adams. Inicialmente Wikipedia arrancó como un complemento “subordinado” a la Nupedia, un proyecto de enciclopedia en línea escrita y editada  por expertos, a fin de proporcionar una fuente adicional de los proyectos de artículos e ideas. Pero la idea de la ‘confianza radical en la comunidad de Wales’  se abrió paso y pronto superó a Nupedia, creciendo hasta convertirse en un gran proyecto global en múltiples idiomas, y originarios de una amplia gama de proyectos de referencia adicionales. Hoy, Wikipedia cuenta con 15 millones de artículos de libre uso en más de doscientos setenta idiomas en todo el mundo,  el contenido de un millón de cuentas de usuario registrado y un sinnúmero de colaboradores anónimos-. El número de artículos hoy, día del 10 aniversario, 15 de enero de 2011, era de 3,529,729 en inglés y de  702.451 artículos el la Wikipedia en español.

Diálogo con Jimmy Wales,
Jimmy Wales es uno de mis ‘héroes oscuros’ de la tecnología -aunque ya se esta haciendo muy célebre-, término que se inventó en el MIT para Norbert Wiener, padre de la cibernética, y que me gusta para referirme a personas casi desconocidas para la mayoría de la gente cuyas ideas puestas a funcionar en la práctica, han conseguido descomunales efectos sociales. La Wikipedia es hoy un gigantesco repositorio de información valiosa y conocimiento estructurado, en mas de 256 lenguas, con mas de 15 millones de artículos, de ellos mas de 3 millones en su versión en inglés y que, hace muy poco, acaba de superar elos 700.000 en español.

Pero para mi lo interesante de Wikipedia, aparte de su asombroso contenido es que significa la materialización de varios saltos conceptuales en relación a la ‘Economía de las Ideas’ de la que hablaba John Perry Barlow. Wikipedia es una materialización de varios conceptos que se han materializado en la red por encima de todos los malos augurios contrarios de los especialistas económicos y de las grandes industrias editoriales, que en el año 2001 no daban ningún  crédito al proyecto de Wales. La Enciclopedia Libre de la Red materializa el ‘cloud computing’ (no importa dónde esté físicamente depositado el contenido), aunque algunos sabemos -porque lo dice Wikipedia- que esta servida por un enrome conjunto de ordenadores en Florida,  Ámsterdam y muchos mas en las instalaciones coreanas de Yahoo!, que reciben  mas de 30.000 peticiones de páginas por segundo las 24 horas del día siete días por semana En octubre de 2008 el sistema operativo de los servidores migró a Ubuntu. Todo es software libre.

Wales nació en Huntsville, Alabama en EE.UU., pero es tan circunspecto y sobrio como un escandinavo y se manifiesta seguidor de la filosofía de Ayn Rand y el objetivismo, una filosofía “para vivir en la tierra, enraizados en la realidad y orientados a alcanzar conocimiento sobre el mundo natural, rechazando la religión, y lograr interacciones entre los seres humanos armoniosas y mutuamente beneficiosas”. Aunque era conocido como un triunfador de los nuevos modelos de negocio en la época del subidón de las puntocom a finales del siglo pasado, Walles concibió Wikipedia como una no-empresa. Nadie creyó que lo haría posible, que su idea basada en la confianza radical en la gente de la red y en el conocimiento descentralizado funcionaría, y que podría llevar a la realidad su sueño de “un esfuerzo para crear y distribuir una enciclopedia libre, de la más alta calidad posible, a cada persona del planeta, en su idioma», con la que lograr «un mundo en el que cada persona del planeta tenga acceso libre a la suma de todo el saber de la humanidad».

Conocí personalmente a Jimmy en el Copyfight de Barcelona. Entonces no era apenas conocido en España. Después coincidimos en la Cumbre Mundial de la Sociedad de la Información en Túnez, y luego hemos ido coincidiendo en en otros eventos mas. Hoy es ya muy popular. Incluso su rostro sirve para publicidad de grandes marcas que, por cierto, no se pueden anunciar en Wikipedia

He podido hacer con Jimmy Wales un breve pero bonito diálogo. Es este:

Adolfo Plasencia:. Jimmy, ¿cómo comenzó en tu cabeza esa idea de la Wikipedia?

Jimmy Wales: “Fue hacia el 2001. Yo ví entonces el gran éxito del los movimientos del software libre, todas esas grandes comunidades que compartían el software libre…, todos esos proyectos basado en colaboración de individuos y me pregunté… ¿Y porque compartir sólo software si la gente puede compartir de la misma manera todo tipo de proyectos?. La única diferencia es que los programadores había sido capaces de construir  las herramientas que necesitaban para sí mismos. Solo tuvimos que esperar a que existiera el software que necesitábamos para nosotros, para crear y manejar contenidos. Una vez estuvo ese software, de ahí empezó todo”.

A.P.: ¿Entonces, finalmente esa frase de que ‘lo importante son lo contenidos’ era verdad?

J.W.: Oh, sí, definitivamente sí. La calidad del trabajo, los contenidos, es lo que define la comunidad.

A.P.: ¿Qué tecnologías básicas utilizáis ahora en Wikipedia?_

J.W.: Todo software libre, GNU Linux, Apache, MSQL, PHP…

A.P. Y para las plantillas de maquetación…?

J.W.: PHP. Hojas de estilo, de CCS

A.P.: Algunas voces, criticas, hoy debido a su éxito, cada vez menos y de forma residual, acusaban a Wikipedia de no ser una enciclopedia de alto nivel, hecha por especialistas como lo era Nupedia.  Y hoy puede hacer Wikipedia todo el mundo ¿Qué opinas ahora de esto?

J.W.:  Mi respuesta a eso es que si miramos la calidad media de los artículos de Wikipedia, es muy muy alta. Y creo que en el futuro, cuando vean las enciclopedia tradicionales, extrañados, se preguntaran.. ¿Y esto, lo escribió solo una persona, y fue revisado por dos?

A.P.: Pero, cómo es el mecanismo de control de calidad para conseguir esa gran calidad media en Wikipedia?

J.W.:  Hay mucha capacidades en el software que están ahí, para que la comunidad puede controlar y supervisar lo que esta ocurriendo en Wikipedia.

A.P.: Wikipedia se acabará algún día o será siempre una Gran Enciclopedia inacabada?

J.W.:  Pienso que Wikipedia será la biblioteca interminable porque en ella nunca se termina nada del todo.

AP.:  Hoy Wikipedia ya tiene mas de 12 años. ¿Te imaginas en el 2050 a tus nietos construyendo artículos en la Wikipedia. Crees eso posible?

J.W.: No tengo ni idea.

AP.:  Muchas gracias y a ver si se podemos organizar algo y te vemos de nuevo pronto por España, ahora que la Wikipedia en español ha llegado al millón de artículos.

AP.: Me encantaría. Envíame un e-mail


La financiación de Wikipedia

Hoy la Wikipedia es un gigante en cuya construcción ayudan desinteresadamente miles de personas. Sólo unas pocas personas trabajan remuneradas en la Fundación Wikipedia de la que Wales es presidente honorario.

Wikipedia, no admite publicidad para su financiación. Sucesivamente su fundador Jimmy Wales se dirige la comunidad conectada mediante mensaje personales en la propia Wikipedia en la que mantiene su declaración de intenciones original. Con sus planteamientos en una economía industrial típica seria imposible. Y su autoridad moral es  tan grande en Internet cada dos años pide directmente contribucuiens en la propia Wikipedia para su mantenimiento. A final de este año pasado, la organización de la fundación que mantiene Wikipedia necesitaba 7,5 millones de dólares para su mantenimiento bianaual. Wales colgó un mensaje personal en la Wikipedia pidiendo financiación desinteresada y en muy pocas semanas hubo donaciones desde todo el mundo que cubriendo con creces la petición. Hoy la Wikipedia es uno de los mas grandes instrumentos de conocimiento descentralizado que existen en la red que ya comparten mas de mil millones de personas en 250 lengua diferentes.

Muchos de los nuevos conceptos que genera la vertiginosa evolución tecnológica solo los puede encontrar en Wikipedia. Forma parte de la ‘economía de la gratuito’ (Chris Anderson). Jimmy Wales ha hecho realidad su sueño y nos ha regalado para todos los ‘conectados’ un instrumento de conocimiento y de aprendizaje compartido como nunca la humanidad había tenido antes.

Este es el texto del mesnaje que Wales colgó en al red en Noviembre de 2010, el año que Wikipedia terminaba la primera década de existencia:

“Muchos me miraron extrañados hace diez años cuando comencé a hablarle a la gente sobre Wikipedia.
Digamos que algunos hombres de negocios estaban dudosos sobre la idea de que voluntarios de todo el mundo pudieran unirse para crear un compendio importante del conocimiento humano: todo por el sencillo propósito de compartir.
Sin anuncios. Sin ánimo de lucro. Sin intenciones o intereses ocultos.
Una década después de su fundación, más de 380 millones de personas utilizan Wikipedia cada mes: casi un tercio del mundo con acceso a Internet. Es el quinto sitio web más popular del mundo. Los otros cuatro han sido creados y mantenidos con miles de millones de dólares en inversión, numerosos empleados en plantilla y marketing incesante.
Pero Wikipedia no tiene nada que ver con un sitio web comercial. Es una creación comunitaria, escrita por voluntarios mediante aportaciones sucesivas. Tú eres parte de nuestra comunidad. Y hoy estoy escribiendo para pedirte que protejas y sostengas Wikipedia. Juntos, podemos mantenerla libre de costes y de publicidad. Podemos mantenerla abierta, para que puedas usar la información en Wikipedia de la forma que quieras. Podemos mantenerla en crecimiento, propagando el conocimiento a todas partes, e invitando a la participación de todos. Cada año por estas fechas, te tendemos la mano para pedirte a ti, y a toda la comunidad de Wikipedia ayuda para mantener nuestra iniciativa conjunta con una modesta donación de 10, 20, 50 dólares o más. Si valoras a Wikipedia como fuente de información —y de inspiración—, confío en que actuarás en consecuencia.
Mis mejores deseos,
Jimmy Wales, Fundador de Wikipedia
P. D. Wikipedia demuestra el poder de gente como nosotros para hacer cosas extraordinarias. Gente como nosotros escribe Wikipedia, palabra tras palabra. Gente como nosotros la financia, donación tras donación. Es la prueba de nuestro potencial colectivo para cambiar el mundo


La respuesta no se hizo esperar: en pocas semanas, mas de 500 mil personas de 140 países donaron un tola de 16 millones de dólares para Wikipedia, a un promedio de 22 dólares para financiar la enciclopedia. Los mensajes de agradecimiento fueron estos:

“Agradecimiento personal del Fundador de Wikipedia, Jimmy Wales:

¡Caramba! ¿Qué puedo decir? Gracias.

Hemos realizado la recaudación de fondos más exitosa de nuestra historia: 16 millones de dólares en menos de ocho semanas. Increíble. Pero no estoy sorprendido. En 2001, aposté por la gente, y nunca me han fallado. 19 millones de artículos enciclopédicos en 270 idiomas, que sigue desarrollándose y mejorando día a día. La han apoyado, financiado y protegido. La publicidad no financia Wikipedia, sino ustedes. Wikipedia es la quinta web más visitada del mundo —400 millones de personas el último mes—. Sus donaciones siguen difundiendo el acceso libre al conocimiento por todo el mundo. Es un historia asombrosa. No hay nada que se le parezca. Gracias de nuevo. Wikipedia para siempre.

Jimmy Wales. Fundador, Wikipedia”



Cada año la Fundación Wikimedia fija una meta que saben que será difícil llegar a ella, pero tienen que hacerlo, debido a que los sitios de Wikimedia están en constante crecimiento. Wikipedia es ahora el quinto sitio web más visitado en el mundo; pero nuestro personal, infraestructura, y presupuesto son simplemente una fracción de los demás «Top 10».

Cada año, el mundo se une para apoyar Wikipedia y sus sitios hermanos. Nuestra primera recaudación de fondos fue simplemente un esfuerzo comunitario para comprar un nuevo portátil muy necesario para un voluntario, quien se volvería nuestro primer director de tecnología. Sin embargo, este año es un poco más increíble porque celebramos el décimo aniversario de Wikipedia. Es importante que comencemos el año así: financiando completamente el presupuesto de la Fundación Wikimedia para ayudar a Wikipedia y todos los proyectos hermanos mientras nos dirigimos hacia la próxima década de nuestro trabajo juntos. Aunque recaudamos más dinero este año que en cualquier otro año —$16 millones— también fue la recaudación más breve que hemos tenido.

Tengo unas pocas estadísticas más para ti:

Más de 500.000 donaciones a la Fundación Wikimedia; Casi 130 000 donaciones a los capítulos locales de Wikimedia alrededor del mundo; Dos de los días de recaudación más grande en la historia de Wikipedia. Tamaño promedio de donación: cerca de $22.

Esta recaudación tenía todos los ingredientes de lo que nos gustan de Wikimedia y sus proyectos: la gente se une, contribuye con lo que tiene, y hacemos algo asombroso. La contribución de un trabajador tecnológico en Mumbai, India se une con la contribución de un agente en Londres, y la de un estudiante en Moscú, y el resultado es que podemos sostener y apoyar este esfuerzo conjunto por otro año.

Así que ahora, celebraremos.

Desde el fondo de mi corazón, y a nombre de los 100 000 voluntarios activos, gracias.

Jimmy Wales, Fundador de Wikipedia


Solo tengo que añadir los mismo que dice Jimbo Wales:

Sí, increíble. Y ahora ¡Felicidades a todos los usuarios y a toda la comunidad Wikipedia en español pro ese millón de artículos!.

16/05/2013, escrito por Adolfo Plasencia

Los gráficos 3D de tiempo real que cambiarán la forma de dar noticias de la TV mundial

La empresa española Brainstorm inyecta tiempo real a las noticias del gigante Avid Technology. Ha desarrollado una serie de herramientas para el gigante Avid que va a permitir a canales televisión de todo el planeta trabajar con representaciones 3D de visualización dinámica de datos obtenida en tiempo real. En pocas semanas, la suite AMG 2.5 de Avid Technology será comprada por sus clientes, grandes empresas de TV de todo el mundo, para sus avanzados centros tecnológicos de creación de noticias. AMG (Avid Motion Graphics) 2.5 ha sido desarrollada por los ingenieros españoles de Brainstorm en Valencia.

Hace ya tiempo, le pregunté a Ricardo Montesa, cómo podía describir en una sola frase a qué cosa se dedicaba, cómo se llama su actual profesión. Ricardo, con su habitual expresión inteligente de hombre tranquilo, y con leve sorna, me dijo: “puedes decir que me dedico a la Creación de Mundos Virtuales para Cine y TV, desde mi empresa Brainstorm”. Ricardo Montesa Andrés hizo ingeniería industrial mecánica en la Universidad Politécnica de Valencia y de ingeniero mecánico se fue transformando en el artífice genial e impulsor, con su empresa Brainstorm, de una serie de tecnologías de vanguardia que lideran hoy en el mundo la creación y uso de escenarios virtuales de TV con gráficos 3D de tiempo real, que también son una referencia mundial en el rodaje de películas.

Ejemplo tecnologias para Cine de Brainstorm

 [+Ampliar Imagen] Ejemplos de usos de la tecnología de Brainstorm: NASDAQ; el rodaje de peliculas como Inteligencia Artificial, Yo, Robot; la noche electoral de Barak Obama transmitida por la NBC estadounidense, etc.

Usando tecnologías españolas de Brainstorm se han rodado películas tan conocidas como “Inteligencia Artificial” de Steven Spielberg y “Yo, Robot”, de Alex Proyas, interpretada por Will Smith, -que contó como guionista con Isaac Asimov-; “Alice in Wonderland”, de Tim Burton o “X-Men Origins“ protagonizada por Hugh Jackman. También la lista de empresas que usan las tecnologías de Brainstorm es impresionante: desde el NASDAQ de Nueva York (la bolsa de valores tecnológicos que tiene con esta tecnología en su sede principal en Times Square (NY), cuyo video-wall estacionario mas grande del mundo se alimenta con gráficos servidos en tiempo real con tecnologías Brainstorm); igual ocurre con Reuters (en su sedes de EE.UU., Inglaterra o Asia), o canales de TV de EE.UU. como NBC la RTL alemana o cadenas de TV japonesas como Fuji TV; NTV, TV Tokio y muchas más; o también cadenas de TV de cobertura mundial como la BBC, Al Jazeera, la PGA Tour TV o AccuWheater y otros como Abu Dhabi TV, KBS, MBC o MSNBC HD de EE.UU. Así las tecnologías 3D y de tiempo real han evolucionado desde los primitivos gráficos de cabeceras a los decorados virtuales 3D para TV, incluyendo aplicaciones para mostrar las previsiones del tiempo en telediarios, al mercado de los rodajes de películas y de este a la especialización liderando a nivel mundial la tecnología de tiempo real para la visualización de datos en tiempo real en noches electorales que culminó en la NBC en el programa en que se mostraron a millones de estadounidenses los resultados de las Elecciones Presidenciales en EE.UU. la noche del día de la elección y la primera victoria del presidente de Barak Obama. Y la BBC, durante varias legislaturas, para las noches electorales británicas tiene contratado con Brainstorm la presentación con ‘escenografia digital’ y gráficos 3D de tiempo real.

Ricardo Montesa035-2 500p

Ricardo Montesa, en su oficina. Foto: Adolfo Plasencia

La siguiente etapa se produce a raíz de la búsqueda por parte del gigante tecnológico Avid Technology de un socio tecnológico para dar un salto a una nueva generación de gráficos que comenzó llamándose DEKO y que integrada con el sistema de noticias iNews se utilizaba en las mas grandes cadenas de TV del mundo, siendo un estándar mundial en sistemas de creación y edición de noticias para noticiarios de TV. De todo ello he dialogado con Ricardo Montesa. Aquí esta el resultado:

Avid hace muchas mas cosas de las que yo sé, -me cuenta Ricardo-, pero en el campo de la creación de contenidos de noticiarios estuvieron analizando empresas tecnológicas que les pudieran ayudar de inmediato ya que la competencia estaba haciendo peligrar su liderazgo mundial es este campo debido a la rapidísima evolución de los sistemas digitales”. “Para entenderlo,-continua-, aunque es un campo muy complejo: hace unos años en las televisiones mas grandes y modernas había una parte del edificio con inmensos armarios llenos de cintas de vídeo organizados por los documentalistas en los que incluso había robots que te conseguían una cinta que contenía imágenes de un tema concreto y se la proporcionaban a la mesa del editor para que los periodistas pudieran incluir imágenes en la noticia que están construyendo. Naturalmente aquellas cadenas de producción de noticias necesitaban de varios profesionales especializados: redactores, montadores de vídeo, técnicos de sonido, ademas de los cámaras y periodista que había ido al exterior a filmar y el equipo de realización que integra las noticias construida previamente con rótulos, locución y lo que ocurre en el plató”… “Hoy, -prosigue-, en las instalaciones avanzadas, esas cintas han desaparecido: es todo digital. Avid monta la tecnología con grandes ordenadores y servidores para la gestión digital de los archivos de vídeo. Naturalmente, ademas de los periodistas, siguen haciendo falta grafistas digitales y montadores y editores de video, pero ya no hay cintas ni lectores analógicos. Todo es digital”. “El siguiente paso que quería Avid era crear una herramienta innovadora para la inserción de gráficos 3D en correspondencia con todos los soportes, instrumentos y técnicas digitales del universo de la creación de noticias en TV”.

Herramientas Braisntorm 2-051 500p

Las herramientas de editar noticias en los ordenadores de Brainstorm. Foto: Adolfo Plasencia

Y ¿cómo llegaron a vosotros para este proyecto?, -le pregunto-. “Ya había alguna relación puntual anterior, -relata, Ricardo-, pero esta vez, dada la ambición del proyecto, estuvieron analizando durante un año a empresas de todo el mundo para poder desarrollar la innovación necesaria en esta nueva visión de sus productos . A nosotros nos conocían ya por algunas aplicaciones nuestras de gráficos 3D en tiempo real como las que habíamos hecho en a BBC o en la NBC. Finalmente nos eligieron y llegamos a acuerdos de colaboración estable para varios años. Hemos estado desarrollando durante mas de un año el nuevo producto de Avid apara su importante clientela a nivel mundial, en colaboración con su sede en Burlington, Massachussets y en un denso de desarrollo y gestión de calidad que tienen en Kiev, la capital de Ucrania. Se lanza ahora en abril para todo el merco mundial la version 2.5 y consiste básicamente en una ‘Suite’ de herramientas para creación de noticias en TV en la que todos los gráficos par las noticias son 3D y pueden integrar y dar forma a gráficos evolutivos de visualización de datos automatizada alimentada por datos de lo que sucede en tiempo real, igual que los gráficos del muro digital mas grande del mundo del NASDAQ, la bolsa de valores tecnológicos de Nueva York que esta en Manhattan cerca de Time Square y que funciona con tecnología nuestra.”. Lee el resto de esta entrada »

28/04/2013, escrito por Adolfo Plasencia

James Butler: El acceso al agua potable debe ser considerado un derecho humano básico


English ppp Ok

James Butler: Access to safe drinking water should be considered a basic human right




De toda el agua que contiene el planeta, el 97,5 % es agua salada y solamente el 2,5% es agua dulce, de la que el 1% está en la superficie. Del agua dulce el 68,7% está contenida en forma de hielo y en nieves perpetuas, que están en rápido retroceso pro el cambio climático. Solamente el 0,26% del total de aguas dulces en la Tierra se concentra en lagos, embalses y sistemas fluviales. Y hay un 29,9% del agua dulce son aguas subterráneas dulces. De ese casi 30% del agua dulce del planeta se ocupa la  hidrogeología, una rama de las ciencias geológicas que, como dijo L. Mijailov, estudia el origen y la formación de las aguas subterráneas y sus formas de yacimiento, difusión, dinámica y reservas y también su interacción con los suelos y rocas, su estado  y propiedades; así como las condiciones que determinan las medidas para su aprovechamiento, regulación y evacuación. Cada 20 años se dobla el consumo de agua en el mundo y 2.400 millones de personas en el planeta sufren algún problema de abastecimiento, por lo que el recursos de los que se ocupa esta ciencia son decisivos para la humanidad. La ONU ha declarado al siglo XXI el “Siglo del Agua”, y a pesar de ello, no se toma apenas conciencia de la decisiva importancia que tiene. Asociada a los ecosistemas y su conservación, el agua del subsuelo, es un recurso importantísimo ya que de él, cosa que mucha gente no sabe, se abastece a una tercera parte de la población mundial. Es un recurso natural de muy difícil gestión, por su sensibilidad a la contaminación, a la sobreexplotación y los conflictos que origina su creciente escasez.

A la Hidrogeología, ciencia ligada a ese recurso está dedicando su vida James J. Butler, uno de los mejores expertos internacionales en el campo, profesor de investigación de la sección de hidrogeología del Servicio Geológico de Kansas y de la Facultad de Geología de la Universidad de Kansas, y doctor en Hidrogeología aplicada en la Universidad de la Univ. de Stanford. Hay científicos rigurosos como James Butler que trabajan es en este campo casi siempre, salvo catástrofe, alejados de los focos mediáticos, en un abnegado trabajo que intenta aportar racionalidad científica en las decisiones de los gobernantes y también en la conciencia ciudadana para que vayamos a mejor, y no a peor, en nuestro comportamiento cotidiano mas con un bien tan valioso como el agua potable, que él opina que debe ser considerado como un derecho humano básico.

Con motivo de la estancia del profesor Butler como investigador visitante del Grupo de Hidrogeología de la Universidad Politécnica de Valencia,- que dirige el catedrático de Ingeniería Hidráulica en la UPV, Jaime Gómez-, en el que esta impartiendo un ‘Seminario de testificación hidráulica para la caracterización de acuíferos’, he dialogado con él sobre este campo científico y sus aplicaciones, de enorme de actualidad en este momento, a pesar de pertenecer a una rama de la ciencia casi desconocida para el gran público como es la Hidrogeología.

James Butler vert rotulo 500 px

James Butler, en las instalaciones del Grupo de Hidrogeología de la UPV, e la Ciudad Politécncia de la Innovación. Foto: Adolfo Plasencia


Adolfo Plasencia: Ismael Serageldin, vice presidente del Banco Mundial ha afirmado que «si las Guerras del Siglo XX fueron por el petróleo, las del Siglo XXI serán por el Agua» ¿Cree Vd. que el Sr. Serageldin exagera?

James Butler:  Sí, creo que exagera, pero, en cambio podría haber hecho hincapié en la importancia decisiva que va a tener el agua en el siglo XXI. Esa importancia se acentúa por el choque entre las expectativas nivel global de mucha gente por conseguir un mejor nivel de vida y las concecuencias por una creciente población y el cambio climático.

A. P. :  Profesor Butler, ¿Porqué cree que hay una conciencia tan leve en la sociedad sobre que el agua dulce subterránea es un recurso en gran retroceso, cuando casi el 29% del agua que usamos es de procedencia hidrogeológica?
J. B. :  Aumentar de la conciencia social sobre el estado de nuestros recursos de agua subterránea puede ser difícil porque el agua subterránea en su mayor parte se encuentra fuera de la vista de la gente. A menos que, por ejemplo, una fuente cercana al ciudadano se haya secado o el caudal de un río próximo, que se alimenta por las aguas subterráneas haya disminuido en gran medida, la mayoría de la gente no percibe que los recursos de agua subterránea de su zona estan disminuyendo. La comunidad científica debería hacer un mejor trabajo para educar al público acerca de temas tan esenciales. Yo trabajo en el Servicio Geológico de Kansas (Kansas Geological Survey), una división de investigación de la Universidad de Kansas. Nuestra tarea principal es proporcionar una base científica sólida para ayudar a una mejor toma de decisiones a todos los niveles de gobierno en nuestro Estado (Kansas). Una ciudadanía informada es un componente crítico de este proceso, por lo que mis colegas y yo realizamos numerosas presentaciones sobre el estado de nuestros recursos de agua subterránea para grupos de todo el Estado. También hacemos un amplio uso de Internet. Justo antes de venir a Valencia a trabajar con el profesor Jaime Gómez, mis colegas y yo presentamos un Atlas digital del acuífero de High Plains, el más importante de nuestro estado. La parte interactiva de este atlas es una poderosa herramienta que ofrece información a cualquier persona interesada sobre las condiciones actuales, y sus cambios en el tiempo, de cualquier parte del acuífero de High Plains. Con sólo unos pocos clics, se puede adquirir un buen conocimiento del estado del acuífero en su área. Creemos que este Atlas aumentará en gran medida la conciencia pública sobre las condiciones en nuestro acuífero más importante.

A. P. : ¿A su campo le ocurre como otras innovadoras ciencias aplicadas, que no aparece en el radar de prioridades de los gobernantes? ¿Cree que se les podria concienciar mas al respecto sobre su decisiva importancia social o este es un objetivo imposible?

J. B. : En estos tiempos de severas restricciones económicas y financieras, en la comunidad científica no podemos depender de otros para que se reconozca la importancia fundamental de nuestro trabajo. Hemos de estar preparados para conseguir convencer su importancia directa a los ‘tomadores de decisiones’ – debemos demostrarles que lo que hacemos importa realmente -. El Servicio Geológico de Kansas hace una conferencia anual de ámbito legislativo (de dos días y medio de duración), en la que fletamos un autobús lleno de legisladores y dirigentes de los organismos reguladores de todo nuestro Estado para ir a los lugares objeto de las presentaciones que proponemos para informar y debatir sobre estos importantes temas de recursos naturales. Por ejemplo, en junio de este año, realicé dos presentaciones a estos grupos que trataban sobre la disminución de los recursos de aguas subterráneas del acuífero High Plains. Los que participan en estas conferencias vuelven con una comprensión mucho más profunda sobre las cuestiones de los recursos naturales y la utilidad del  Servicio Geológico de Kansas para proporcionarles una base científica sólida para sus decisiones políticas.

A. P. : En Valencia hay una tradición de mil años en sistemas de riego tradicionales con un Tribunal de las Aguas único en el mundo en que se dirimían los conflictos del agua de riego tradicional. Sin embargo la creciente explotación salvaje de las aguas subterráneas debido a la extracción ilegal o irracional incluso ha provocado la salinización creciente de algunas zonas y la desaparición de muchas fuentes que estaban ahí desde hace siglos. ¿El remedio para detener esos atentados contra nuestra riqueza hidrogeológica, ha de venir empujado mas por la ciencia o mas por las leyes?

J. B. : Si vamos a disminuir la sobreexplotación de los recursos de agua subterránea, es necesario combinar tres elementos: 1. Ciencia: las decisiones deben basarse en la realidad científica a la que nos enfrentamos y no por ilusiones vanas o teorías anticuadas, 2. Las Leyes: hemos de conseguir normas legales que deben construir un marco regulatorio funcionando que permita controlar eficazmente la extracción de agua subterránea y debemos conseguir estar preparados para aplicarlo cuando sea necesario, y 3. Conseguir el Compromiso (Commitment User) de los usuarios: por el que una parte importante de las aguas subterráneas utilizadas deben estar dedicadas al uso más racional y eficiente posible de estos recursos -en cierto sentido equivalente, en las aguas subterráneas, al criterio ya muy conocido en España del histórico Tribunal de las Aguas de Valencia para las aguas en superficie-. En Kansas, acabamos de establecer un nuevo enfoque para reducir la extracción de agua subterránea que combina estos tres elementos. Este nuevo enfoque permite a los grupos de regantes establecer zonas (conocidas como áreas de gestión localmente mejoradas, o Locally Enhanced Management Areas: LEMAs) en las que se consigue reducir la extracción de agua subterránea. Si la mayoría de los regantes en un área concreta consigue un acuerdo colectivo vonculante sobre un determinado porcentaje de reducción en el uso de las aguas subterráneas, todos los regantes de la zona están legalmente obligados a seguir el acuerdo. Una agencia reguladora estatal supervisa el uso de las aguas subterráneas para garantizar que todo el mundo está cumpliendo con ese acuerdo.

 Un grupo de regantes en una zona del noroeste de Kansas, que reconocieron que sus recursos de agua subterránea se agotarán dentro de unas pocas décadas, si no antes, -si siguen con las tasas de extracción actuales-, se encuentra ahora el proceso de la puesta en marcha de su primera ‘LEMA’. Mis colegas y yo participamos en la interpretación de los datos de nivel de agua de esa zona para evaluar el impacto de las reducciones en el ritmo de descenso del nivel de agua. Aunque yo no estoy familiarizado con todos los detalles del Tribunal de las Aguas de Valencia, por lo que he aprendido aquí del profesor Jaime Gómez, parece que los grupos de regantes tienen un fuerte compromiso con el sistema histórico y actual del Tribunal. En el caso de Kansas, lo que se establece en las LEMA también tiene un fuerte compromiso social con la preservación de los recursos de aguas subterráneas de la zona a largo plazo para nuestros hijos y nietos de las próximas generaciones.

Jaime Gómez y James Butler en la CPI-UPV

Jaime Gómez y James Butler en la Ciudad Politécnica de la Innovación de la UPV. Foto: Adolfo Plasencia

A. P. : El ecólogo Garrett Hardin describió en un memorable artículo publicado en 1986 en la revista ScienceLa tragedia de los comunes“, que describe el dilema a que se ve abocado una comunidad, en la que el interés personal de algunos esquilma un recurso compartido y limitado que acaba agotándose y eso, finalmente, acaba perjudicando a todos y a cada uno de ellos, al tiempo. ¿Podría ocurrir eso con una riqueza como la de los acuíferos de nuestros territorios?

J. B. : Sí, esta situación puede, y con demasiada frecuencia ocurre, en los acuíferos que son  sobreexplotados. Una de las principales responsabilidades de las entidades gubernamentales encargadas de la gestión de las aguas subterráneas es tratar de prevenir o mitigar este tipo de situaciones. En Kansas, tenemos vigente un sistema de derechos de agua: cada persona tiene derecho a bombear una cantidad determinada de agua subterránea cada año (los niveles y consumo de todos los pozos grandes son controlados a menudo para garantizar que ese uso no exceda la cantidad asignada). Los derechos de agua tienen una prioridad que se basa históricamente en el año en que fueron asignados. Si una persona con una asignación mas antigua de agua piensa que su uso está siendo afectado por el bombeo de otros que tienen los derechos de agua mas recientes, puede solicitar que se reduzca o incluso detenga por completo su bombeo. Aunque la situación en Kansas es mejor que en algunos de nuestros estados vecinos donde no hay regulación de la extracción de agua subterránea, a muchos derechos de agua que fueron asignados a acuíferos concretos  les podría  ocurrir lo que indica la ‘tragedia de los comunes’ aunque en una escala de tiempo más larga de lo que ocurriría de otra manera. Las personas tienden a no quejarse del abuso aunque estén siendo afectados, siempre y cuando puedan seguir bombeando lo que necesitan. Por ello, la disminución del nivel del agua, que es el indicador de dichos impactos, son ignorados por esto en gran medida. Desgraciadamente, cuando el uso real se ve afectado por una reclamación, es a menudo cuando el acuífero está cercano a agotarse.

A. P. :  Hay quien dice que aquí el agua dulce es demasiado barata y por eso, la gente consume sin medida y que solo un precio mucho mas alto obligaría a que los usuarios hicieran un uso mucha mas racional. ¿Esta Vd. de acuerdo?

J. B. : Sí, pero … Estoy de acuerdo en que un precio más alto que obligaría a los usuarios a hacer un uso más racional de los limitados recursos de agua dulce, pero tenemos que ir con cuidado en esto ya que el acceso al agua potable debe ser considerado un derecho humano básico. Podemos conseguir un uso mucho mas justo y eficiente del agua a través de un sistema de precios diferenciados. Podemos calcular la cantidad de agua que se considera suficiente para satisfacer ampliamente las necesidades diarias y poner esa cantidad de consumo de agua a un precio muy barato. Sin embargo, por encima de ese consumo, creo que deberíamos disponer de un sistema escalonado de precios con aumentos significativos entre los escalones. De esa forma, aquellos que quieren usar más tienen que pagar un precio en el que se refleje el auténtico valor que tiene el agua para toda la sociedad.

A. P. :  Hace pocas semanas, un estudio publicado en la revista científica Nature Geoscience por un grupo de científicos españoles concluyó que el seísmo reciente en la ciudad española de Lorca , que dejó nueve muertos y destruyó barrios enteros de la ciudad, estuvo influido por la extracción excesiva de agua para riego en un acuífero en la misma zona. Muchos medios a nivel mundial, incluso en EE.UU., se han hecho la pregunta sobre una posible relación entre el agravamiento de los efectos del terremoto, -teniendo en cuenta la que correspondería a su magnitud- y la sobreexplotación irracional en los últimos 50 años de las aguas subterráneas de la zona donde se produjo cuyo nivel bajó 250 metro en ese tiempo. ¿Cree Vd, que puede haber relación, o es una asociación demasiado atrevida por parte de los medios de comunicación?¿Puede desestabilizar una zona geográfica una acción humana de explotación desmedida y sin control de los recursos hídricos subterráneos hasta el punto de agravar un terremoto?

J. B. Sí, he visto el artículo y lo encontré sorprendente en el sentido de que para mí el bombeo continuado de acuífero haya podido producir una reducción de tensiones suficiente para agravar el efecto de un terremoto concreto. No estoy lo suficientemente familiarizado con los detalles del artículo para poder decir nada más. 

A. P. : ¿Se puede ser optimista aún con los recursos que estudia la ciencia que Vd. practica, teniendo en cuenta lo que esta sucediendo masivamente con la acción humana sobre los recursos hidrogeológicos, o esto ya no es reversible, no tiene remedio y solo se puede intentar limitar los daños?

J. B. Sigo siendo optimista sobre el futuro, pero también soy realista. En su mayor parte, no se van a revertir las disminuciones del recurso hídrico que se han producido en los últimos 50-100 años por la extracción de agua subterránea a gran escala. Sin embargo, aún podemos hacer mucho para limitar nuevos descensos. Para ello, son necesarias regulaciones del uso del agua que se basen en principios científicos sólidos, fuertes fundamentos jurídicos, y un gran compromiso de la comunidad de usuarios para utilizar este recurso cada vez mas escaso de la manera más eficiente posible. Necesitamos una estructura de precios con niveles diferenciados para el consumo del agua que nos asegure que todos tienen acceso suficiente a agua en condiciones de satisfacer las necesidades de la vida diaria, pero para otros usos los precios deben de tener relacion con su coste real. Necesitamos los recursos adecuados para el análisis e investigación en todas las áreas de la ciencia del agua para conseguir poner en marcha los medios más eficientes posible, por ejemplo, para la desalinización, para la  caracterización de nuestros acuíferos o la evaluación de lo que les pueda suceder en el futuro. Por encima de todo, sin embargo, necesitamos una ciudadanía informada y concienciada que entienda la importancia del acceso a una fuente fiable de agua y capaz de presionar a sus gobiernos para que la garantía del acceso de los ciudadanos al agua no se vea comprometida.


Una síntesis de este diálogo se publicó en la sección Personajes Únicos del Suplemento INNOVADORES de El Mundo, el 26 de Noviembre de 2012.

15/12/2012, escrito por Adolfo Plasencia

La Gamificación, un nuevo paradigma aplicable a los negocios. Diálogo con Arturo Castelló

La Gamificación, es un nuevo paradigma con muchas aplicaciones en las empresas, que está emergiendo de la mas grande de las industrias digitales, en dimensión y crecimiento: la de los ciberjuegos.

Imagen del DreamHack


Ya en 1999, el filósofo Javier Echeverría dedicó su obra “Sobre el juego” a la importancia creciente de las estrategias de los juegos y, en escritos posteriores, a la emergencia del entorno electrónico (E3 o tercer entorno) como un gran espacio útil para la interacción pero también para el entretenimiento y el juego como factor social. El mercado global on-line es exactamente eso: un espacio adecuado para la ‘Gamificación‘. El término identifica también el uso de las dinámicas y la mecánicas propias de los juegos en entornos no lúdicos, como diversos campos de actividad empresariales y ahora, en sus mercados conectados. La Gamificación sirve, entre otras cosas, para mejorar los procesos productivos o conseguir un alto nivel de compromiso (engagement) en la interacción de sus usuarios con la empresa y también la de los propios empleados entre sí. Crear una verdadera interfaz en base a un storytelling (o narrativa) que la empresa debe ser capaz de articular alrededor de sus productos o servicios, con el fin de conseguir lo que Tim O’Reilly llama en su formulación de la Web 2.0 «una rica y emocionante experiencia de usuario». Con la ‘gamificación’ también se puede medir la efectividad y resultados de procesos empresariales y actuar en consecuencia.

Los ámbitos económicos y empresariales que se relacionan ahora con la ‘Gamificación’ tienen que ver con un nuevo paradigma que relaciona a las empresa con la nueva realidad de tecnologías, mercados y empresas que afecta tanto al plano del trabajo y del mundo empresarial como al del tiempo de la vida personal. Tanto uno como otro están afectados grandemente por la combinatoria de lo digital y de la Era los Efectos de la Red (O’Reilly), de lo global con lo local, y de lo material con lo intangible y virtual que, en contra de lo que se ha dicho tantas veces, se están afectando mutua e intensamente y ya funcionan combinados en nuestra realidad inextricablemente unidos. La Gamificación surge como consecuencia de la lógica de la industria de los videojuegos que ya en 2010 facturó mas que las industria de la música y del cine juntas a nivel mundial y continua creciendo. El éxito creciente mas reciente de industria de los juegos on-line ha ido unido a la enorme penetración del uso del social media: una sola red social como Facebook ya alcanza los 1.000 millones de usuarios activos mensuales y la enorme cantidad de tiempo que le dedican diariamente cientos de millones de personas ha creado lo que Clay Shirky llama “Excendente Cognitivo”. Dentro de ese excedente cognitivo los usuarios no sólo hablan de sus cosas personales sino que también compran y venden, comercian, persuaden, recomiendan. En suma, dentro de las redes sociales también se hacen negocios, se abren tiendas, se venden productos y hay un enorme espacio emergente que tiene que ver con los mercados y las empresas. Solo un dato: Tobias Lütke, el CEO de Shopify, una  plataforma de eCommerce usada, por mas de 35.000 tiendas dentro de redes sociales, anuncia que la ventas hechas con su plataforma de software libre Shopify han alcanzado los 1.000 millones de dólares en mas de 13 millones de pedidos realizados en solo 6 años desde su lanzamiento.

 Diálogo sobre Gamificación con Arturo Castelló

Arturo Castelló es co-fundador y CEO de Canales Corporativos, la empresa que ha organizado en pocos días tres eventos internacionales: el I Gamification World Congress; el Valencia eSports Congress (un congreso de deportistas electrónicos, -jugadores profesiones de juegos on-line-), y el DreamHack, una competición de la elite de los mejores jugadores de videojuegos del mundo) en la misma semana del pasado Octubre.

Me encuentro con Arturo en su oficina, que hasta hace pocos días estaba invadida por el fragor y frenesí del DreamHack y sus deportistas electrónicos. Aun quedan por aquí rótulos y retazos de ese acontecimiento de los e-Sports que aun resulta ininteligible incluso a periodistas como los de algún periódico, cuyo redactor jefe no sabía a qué periodistas de su redacción asignar el cubrir el DreamHack,  si a los que llevaban deportes, o a los de economía, los de tecnología, a los que cubren nuevas tendencias culturales o a los que cubren temas de ‘frikies’. “Esto es un lío”, decía el experimentado periodista muy curtido en esta época de desastres, hecatombes económicas e inundaciones de gota fría.

Inicio el diálogo con Arturo Castelló, CEO de Canales Corporativos, que también, como aquel redactor jefe esta muy curtido, pero él en diálogos con empresarios sobre temas que requieren una nueva pedagogía empresarial o una nueva visión de los mercados. Nueva visión a la que los gestores mas abiertos no se resistirán por rara que parezca a priori, si está respaldan cifras económicas de éxito o de ventas contundentes como es el caso. El diálogo que he mantenido con Arturo Castelló, es mas o menos, el que sigue:

ADOLFO PLASENCIA: El I Gamification World Congress; el Valencia eSports Congress, y el DreamHack, están vinculados por la emergencia de un mismo fenómeno:  el de la Gamificación que esta ahora en plena explosión global. ¿Es ese es el nexo de estas tres reuniones internacionales que acabáis de realizar?.

ARTURO CASTELLÓ:  Lo que los relaciona es el videojuego, pero no sólo en relación al concepto popular de la palabra que tiene la gente, sino como auténtico paradigma de interacción social y también de comunicación digital, que es como lo consideramos nosotros y en lo que ya llevamos trabajando tres años. Se trata de un nuevo y gran vector económico y tecnológico, del que salen muchas líneas. Nosotros nos concentramos en tres de ellas: la Gamificación, los Deportes Electrónicos (e-Sports) y los grandes eventos donde compiten los mejores profesionales del mundo en las competiciones de videojuegos como el DreamHack. 

Las competiciones de estos equipos de deportistas electrónicos profesionales son un destacado escaparate de la poderosa industria global de los videojuegos. Las imágenes son de las competiciones del DreamHack Valencia 2012. Fotos: Adolfo Plasencia


A.P.: Para la empresa y los empresarios esto no es solo un juego, ¿verdad?,

A.C.: Tom Chatfield, el gran teórico de la tecnología nos lo explicó en su conferencia inaugural del I Gamification World Congress. El juego ha tenido un papel decisivo para la humanidad en muchas áreas de la condición humana y de la vida, pero aun sigue arrastrando ese estigma de algo relacionado con lo infantil, o el odio y la perdida de tiempo. Nosotros pensamos que el juego tiene mas alcance y en los próximo años y nueva cultura global va a alcanzar enorme relevancia. Estamos ya en el punto en que, socialmente el homo faber de la Era industrial esta siendo sustituido como modelos por el homo ludens en la cultura global mediante un proceso en el que el juego se va a convertir en los próximos años uno de los motores sociales mundiales mas relevantes.

A.P.: Pero si  a un empresario le hablas de juegos, seguro que te dirá… ¿pero eso que tiene que ver con mi trabajo de empresario?.

A. C: Según. Desde la óptica perversa desde la que la empresa quiere conseguir que el empleado dedique mas horas ‘a la empresa’, o haga lo que la empresa necesita, ya esta demostrado en muchos sectores empresariales y en su mercados que el juego es un buen ‘caballo de troya’ para conseguir un mayor ‘engagement’ o compromiso en los empleados y sean mas eficaces en su cometido en la empresa. En Silicon Valley, esto ya se ha convertido en un ‘meme’ y una estrategia de las empresa de alta tecnología, que ‘facilitan’ con entornos muy amigables sus ambientes de trabajo, con espacios lúdicos complementarios mas propios de lugares de diversión que de una oficina. Esta forma de organizar los ambientes de trabajo incluyendo componentes lúdicos y anti-estrés se han demostrado muy productivos. Lo lúdico ha demostrado ser tener un gran potencial de implicar y de motivar al empleado mucho mayor que la disciplina por sí misma.  Se ha demostrado primero en empresas de desarrollo de software y después en empresas tecnológicas del tipo de Google, Apple, Facebook, etc., y yo creo en ello.

A. P.: El Engagement,  como compromiso con la misión de la empresa, es concepto habitual en las organizaciones de las empresas de mayo éxito hoy en día…

A. C: “Engagement” yo lo entiendo como un cambio en la dinámicas de relación entre las diferentes partes de un  entorno, de una estructura de empresa, por ejemplo. Si antes de la revolución digital vivíamos en unos entornos verticales donde los medios de comunicación actuaban comunicando en un proceso de-uno-a-muchos o donde las relaciones laborales eran jerarquizadas y verticalizadas, el cambio digital lo que ha hecho es ‘horizontalizar’ las relaciones sociales y generar un entonos de relación donde hay muchos nodos que se conectan, cada uno, a otros muchos nodos. En un entorno tan horizontal, para conseguir la motivación, la eficacia, los resultados buscados, por ejemplo, en un entorno laboral, ya no funciona la anterior verticalidad, la disciplina y el esfuerzo por el esfuerzo. La gente, los empleados, los usuarios habituados por su vida personal a la horizontalidad, por ejemplo de las redes sociales, necesitan sentirse protagonistas de lo que hacen, sentirse, sino el centro de la empresa, al menos tan ‘centro’ como los que están a su lado. El ‘juego’ lo que te permite es ser consciente de que ocupas un papel en una narrativa común, o storytelling, tienes conciencia de que lo que haces tienen un resultado, de que eres partícipe, participar en las recompensas y en una ‘narrativa’ que al fin y al cabo cuenta y es el avance de la empresa. Mucha gente piensa que es por la diversión por lo que, simplemente, el juego es eficaz… porque es divertido. En absoluto. Para lo que sirve, precisamente, es para conseguir que acciones muy repetitivas y rutinarias se conviertan o se puedan realizar de una manera casi natural para ti, porque puedes ir viendo, viviendo, como progresan los procesos hasta conseguir tu objetivo.

A. P.: La Gamificación, se asocia ahora, fácilmente, a grandes empresas basadas en y de Internet, tipo Amazon, Facebook,… y otros mercados en los que se habla de usuarios en lugar de clientes, ¿no es así?.

A. C: Facebook, en realidad no ha aplicado Gamificación en el sentido estricto del término que es: coger las dinámicas y mecánicas del juego y aplicarlas a un entorno no-lúdico y ahí, conseguir eficazmente gracias a ello objetivos determinados de cualquier naturaleza. Ha sido Zynga la empresa que fundó Mark Pincus con sus socios, la empresa que ha desarrollado juegos basados en Web 2.0, que funcionan como navegadores autónomos articulados como aplicaciones widget para dinamizar redes sociales como Facebook .

A. P.: Entonces, ¿a que entornos empresariales se esta aplicando ahora?.

A. C: Pues, por ejemplo en educación, gamificando los método de aprendizaje la evolución del ‘aprender jugando’; en el entorno de marketing y publicidad digital; para acelerar la conversión en entornos de comercio electrónico, que esta demostrado de forma empírica que funciona aumentando la fidelización de clientes de forma considerable. En el congreso, David Bolufer  el CTO de Chicisimo demostró con datos que desde que aplicaron mecánicas de juegos a su Web, las páginas vistas y la fidelización en las ventas aumentaron nada menos que un 1.000% en muy poco tiempo. También en el área de gestión comercial de empresas se está aplicando. Un ejemplo muy famoso es, empresa famosa por sus productos de CRM (sistemas informáticos para la administración y gestión de ventas y clientes de la empresa), que ha incorporado en su catalogo de sus productos CRM un módulo de Gamificación que permite establecer mecánicas de competición en el área comercial de una empresa. También en el sector de la salud, que es un sector y un mercado en el que se ha innovado mucho y antes que en otros, estamos viendo desde hace varios años como los juegos serios se están aplicando y se están consiguiendo con los pacientes muchos éxitos en los resultados para la mejora de salud de pacientes y en otros aspectos del sector.

A. P.: Pero en qué ámbito se está aplicando la ‘Gamificación’ en el sector de la salud? ¿la tratamiento de pacientes, por ejemplo en un hospital? ¿a la toma de medicamentos? ¿a qué ámbitos concretos se esta aplicando?.

A.C.: Un ejemplo, puede ser el de una empresa que ha gamificado la distribución de la información entre los profesionales dentro del sector médico, estimulando, premiando o incentivando a aquellos profesionales de la medicina que son o que han acabado siendo los mas dinámicos, o activos, a la hora de participar en un entorno de distribución compartida de información en participar en debates, en dar mas respuestas a las preguntas que se comparten en él. Básicamente era un ‘Question&Answer’ gamificado que ha generado la creación de una startup de Silicon Valley que ha recibido 12 ya millones de dólares de inversión”.

Ejemplo de Gamificación en sistemas de Salud: el prestigioso catedrático de la Universidad de Harvard Alvaro Pascual-Leone, prueba por sí mismo el sistema de neurorrehabilitación domiciliaria Neuro@HOme, con aplicaciones de Gamificación, que fue presentado durante el II Simposio Internacional de Neurorrehabilitación que tuvo lugar en Valencia el pasado Octubre. Fotos: Adolfo Plasencia

A. P.: Has hablado de ‘compartir’, que es un término, una de las palabras clave ligada a la esencia del Social Media, de las Redes Sociales  ¿Tú crees que hay un antes y un después en la aplicación de la ‘Gamificación’ desde que ha estallado a nivel global y masivo el uso del Social Media en Internet?

A. C.: Yo hago una línea que a mi me sirve para entender el progreso que estamos viviendo. Primero, es el salto de la brecha digital que nos permite a todos conectarnos: es la ‘conectividad’. En ese momento se produce lo que hemos hablado antes, un cambio de una ‘verticalidad’ a una ‘horizontalidad’ y aparecen fenómenos como el ‘crowsourcing’ en el que el poder de la ‘mente colectiva’ se genera a partir de esa conectividad horizontal genera una nueva información que se puede aprovechar para generar nuevo conocimiento útil. A partir de ahí, si lo que queremos es buscar el ‘engagement’ (enganche, o ‘compromiso’) de esos usuarios conectados a una misma red. Hay diferentes formulas para hacerlo. El Storytelling, o ‘narrativa’ es muy importante para intentar poder pasar de un inicio a un fin (u ‘objetivo final’) previsto… los humanos vivimos desde que nacemos desarrollando historias que nos mueven… ‘dibujar’ esa progresión hasta donde queremos llegar es mas fácil siguiendo esa ‘historia’ que podemos seguir hasta conseguir nuestro objetivo. Lo que parece es que el juego’ permite y estimula que todos comparamos de una manera mas eficaz en ese modo de conexión vital que tenemos ahora. La explosión de las rede sociales han permitido que todos nos conectemos, Facebook es un ejemplo actual, My Space lo fue antes, pero faltaba un ‘motivo’, un ‘para qué’. La conexión social espontánea y sin rumbo solo para experimentar inicialmente, se esta orientando cada vez mas  a objetivos concretos: crowsourcing (buscar soluciones a necesidades concretas aprovechando la mente colectiva), crowdfunding (‘micromecenazgo’ o micro financiación colectiva), etc. y la Gamificación intenta que esa búsqueda de soluciones o esa búsqueda de resultados a través de un trabajo colectivo, se haga de una manera mas eficaz utilizando dinámicas y mecánicas del juego a través o siguiendo el desarrollo de una historia mediante un storytelling o narrativa

A. P.: O sea que por ahí, ¿podríamos dar ya una definición sintética de ‘Gamificación’, no?.

A. C.:  Sí,  podemos decir que la ‘Gamificación’ consigue que la interacción colectiva, como la que se da en las redes sociales, por ejemplo, que se oriente a la búsqueda y obtención de resultados concretos para una empresa, de forma eficaz, que se canaliza o desarrolla utilizando dinámicas y mecánicas propias del juego, siguiendo una ‘narrativa’ concreta predefinida.

A. P.: Esto mas es fácil de imaginar, debido a sus éxitos si pensamos en grandes empresas globales basadas en Internet como Google, Facebook y al caso de Zynga o las Apps de Apple y su juegos, pero ¿Esto sirve también nuestras pequeñas y medianas empresas, que son mas del 90% de nuestro tejido industrial?. ¿Cómo podrían ayudar las estrategias, las metodologías o las dinámicas del juego y la Gamificación a ese mas de 90% de nuestra empresas que tienen menos de diez trabajadores y que son la inmensa mayoría de las que aquí crean trabajo?

A. C.: La principal tesis de la ‘Gamificación’ es que con mecánicas y dinámicas del juego se consiguen mayor eficacia aprovechando la horizontalidad a los procesos. Todas las PYMES, tienen procesos comunes y prioritarios en su actividad a los que se puede aplicar esta mejora en la eficacia: por ejemplo, a su gestión de proyectos, a su  área comercial y, una cosa muy necesaria ahora, -este es un proyecto que estamos llevando a cabo con una empresa de ese tipo-, a la dinamización  de la empresa dentro de las redes sociales, es decir la promoción de los productos y servicios de la empresa utilizando las redes sociales y midiendo los resultados. Todo ello mediante una aplicación que permite convertir eso en un juego, de forma que toda aquella personas de la empresa que vayan a participar en difundir en las redes sociales pueden hacerlo de forma organizada. El juego permite los empleados saber el nivel de eficacia consigue cada uno a nivel personal en ese esfuerzo en esa difusión de los productos y servicios, y a la empresa, y premiar, o en su caso disuadir, a cada empleado en función de la eficacia de resultados individuales concretos que consiguen para la empresa.

A. P.: Y, Arturo, ¿Cómo es la innovación en el campo de la Gamificación?

A. C.: En este sector innovación se entiende como ‘adaptación al cambio’. Incide directamente en el grado del cambio de mentalidad y de hábitos de los usuarios, en este caso de los empleados o de los clientes de una empresa que vive en un entorno hiperconectado, “always-on”, las 24 horas,  un paradigma radicalmente distinto al que se vive en las empresas hasta hace muy poco. Nuestra vidas han ‘mutado’ por la conectividad y las empresas que no ‘muten’ y se adapten el cambio, no serán capaces de articular un entono en el que los clientes estén satisfechos. Ese grado de adaptación al cambio dará la medida del nivel de innovación de esas empresas.

A.P.: Sí, pero durante algún será difícil hablar con los empresarios de esto un tiempo, ¿no?

A.P.: Digamos que es relativamente sencillo interesar a los empresarios mas despiertos por las bondades que tienen las cifras a la vista tanto en el videojuego como la gamificación, pero no es tan sencillo luego aterrizarlo a alguien que dice: bueno, vale, pero ¿cómo obtengo retorno economico de esto, cómo me subo a esto y cómo me va a ser rentable a mí ?… que es lo que hemos vivido los últimos cinco años de terrible de crisis, mientras esos años crecían al tiempo las redes sociales. En ese periodo de tiempo pasamos de ‘esto es algo de frikies‘ a ‘esto es algo muy cool‘, ‘quiero estar ahí’, a ‘déjame entrar’… a ‘voy a hacer lo que sea’  y también al… ‘no me sirve para nada, que alguien me explique como se hace bien y se consigue retorno en esto’. … Pues, de nuevo, vamos a pasar por el mismo trayecto, solo que mucho mas rápidos, en menos tiempo, Adolfo. Tú sabes que este es un proceso exponencial.

A. P.: Muchas gracias, Arturo. 

A.C.: Gracias a tí.

Adolfo Plasencia y Arturo Castelló en su diálogo 


Una síntesis de este artículo se publicó como historia de portada (pags. 1, 4 y 5) en el suplemento INNOVADORES de El Mundo, del 15 de octubre de 2012


28/10/2012, escrito por Adolfo Plasencia

Convertirnos en biónicos: José Carmena, un pionero en conectar cerebros y máquinas.

La Ingeniería neural del siglo XXI funciona a pleno rendimiento, en el Brain-Machine Interface Systems Laboratory de la UC Berkeley que dirige, Jose Carmena.

El valenciano José Carmena se dedica a la ingeniería neural y a la biónica con una intensidad casi sin límites. Por fin te tenido el privilegio de poder dialogar con él en profundidad para que nos hable de esta nueva ingeniería y de los experimentos que realiza. Para ejercerla como lo hace, hizo previamente un periplo de aprendizaje no menos intenso: Ingeniería Técnica Electrónica y Superior en la Universidad Politécnica y la Universitat, respectivamente, las dos en Valencia; después obtuvo la maestría y doctorado en inteligencia artificial y robótica en la Universidad de Edimburgo, y finalmente, una etapa postdoctoral en neurobiología en la Duke University, en EE.UU, en donde trabajó con Miguel Nicolelis, uno de los pioneros de la biónica. Lo culminó en la Universidad de California en Berkeley donde es profesor de ingeniería electrónica y neurociencia, y en donde dirige su propio Laboratorio, el Brain-Machine Interface Systems Laboratory, que desarrolla la ciencia y la tecnología necesarias para conseguir un “Interfaz Cerebro-Máquina” viable, que permita a personas paralizadas y con discapacidades motoras, controlar brazos robóticos, exo-esqueletos, prótesis adaptadas, etc., con el pensamiento.  Carmena es también co-director del Centro de neuroingeniería y prótesis neurales que se ha inaugurado recientemente entre la Universidad de California en Berkeley y la de San Francisco.

Esa ingeniería y neurociencia del siglo XXI que practican en su laboratorio, no responde a los cánones que teníamos ya esquematizados. El objeto principal de sus investigaciones es abordar el funcionamiento del cerebro humano.

José Carmena y Adolfo Plasencia en el diálogo.

Adolfo Plasencia: José, ¿cómo definirías en pocas palabras lo que es la ‘ingeniería neural’?

Jose Carmena: “Por definirla básicamentela ingeniería neural es la aplicación de técnicas de ingeniería, -electrónica, mecánica, informática etc.- en las neurociencias. Nosotros específicamente, perseguimos conseguir, por ejemplo, que personas cuyo cuerpo o alguna parte de él, ha quedado incapacitado para el movimiento por diferentes causas, finalmente, puedan realizar sus tareas cotidianas de forma autosuficiente”.

Adolfo Plasencia: ¿Cómo lo hacéis? ¿Dónde esta el centro de gravedad que equilibra un trabajo como el vuestro, enormemente multidisciplinar, para que sea lo más eficiente posible? ¿Es un punto fijo, o móvil que según la investigación concreta se desplaza o tiene el núcleo en un lugar diferente según sea el trabajo concreto?

José Carmena: “El caso que puedo dar como ejemplo para explicarlo es el de mi propio laboratorio en Berkeley. Nos llegan doctorandos de varios programas, de neurociencias, ingeniería electrónica e informática, bioingeniería, etc. Los estudiantes que entran en el laboratorio vienen con trayectorias previas distintas y tienen que aprender las herramientas de lo que no dominan para poder trabajar en ese campo. O sea, no vale el modelo antiguo de… yo soy biólogo, hago mi experimento, recolecto mis datos, se los dejo al estadístico, él los analiza y al final, todos escribimos y publicamos. No.  Ahora, el ‘ingeniero neural’,  –y esto está afectando a la neurociencia misma-, o  ‘neurocientífico de sistemas’, requiere una formación interdisciplinar que le permita abordar un problema por si mismo, problemas que requieren el dominio de diversos campos. Esto es lo común ahora en un laboratorio avanzado; da igual de donde venga cada doctorando, al final todos acaban entendiendo lo que el otro dice. Tiene que haber como un lenguaje común para que, en las reuniones de laboratorio, la gente se entienda.  Evidentemente, todos tenemos nuestro centro de gravedad en una disciplina o en otra, pero hemos que hacer el esfuerzo de “cruzar al otro lado”, de forma que al ingeniero neural domine tanto los conocimientos técnicos de ingeniería como los de neurociencia, y encaje en la cultura de ambas comunidades.  La clave del éxito real posterior de estas personas, va a depender en parte de esto.

La Biónica, es el ejemplo perfecto para motivar a muchos estudiantes a seguir a veces caminos más duros, con carreras técnicas o incluso seguir aprendiendo, continuando con post-grado en otros campos, dando el salto de un campo a otro para al final ver que todo converge en una aplicación interdisciplinar que es muy poderosa, tiene mucho futuro, puede ayudar a mucha gente y es fascinante. Es una batalla dura porque no puedes ser maestro de todas las disciplinas. Es un desafío constante entre anchura y profundidad –si acaparas mucho pero no eres muy profundo o si te centras demasiado en algo y no en lo de alrededor, no sabes-. Entonces, la Biónica como disciplina, creo, es un ejemplo de equilibrio interdisciplinar”.

Adolfo Plasencia: Acabas de publicar en la prestigiosa revista del IEEE Spectrum, un impresionante artículo titulado “Becoming Bionic” (Convertirse en biónico) que habla del interfaz cerebro-máquina que esta en el  centro de tus investigaciones y que comienza diciendo: “Imagina un dispositivo de alta tecnología que permite controlar un aparato exterior al cuerpo con sólo pensar en ello. La gente sueña con él desde hace décadas. Dispara la imaginación de científicos e ingenieros y de los autores de ciencia ficción. La razón es sencilla pero poderosa. Al transformar el pensamiento en acción, una  interfaz cerebro-máquina podría dotar de dispositivos de control a personas paralizadas, con por ejemplo brazos robóticos, prótesis u otros actuadores.

Adolfo Plasencia ¿Convertir el ‘pensamiento’ en ‘acción’ mediante un Brain-Machine Interface es muy complicado, verdad?,

 José Carmena: “Sí, muy complicado. Pero ya hay resultados en animales y en humanos que demuestran control mental de dispositivos protésicos mediante la decodificación (traducción) de intenciones motoras que se usan de forma eficiente y eso, de alguna forma, es ‘el pensamiento’, claro. De allí a tener lo que uno ve en películas como The Matrix y hacer un ‘download’ de la memoria, eso es pura ciencia ficción, evidentemente. Ahora bien, el objetivo es el mismo: tener un ‘puerto’ de comunicación con el cerebro que sea bi-direccional, es decir, del que se pueda ‘descargar’ información respecto a la acción que se desea realizar y en el que se pueda ‘subir’ o ‘grabar’ información sensorial proveniente del dispositivo robótico”.

Adolfo Plasencia: De hecho, tú escribiste, que el ‘Santo Grial’ de la interfaz cerebro-máquina será un sistema en el que el cerebro pueda ‘controlar’ y también ‘sentir’ a la máquina, incorporada como parte del cuerpo de uno mismo,  una interacción bidireccional, ¿No?,

Jose Carmena: “Exacto. Por ejemplo, en el caso de un paciente que quiera mover un brazo robótico para coger un vaso de agua que tiene en la mesa, lo primero es, poder ‘decodificar’ la intención. Esa es la parte de control, pero luego, está la parte de percepción, de ‘sentir’ la prótesis, y lo que la prótesis esta agarrando o tocando. Esa información habría que codificarla de alguna forma de vuelta hacia el cerebro, de ahí lo de ‘bidireccional’. El ‘decodificar’ es el “leer” y el ‘codificar’ sería el “escribir” información en el cerebro”.

Adolfo Plasencia: Hace pocos días, habéis publicado vuestro mas reciente trabajo en Nature en el que hablas del “aprendizaje de habilidades intencionales neuroprotésicas”. ¿Puedes explicar de qué se trata?,

Jose Carmena: “El objetivo del estudio, -que hicimos además en colaboración con el equipo de Rui Costa en el Champalimaud Centre for the Unknown, en Lisboa-, era saber si el resto del cerebro, las áreas más profundas de él que están relacionadas con el aprendizaje motor, no la corteza cerebral, sino debajo de la corteza, también forman parte y son necesarias para el aprendizaje cerebro-máquina. En este estudio, demostramos, entre otras cosas, que el cerebro tiene una capacidad plástica mayor de lo que se pensaba para controlar neuroprótesis porque puede adaptarse a tareas que, en principio, no son naturales o biomiméticas sino que son más abstractas, mientras que el resto del cerebro, toda la maquinaria existente que utilizamos para el aprendizaje motor de nuestro propio cuerpo, sigue en funcionamiento y es requerida para poder emprender esa tarea más abstracta. Estos resultados sugieren que disponemos de bastante flexibilidad a la hora de diseñar el sistema de decodificación y control de esa neuroprótesis”.

Adolfo Plasencia: Me gustaría preguntarte ahora en relación a la inteligencia artificial. Sé que te impresionó mucho un artículo de Rodney Brooks, quién durante más de tres lustros dirigió el Laboratorio de Computación e Inteligencia Artificial del MIT (CSAIL). Estuve con él y me dijo que le parecía que la inteligencia artificial iba muy ‘lenta’.. ¿Tú lo crees así? Porque casi todo el mundo piensa que la evolución tecnológica y científica va demasiado rápida, …

Jose Carmena:  “Si nos centramos en la Inteligencia artificial,  hay unas preguntas que son las hard questions, los problemas realmente difíciles, por ejemplo, el de la percepción,  y esos son los que avanzan muy despacio. Rodney  Brooks hizo estudios muy interesantes sobre el aprendizaje y comportamiento en robots y por los cuales, de hecho, yo me metí en este campo. Sus trabajos me parecían fascinantes. A una escala menor, podía demostrar comportamiento inteligente de robots sin haber implementado ningún tipo de conocimiento previo en ellos; el problema venía cuando quería escalar en complejidad en el comportamiento y la inteligencia de estas criaturas. Al final, se dio cuenta, como bien escribió en su libro, que no iba a llegar durante su vida a donde él quería llegar, que era el conocimiento humano. Hay problemas que no son fácilmente escalables, en los que incrementar el nivel de complejidad no es trivial.  El de la percepción es uno de ellos, -por lo menos, en el ámbito de la Inteligencia artificial. Pero no todo son críticas a la Inteligencia artificial. Hay ejemplos claros de éxito, de herramientas muy útiles que nos hacen la vida mas fácil y de hecho se convierten en imprescindibles, por ejemplo, los buscadores de Internet como Google, un ejemplo clarísimo de algo que usamos a diario”.


El asunto de la financiación de la ciencia

El motor financiero que sostiene la investigación en los laboratorios de universidades americanas, incluido el de José Carmena, son los organismos federales como los institutos nacionales de salud (NIH), la fundación nacional de ciencia (NSF), el ministerio de defensa (DOD), etc., mediante procesos muy competitivos de selección de proyectos.  Pero también hay fundaciones privadas que financian proyectos en determinadas áreas. Ese es el caso de la Christopher & Dana Reeve Foundation (CDRF), fundada por el famoso actor Cristopher Reeve, conocido mundialmente por su papel de ‘Superman’, a raíz de una accidente que le dejó parapléjico, y por su esposa Dana.  Los dos han fallecido, tristemente, pero la fundación sigue financiando la investigación en regeneración de médula y en vías alternativas como la que hace Carmena, por ejemplo, para conseguir que la gente que está en silla de ruedas pueda volver a andar y ser autosuficientes. LA CDRF ha financiado varias de las investigaciones del laboratorio que dirige José Carmena. Financian  de modo abierto y competitivo las investigaciones y, no solo eso, sino que con una cultura abierta organizando encuentros públicos que reúnen a científicos, médicos y pacientes para que se vean personalmente e intercambien conocimiento y experiencias.

Adolfo Plasencia: ¿como son esos encuentros con las personas que ponen su esperanza y máximas expectativas en la ciencia aplicada y la investigación en medio de unas dolencias tan duras?

José Carmena: “La de las expectativas de curación es una de las preguntas más duras y es la razón por la cual intento no dar nunca fechas ni estimaciones concretas acerca de cuándo habrá una solución clínicamente viable. Primero porque no lo sabemos y, segundo, porque al final la gente que sufre son los pacientes, que son la razón por la que trabajamos en esto, ya que se crean falsas expectativas. Una de las experiencias que me cambió fue en una de las reuniones anuales de la CDRF. A esta reunión asistían pacientes en sillas de ruedas que van y atienden todas las charlas, y te hacen preguntas cuando acabas. Cuando les estás hablando y ves cómo te miran a los ojos, que no se les escapa una coma de todo lo que estás diciendo y te preguntan cuándo va a estar eso disponible, te das cuenta de la gravedad de la situación, de la importancia de esta investigación y de lo más importante de todo que es el no crear falsas expectativas. Es un tema muy complicado. ¿Cómo vamos nosotros respecto a eso? Lo único que podemos decir –por lo menos ésta es mi visión-, es que es un campo en el que cada vez, no solo se avanza más, sino también cada vez hay más gente trabajando en él, que es lo que a mí más me entusiasma. Es un progreso en paralelo. Hay varios ‘cuellos de botella’, problemas gordos en los que se está trabajando de forma insistente, como por ejemplo, conseguir que las señales que se obtienen por el implante en el cerebro duren varias décadas en vez de unos pocos años sólo que es lo que están durando ahora en animales. Que se consiga un nivel de control de la prótesis que justifique los medios y, en este caso, que justifique la implantación en el cerebro, etc. ¿Cómo llegar ahí? El esfuerzo en paralelo de la comunidad científica hace que las soluciones a estos problemas se puedan aplicar de forma modular mucho mas rápidamente que si se trabajara en serie.  La incertidumbre sobre cuándo ocurrirá sigue ahí, pero somos optimistas y estoy convencido de que lograremos los objetivos”.

Adolfo Plasencia. Gracias por tu tiempo y tus palabras.

José Carmena. Gracias a tí. Un placer.


Una sintesis de este diálogo se publicó en el Suplemento INNOVADORES de El Mundo en mayo de 2012.




16/10/2012, escrito por Adolfo Plasencia


  • Nube Semántica

    Adolfo Plasencia Amazon Añadir etiqueta nueva Cloud computing Computación en la nube conocimiento abierto Cory Doctorow Creative Commons Dale Dougherty Economía de las ideas emprendedor Enrique Dans GGG Giant Global Graph Google Hal Abelson Innovación INNOVADORES inteligencia artificial Internet Internet de las Cosas Javier Echeverría Jeff Bezos John Perry Barlow Lawrence Lessig Massachusetts Institute of Technology MIT Pablo Jarillo-Herrero PYMES Redes sociales Ricardo Baeza-Yates Richard Stallman software libre Steve Jobs Suplemento Innovadores Tagging Tim Berners-Lee Tim O'Reilly Tim O’Reilly Ubuntu Vinton Cerf Web 2.0 Wikipedia WWW2009 Yahoo! Adolfo Plasencia (2)
    App Economy (1)
    Apple (2)
    Artesanía (1)
    Biónica (1)
    Biotecnología (1)
    Cibercultura (33)
    ciberengaño (1)
    Ciberespacio (11)
    Ciencia (15)
    Ciencias de la Computación (3)
    Cine (3)
    Comercio electrónico (6)
    conocimiento abierto (11)
    Creative Commons (5)
    Cultura (14)
    Cultura digital (28)
    Diseño (1)
    e-Commerce (5)
    Economía (19)
    Educación (11)
    Empresas (25)
    Empresas sociales (1)
    Física (2)
    flash mob (1)
    flashmob (1)
    Gamification (2)
    Gaming (2)
    Genómica (1)
    Hardware libre (1)
    Hidrogeología (1)
    Hiperlocal (1)
    Howard Rheingold (2)
    Informática (4)
    innovación (6)
    Interfaz Cerebro-Máquina (1)
    Internet (13)
    Microempresas (1)
    MIT (5)
    Mundos virtuales (2)
    nanomáquinas (2)
    nanorobots (1)
    Nanotecnología (2)
    netneutrality (4)
    Neutralidad (3)
    neutrality (1)
    Neutrality network (2)
    OLPC (2)
    Open Hardware (1)
    Phishing (1)
    Princeton (1)
    red (5)
    Redes Sociales (6)
    SEO (1)
    Serendipity (1)
    Snack Culture (1)
    Sociedad (6)
    Software libre (5)
    Startup (2)
    Steve Jobs (1)
    Tecnología (24)
    Tecnologías de búsqueda (5)
    Tecnologías de la Salud (4)
    Transporte (1)
    TV (2)
    Uncategorized (14)
    Web 2.0 (16)
    Web social (14)
    Wikipedia (2)
    WWW (14)

    WP Cumulus Flash tag cloud by Roy Tanck and Luke Morton requires Flash Player 9 or better.

  • June 2017
    M T W T F S S
    « May    

  • Artículos destacados de este blog

  • Facebook

  • Linkedin


  • Mis VideoBlogs favoritos

  • Meta

  • Fotos Flickr Adolfo

    Vinton Cerf y Adolfo Plasencia

    Adolfo Plasencia y Jimmy Wales

    Rodney Brooks

    Michail Bletsas

    Alvaro Pascual Leone

    John Perry Barlow en el Powerful Ideas Summit

    Tim OReilly entrevistado en Tecnópolis UP TV

    Richard Stallman entrevistado por Adolfo Plasencia

    Henry Jenkins y Adolfo Plasencia

    Hiroshi Ishii y James Patten en Tecnópolis de UP TV

    More Photos