{"id":1671,"date":"2023-08-28T11:59:05","date_gmt":"2023-08-28T09:59:05","guid":{"rendered":"https:\/\/adolfoplasencia.es\/blog\/?p=1671"},"modified":"2023-08-28T12:22:00","modified_gmt":"2023-08-28T10:22:00","slug":"la-aparente-y-probablemente-falaz-extrema-productividad-de-la-ia-generativa","status":"publish","type":"post","link":"https:\/\/adolfoplasencia.es\/blog\/la-aparente-y-probablemente-falaz-extrema-productividad-de-la-ia-generativa\/","title":{"rendered":"La aparente y probablemente falaz extrema productividad de la IA Generativa"},"content":{"rendered":"<p><strong>Adolfo Plasencia<\/strong>, 28 de agosto 2023<\/p>\n<p>&nbsp;<\/p>\n<p><a href=\"https:\/\/adolfoplasencia.es\/blog\/artificial-intelligence-wikipedia-3\/\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-1675\" src=\"https:\/\/adolfoplasencia.es\/blog\/wp-content\/uploads\/Artificial-Intelligence-Wikipedia-.jpeg\" alt=\"\" width=\"1993\" height=\"1391\" srcset=\"https:\/\/adolfoplasencia.es\/blog\/wp-content\/uploads\/Artificial-Intelligence-Wikipedia-.jpeg 1993w, https:\/\/adolfoplasencia.es\/blog\/wp-content\/uploads\/Artificial-Intelligence-Wikipedia--300x209.jpeg 300w, https:\/\/adolfoplasencia.es\/blog\/wp-content\/uploads\/Artificial-Intelligence-Wikipedia--1024x715.jpeg 1024w, https:\/\/adolfoplasencia.es\/blog\/wp-content\/uploads\/Artificial-Intelligence-Wikipedia--768x536.jpeg 768w, https:\/\/adolfoplasencia.es\/blog\/wp-content\/uploads\/Artificial-Intelligence-Wikipedia--1536x1072.jpeg 1536w\" sizes=\"auto, (max-width: 1993px) 100vw, 1993px\" \/><\/a><\/p>\n<h6><em>Nuestra tendencia a antropoformizar todo aquello que llaman &#8220;IA&#8221;, aunque sea machine learning,\u00a0 como los LLM, se cumple con el Chat GPT. Las im\u00e1genes para representar lo que es un puro software tambi\u00e9n lo demuestran. Esta <a href=\"https:\/\/es.wikipedia.org\/wiki\/Archivo:Artificial_Intelligence_%26_AI_%26_Machine_Learning_-_30212411048.jpg\">imagen<\/a> es de Wikipedia.<\/em><\/h6>\n<p>Vivimos en un mundo digitalmente globalizado en el que cada uno de nosotros se ha de enfrentar a una magnitud total de informaci\u00f3n mucho mayor de la que su mente puede metabolizar con nuestra propia capacidad de pensamiento. En ello se da una paradoja. Un cerebro humano consume 20 vatios\/hora. Y mucha gente ahora mismo interact\u00faa con el <a href=\"https:\/\/openai.com\/chatgpt\">Chat GPT<\/a> se asombra por las repuesta que &#8216;escupe&#8217; (en ingl\u00e9s, se dice as\u00ed porque el modelo de software no redacta ni escribe). Pero ni se plantea que cantidad de energ\u00eda se consume en ello, aunque muchos investigadores present\u00edan que &#8220;<a href=\"https:\/\/english.elpais.com\/science-tech\/2023-05-14\/researchers-seek-algorithms-that-wont-destroy-the-planet-chatgpts-energy-consumption-must-be-brutal.html\">El consumo energ\u00e9tico de ChatGPT debe ser brutal<\/a>&#8220;. Pero ya hay quien lo han estado calculando. Comparemos y veremos la paradoja. Frente a los 20 vatios del consumo de energ\u00eda un cerebro humano en acci\u00f3n plena, una sola sesi\u00f3n de di\u00e1logo con Chat GPT consume, seg\u00fan el <a href=\"https:\/\/di.ku.dk\/english\/research\/publications\/publication-list\/?pure=en%2Fpublications%2Fcarbontracker(2b01c02c-2c47-44c7-bf2e-1fe12917c488).html\"><em>Carbon Tracker<\/em> de la Universidad de Copenhague<\/a> el equivalente al consumo de 126 hogares daneses en un a\u00f1o. Ese gran consumo de energ\u00eda es causado por el enorme hardware que tiene detr\u00e1s (se necesitan 28.936 GPUs Nvidia A100 para dar servicio a ChatGPT).<\/p>\n<p>El investigador dan\u00e9s Kasper G. A. Ludvigsen, teniendo el cuenta la estructura de su <em>hardware,<\/em> ha calculado que, con 28.936 GPU, el consumo total es electricidad de 5.787,2 KW. As\u00ed que un periodo de 30 d\u00edas<strong>, el consumo el\u00e9ctrico de ChatGPT ser\u00eda de 4.166.784 KWh, o sea \u00a1m\u00e1s de 4 millones de Kilovatios \/ hora!<\/strong> <strong>Esto supone el Chat GPT tiene un consumo el\u00e9ctrico de 5.787,2 Kilovatios cada hora<\/strong>. Y, adem\u00e1s las cifras emisiones de CO<sup>2<\/sup> que produce van en paralelo a ello. Algo que es manifiestamente insostenible para los resultados obtenidos. Pero, adem\u00e1s, con ese consumo el Chat GPT, no genera pensamiento como hacer el cerebro humano; simplemente calcula estad\u00edsticamente la palabra siguiente a la actual y as\u00ed sucesivamente, como un <em>software<\/em> auto-completador. Pura espectacularidad y apariencia ligada a un <em>Efecto Eliza <\/em>generalizado.<\/p>\n<p>El mundo financiero especulador, que tiempo ha ignora las advertencias de los cient\u00edficos sobre el cambio clim\u00e1tico, sigui\u00f3 &#8216;a su bola&#8217; extremando sus apuestas en la carrera de la IA, y tambi\u00e9n ignorando, no solo en lo relativo a las certezas sobre la tecnolog\u00eda IA, sino aumentando y acelerando sus apuestas especulativas asoci\u00e1ndose a empresas dopadas con millonarias inversiones en monta\u00f1a rusa, que tambi\u00e9n ignoraban y\/o ocultaban los riesgos inherentes a las tecnolog\u00edas que, obcecadamente, etiquetaban con &#8220;IA&#8221; todos sus discursos, y tambi\u00e9n los \u2018<em>papers <\/em>cient\u00edficos\u2018 relacionados que usaban interesadamente. Y ocultando, al tiempo, adem\u00e1s la verdadera naturaleza de la tecnolog\u00eda de los LLM (<em>Large Language Model<\/em>) y de sus <em>Transformer<\/em>s. Que, literalmente, describe as\u00ed Wikipedia: &#8220;un transformador es un modelo de aprendizaje profundo que adopta el mecanismo de auto-atenci\u00f3n, ponderando diferencialmente la importancia de cada parte de los datos de entrada (que incluye la salida recursiva). Se utiliza principalmente en los campos del procesamiento del lenguaje natural\u201d.<\/p>\n<p>Ni diez ni cien millones de art\u00edculos como este, podr\u00edan contener todos los textos sobre las llamadas IA Generativas que se han publicado desde el 4 de diciembre, d\u00eda de la apertura al acceso del p\u00fablico del ChatGPT por la antes empresa <em>non-profit<\/em> OpenAI\u00a0 \u00bfQu\u00e9 que son esas IA? pues redes neuronales artificiales generativas que utilizan un enfoque llamado aprendizaje profundo (<em>deep learning<\/em>), que permite que la &#8220;IA&#8221;, es decir, su inmensa estad\u00edstica bayesiana interna, &#8220;aprenda&#8221; de los datos de manera autom\u00e1tica. O sea, unas mal llamadas IA que pueden analizar inmensas cantidades de datos y encontrar patrones y relaciones que de otra manera ser\u00edan dif\u00edciles de detectar, seg\u00fan la premisa previa no demostrada a\u00fan, de que dicho mecanismo permitir\u00e1 a los Transformers y LLM producir, \u2013supuestamente\u2013 \u201cmateriales originales\u201d a partir de los datos de su entrenamiento, que s\u00ed han sido creaci\u00f3n de humanos (y usados para ello sin pedirles permiso). Como dijo un profesor del MIT, que no quiere dar su nombre: &#8220;solo son una &#8216;proeza estad\u00edstica&#8217;.<\/p>\n<p><strong>Los anuncios hiperb\u00f3licos de la explosiva industria IA<\/strong><\/p>\n<p>Seg\u00fan el profesor y analista island\u00e9s Baldur Bjarnason, autor del libro &#8220;<a href=\"https:\/\/illusion.baldurbjarnason.com\/\">The Intelligence Illusion<\/a>&#8220;, los proveedores de <em>software <\/em>de IA tienen ahora en sus enormes incentivos econ\u00f3micos razones de peso para exagerar las capacidades de sus herramientas y hacer que sean dif\u00edciles de refutar. Esto socava los intentos de rigor cient\u00edfico sobre ellas. Adem\u00e1s, es importante ser esc\u00e9ptico ante las afirmaciones de los proveedores de IA porque el sector de esta nueva industria inform\u00e1tica es propenso a los anuncios hiperb\u00f3licos. Los vendedores de sistemas de IA tienden a hacer promesas que no podr\u00e1n cumplir. Muchos de ellos, hist\u00f3ricamente, ni siquiera han sido tecnolog\u00eda de &#8216;verdadera IA&#8217;. Pero ahora la etiqueta &#8220;AI&#8221; ya forma parte del <em>mainstream<\/em> y, como compart\u00ed hace poco con un apreciado humanista amigo, ya es completamente in\u00fatil intentar desmentir que eso no es lo que dicen que es, sino otra cosa. Incluso la <a href=\"https:\/\/www.ftc.gov\/business-guidance\/blog\/2023\/02\/keep-your-ai-claims-check\">Comisi\u00f3n Federal de Comercio<\/a> de EE.UU. se ha visto en la necesidad de recordar a la gente que las afirmaciones sobre capacidades m\u00e1gicas de la IA deben basarse en hechos.<\/p>\n<p>Un campo tan prometedor -e hiperb\u00f3lico-, como la IA tiende a atraer a entusiastas verdaderos creyentes de la &#8220;IA&#8221;, por lo que no son tan cr\u00edticos con la informaci\u00f3n como deber\u00edan. Igual que a muchos usuarios les asombra lo que &#8216;escupe&#8217; el Chat GPT, a las empresas de IA les encantan las apariencias cient\u00edficas, y publican &#8220;estudios&#8221; escritos y presentados con aspecto de art\u00edculos sometidos a revisi\u00f3n por pares. Pero a menudo, estos &#8220;art\u00edculos&#8221; se suben a sus propios sitios web o se vuelcan en repositorios de archivos como Arxiv, sin revisi\u00f3n por pares ni proceso acad\u00e9mico.<\/p>\n<p>Seg\u00fan Bjarnason, que ha escrito <a href=\"https:\/\/illusion.baldurbjarnason.com\/img\/the-intelligence-illusion.jpg\">una gu\u00eda pr\u00e1ctica<\/a> sobre los riesgos empresariales de la IA Generativa, la mayor parte de la ret\u00f3rica de las empresas de IA, especialmente cuando evocan a la Inteligencia Artificial General (IAG), se basa en un tono de evidencia solemne, en lugar de pruebas reales. En muchos casos, adoptan los modales de la ciencia sin ninguna revisi\u00f3n por pares ni metodolog\u00eda falsable. Y advierte que, creer a pies juntillas el gran &#8216;bombo&#8217; publicitario de la industria de la IA puede causar da\u00f1os reales, sobre todo a las empresas, pero tambi\u00e9n a las personas vulnerables, como ocurre con la algor\u00edtmica de las plataformas de redes sociales.<\/p>\n<p>Por supuesto, \u2013afirma\u2013, lo que est\u00e1 pasando con el <em>hype<\/em> de los GPT-n da un poco de miedo. Pero no da miedo porque el m\u00e1s nuevo, el GPT-4, sea inteligente. Da miedo porque no lo es. Conectar un sistema de lenguaje irreflexivo y no determinista, potencialmente, en una m\u00e1quina mal protegida a una variedad de servicios en Internet, da miedo de la misma manera que la idea sobre las consecuencias de dejar que un generador de n\u00fameros aleatorios controle el termostato de tu casa, durante una ola de fr\u00edo de \u201350\u00b0 de las que se producen una vez cada siglo. Que pueda matarte con ello no significa que el generador de n\u00fameros sea consciente de s\u00ed mismo.<\/p>\n<p>Se est\u00e1 publicando tant\u00edsimo sobre la AI, que en un mundo de la comunicaci\u00f3n tan hiperventilado como el actual, adem\u00e1s de evangelistas y &#8216;forofos&#8217; de las promesas de la IA, tambi\u00e9n proliferan cr\u00edticos radicales, catastrofistas y <em>negacionistas<\/em> de la IA que han generado un nuevo g\u00e9nero de condenas de la tecnolog\u00eda que, en el argot, se llama la &#8220;criti-hype&#8221; de la AI. Son gente que parte de la base de que los modelos de <em>software<\/em> son, al menos, tan buenos como afirman sus vendedores, o incluso mejores. As\u00ed que caen en su propia trampa y extrapolan desastres de ciencia ficci\u00f3n a partir de exageradas fantas\u00edas del marketing hiper-interesado.<\/p>\n<p><strong>Promesas a las empresas de productividad y beneficios econ\u00f3micos exponenciales<\/strong><\/p>\n<p>El <em>hype<\/em> o subid\u00f3n causado por el entusiasmo global pro-IA, no solo se aceler\u00f3, sino que caus\u00f3, sobrealimentado por las redes sociales y twitter (casualmente propiedad hoy de Elon Musk, que dejo Open AI como co-fundador y gran accionista en 2019 por discrepancias con su CEO), una explosi\u00f3n nuclear de opini\u00f3n publica a cuya onda expansiva se sumaron irracionalmente todos grandes los medios &#8216;FactCheck&#8217; de comunicaci\u00f3n del mundo. La mism\u00edsima agencia Reuters public\u00f3 el 15 de diciembre solo once d\u00edas despu\u00e9s del lanzamiento que \u201c<a href=\"https:\/\/www.reuters.com\/business\/chatgpt-owner-openai-projects-1-billion-revenue-by-2024-sources-2022-12-15\/\">las proyecciones dicen que OpenAI gane mil millones de d\u00f3lares en ingresos para 2024<\/a>.\u201d<\/p>\n<p>Fortune publicaba un poco despu\u00e9s que: \u201cEn enero de 2023, OpenAI estaba valorada en 29 mil millones de d\u00f3lares. Eso la convierte en la sexta compa\u00f1\u00eda m\u00e1s valiosa de los Estados Unidos\u201d. O sea que Open AI en mes y medio ya no val\u00eda como un unicornio sino como 29 unicornios (empresas que el mundo financiero valora en mil millones de d\u00f3lares). Reuters se sum\u00f3, anunciando el 10 de enero la intenci\u00f3n de Microsoft de invertir 10.000 millones de d\u00f3lares en Open AI. S\u00ed, en aquella peque\u00f1a <em>startup <\/em>ex<em> non-profit<\/em> de 164 empleados que lanz\u00f3 el 4 de diciembre el Chat GPT.<\/p>\n<p>Si el objetivo de algunos con Open AI era provocar un enorme se\u00edsmo alcista en las bolsas, estaba conseguido. Pero pronto empezaron los efectos secundarios. Tal como cont\u00e9 en estas p\u00e1ginas, la onda expansiva provoco de inmediato una alerta por \u2018<a href=\"https:\/\/www.elespanol.com\/invertia\/disruptores-innovadores\/opinion\/20230112\/peligro-reputacional-codigo-rojo-google\/733056692_13.html\">c\u00f3digo rojo\u2019 reputacional<\/a> en Google. Y no solo eso. El 8 de febrero, dos meses despu\u00e9s, con las prisas, Google present\u00f3 precipitadamente <a href=\"https:\/\/bard.google.com\/?hl=es\"><em>Bard<\/em> <\/a>su nuevo <em>chatbot<\/em> de IA para competir con Chat GPT (OpenAI\/Microsoft). Pero, inopinadamente, <em>Bard<\/em> minti\u00f3 descaradamente en preguntas clave en su propia puesta de largo. Seg\u00fan Forbes, Google pretend\u00eda en la presentaci\u00f3n anunciar que iba a integrar su <em>chatbot<\/em> de IA rival de ChatGPT en su motor de b\u00fasqueda <em>Bing<\/em> y otros productos pero, el resultado fue un fiasco de grandes proporciones: las acciones de Google cayeron un 7,68% hasta \u00a099,40 d\u00f3lares, <a href=\"https:\/\/es-us.finanzas.yahoo.com\/noticias\/alphabet-perdi%C3%B3-us-100-millones-162800307.html?\">perdiendo m\u00e1s de 100.000 millones de d\u00f3lares en valor de mercado<\/a> en los siguientes minutos a dicha presentaci\u00f3n (cosas de la <em>high-frequency trading.HFT)<\/em>.<\/p>\n<p>Pero \u00bfcual era el objetivo en realidad de este <em>hype<\/em> de los lanzamientos de la IA Generativa con GPT-3 y sus colegas Dall-E, Stable difusi\u00f3n, PalmM y todo el enorme y diverso reba\u00f1o de <em>Transformers<\/em>? Resulta que casi todas las grandes tecnolog\u00edas estaban trabajando discretamente en su propio LLM, o GPT para posicionarse en la inminente batalla de la IA. Y este tipo de tecnolog\u00edas de grandes Modelos de Lenguaje ya los estaban utilizando tiempo ha muchas empresas, <a href=\"https:\/\/adolfoplasencia.es\/blog\/la-invasion-algoritmica-se-apodera-del-periodismo\/\">empezando<\/a> por grandes medios de comunicaci\u00f3n que publicaban informaciones \u2018escupidas\u2019, que no redactadas, por un MML o un GPT y sin informar al lector.<\/p>\n<p>Como ya <a href=\"https:\/\/adolfoplasencia.es\/blog\/la-invasion-algoritmica-se-apodera-del-periodismo\/\">relat\u00e9 en estas mismas p\u00e1ginas<\/a>, desde el Washington Post (propiedad de Jeff Bezos) o The Associated Press, hasta South China Morning Post todos lo hac\u00edan presumiendo, cara a sus accionistas, del enorme aumento de productividad en su &#8216;maquinaria&#8217; de noticias. Es decir, enfatizando que la automatizaci\u00f3n de tareas intelectuales que se puede realizar con esta tecnolog\u00eda, genera un enorme aumento de productividad. Verbigracia para iniciados: se pueden eliminar empleos y conseguir enormes ahorros de costes en las grandes empresas de la maquinaria de grandes medios de noticias. Con ello, sembrada quedaba la semilla que pronto iba a explotar, de que esta tecnolog\u00eda nos va a quitar los empleos basados en el uso del lenguaje y el conocimiento. Pero el incidente de Google con su <em>Bard<\/em> demostr\u00f3 en la primera prueba, -a un precio de un fiasco instant\u00e1neo de 100.000 millones de valoraci\u00f3n de empresa\u2013, que los textos que \u2018escupen\u2019 los GPT, no son en absoluto de fiar. Veremos que dicen en breve los conspicuos guardianes de fiabilidad de la informaci\u00f3n financiera oficial. As\u00ed que, esas expectativas de extrema productividad pueden acabar, de la misma manera que las certezas del Chat GPT, siendo una dolorosa falacia.<\/p>\n<p>Pero adem\u00e1s del fiasco de Bard, Google ya suma otros dos no menos &#8216;dolorosos&#8217; relaci\u00f3n a la AI. Ya cerr\u00f3 en abril de 2019 el Comit\u00e9 de \u00c9tica de Inteligencia Artificial apenas una semana despu\u00e9s anunciar su creaci\u00f3n, y que hab\u00eda abierto la empresa solo unos d\u00edas antes <em>\u00bfEs la \u00e9tica un desaf\u00edo demasiado grande para Google?, <\/em><a href=\"https:\/\/www.elespanol.com\/invertia\/disruptores-innovadores\/opinion\/20190404\/etica-desafio-demasiado-grande-google\/388331167_12.html\">me preguntaba yo en una columna<\/a> en aquel momento, abril de 2019. Bien, pues hace poco, en mayo de 2023 ha estallado un tercer fiasco: el &#8216;padrino de la IA&#8217;, el prestigioso y pionero Geoffrey Hinton, que fue contratado por la empresa al fijarse en la calidad de su trabajo seminal en redes neurales, <a href=\"https:\/\/www.theguardian.com\/technology\/2023\/may\/02\/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning\">acaba de dimitir y abandonar Google<\/a>, donde llevaba trabajando 10 a\u00f1os, declarando a la CBS que teme los riesgos de este tipo de AI que est\u00e1 desarrollando ahora la industria tecnol\u00f3gica y que &#8220;se arrepiente de su trabajo anterior&#8221;. Y ha a\u00f1adido a un periodista del NYT: &#8220;Me consuelo con la escusa normal: si yo no lo hubiera hecho, otro la habr\u00eda hecho. Pero es dif\u00edcil anticipar c\u00f3mo se puede evitar que malos actores usen esta poderosa tecnolog\u00eda para malas cosas&#8221;.<\/p>\n<p>Adem\u00e1s, est\u00e1n public\u00e1ndose, para darle visos de seriedad al asunto, cifras sobre extrema la productividad de las aplicaciones IA en investigaciones cient\u00edficas o medicina, para mostrar, de nuevo comparadas las grandes diferencias con el procesado humano de grandes cantidades de datos m\u00e9dicos, y su utilidad. Es verdad que esta tecnolog\u00eda es capaz de encontrar patrones y relaciones que de otra manera ser\u00edan dif\u00edciles de detectar. Ya lo demostraron los modelos algor\u00edtmicos de las llamadas <em>\u2018<\/em><a href=\"https:\/\/www.quantamagazine.org\/machine-scientists-distill-the-laws-of-physics-from-raw-data-20220510\/\"><em>scientist machines<\/em><\/a><em>\u2019<\/em> hace varios a\u00f1os que son capaces de destilar las leyes de la f\u00edsica a partir de datos en bruto. Es la nueva &#8220;f\u00edsica GoPro&#8221;, en la que una &#8216;c\u00e1mara&#8217; de IA puede apuntar a un evento y un algoritmo puede encontrar la ecuaci\u00f3n f\u00edsica subyacente.<\/p>\n<p>Uno ejemplo espectacular es que uno de ellos entren\u00e1ndolo con datos de masas y planetas y \u00f3rbitas del sistema solar fue capaz de llegar a \u2018escupir\u2019 (depurar, seg\u00fan el equipo cient\u00edfico) finalmente la f\u00f3rmula de la gravedad de Newton sin pasar por los logros de cient\u00edficos anteriores los antiguos gigantes a cuyos hombros de subi\u00f3 el f\u00edsico para otear como Kepler Galileo y otros. \u00bfC\u00f3mo lleg\u00f3 a ella el Modelo? No se sabe ni se ha podido averiguar. Ni siquiera lo han conseguido saber los que desarrollaron aquel software, que en pruncipio estaba pensado para otra cosa. Probablemente, porque los LLM y los GPT son complej\u00edsimas cajas negras cuyo interior es indescifrable, incluso para los mismos que las desarrollan. Y eso pasa hasta hoy.<\/p>\n<p>Alguien debi\u00f3 pensar, al parecer, que <strong>aumentando el tama\u00f1o ya inmenso de estas gigantescas e indescifrables cajas negras se llegar\u00eda a una masa critica de interacci\u00f3n de los algoritmos, de la que, a partir de una cierta magnitud cr\u00edtica, tal vez de ella podr\u00eda emerger alg\u00fan comportamiento \u2018inteligente\u2019 demostrable<\/strong>. Por eso, parece, se aumentaron en varios ordenes de magnitud todas las dimensiones de los Modelos hasta llegar a las de GPT-4.<\/p>\n<p>Pero, como tal vez no estaban muy seguros de los posibles riesgos de GPT-4 (y como reconociendo que las ten\u00edan control sobre los resultados), Open IA contrat\u00f3 hace m\u00e1s de seis meses a un equipo diverso de destacados cient\u00edficos de IA (de la ciencia seria) de los mejores centros del mundo, para &#8220;evaluar&#8221; diferentes partes de su nuevo y potente modelo ling\u00fc\u00edstico. Y al publicar <a href=\"https:\/\/on.ft.com\/3MOcVEt\">Financial Times<\/a> la lista de dicho &#8216;Equipo Rojo&#8217; pude ver que solo hab\u00eda dos espa\u00f1oles, los dos, investigadores de IA del Instituto Universitario Valenciano de Investigaci\u00f3n en Inteligencia Artificial (VRAIN) de la UPV: Jos\u00e9 Hern\u00e1ndez-Orallo y Lexin Zhou. He hablado con el primero, a quien conozco hace tiempo y me dijo estar impresionado, pero no me dijo m\u00e1s. No s\u00e9 que tipo de cl\u00e1usulas de confidencialidad hab\u00eda firmada el equipo rojo. Espero que pronto nos cuenten m\u00e1s s\u00ed pueden, porque no espero nada de la transparencia de Open AI, la antes <em>non-profit<\/em>.<\/p>\n<p><strong>M\u00e1s sorpresas de Open AI: falacias sobre productividad y el coste oculto<\/strong><\/p>\n<p>Si puedo contar lo que acaba de afirmar el co-fundador, \u2013con Elon Mask, que abandon\u00f3 la empresa en 2019\u2013, Sam Altman, el ahora superfamoso CEO de Open AI. El mismo que, hace solo tres meses <a href=\"https:\/\/www.forbes.com\/sites\/alexkonrad\/2023\/02\/03\/exclusive-openai-sam-altman-chatgpt-agi-google-search\/?sh=45bfb8a56a63\">declar\u00f3<\/a>, a Forbes el 3 de marzo de 2023 que \u201csu tecnolog\u00eda est\u00e1 preparada para &#8220;romper el capitalismo&#8221;. Pues bien, hace pocos d\u00edas nos ha dado otra sorpresa m\u00e1s. La prestigiosa Wired publico lo que el CEO de Open AI ha dicho en una presentaci\u00f3n en el MIT. Justo, el 23 de abril, \u2013por cierto, d\u00eda mundial del libro y aniversario de Shakespeare y Cervantes\u2013, la frase de sus palabras m\u00e1s destacada en el titular una prestigiosa a revista digital relacionada con el MIT de Altman es: \u201cEl CEO de OpenAI afirma que <a href=\"https:\/\/bit.ly\/41HQNQb\">la era de los modelos gigantes de IA ya ha terminado<\/a>\u201d. Sorpresa may\u00fascula.<\/p>\n<p>Altman revolucion\u00f3 a la ciclot\u00edmica audiencia global atenta a la IA con su s<em>peech<\/em> en el MIT que se viraliz\u00f3 en segundos a todo el mundo global: \u201cLos grandes modelos ling\u00fc\u00edsticos cada vez m\u00e1s grandes no son el futuro. Creo que ya estamos al final de la era de los modelos gigantes y que los mejoraremos de otras formas\u201d, -dijo-.\u00a0 Y a\u00f1adi\u00f3: \u201cEs mejor centrarse en aumentar r\u00e1pidamente la capacidad, que en el n\u00famero de par\u00e1metros. Si es posible, mejorar la capacidad con un menor n\u00famero de par\u00e1metros o combinando varios modelos m\u00e1s peque\u00f1os, entonces estupendo.\u201d<\/p>\n<p>Pero creo que ha sido <a href=\"https:\/\/venturebeat.com\/ai\/the-hidden-danger-of-chatgpt-and-generative-ai-the-ai-beat\/\">Ventureveat<\/a> el que ha se\u00f1alado una buena la raz\u00f3n oculta probable: las ideas de Altman est\u00e1n motivadas por los costes. Los LLM son muy, muy caros: al parecer, la &#8216;formaci\u00f3n&#8217; del GPT-4 cost\u00f3 100 millones de d\u00f3lares. Este coste es una de las razones por las que Microsoft est\u00e1 desarrollando su propio chip de inteligencia artificial y, probablemente, ha sido un factor que ha influido en la r\u00e1pida reticencia de Google a lanzarse de cabeza al lago de la inteligencia artificial generativa.<\/p>\n<p>Pero las replicas del se\u00edsmo iniciado por Open AI, siguen a su bola. Mientras OpenAI, de forma un poco inveros\u00edmil dado el contexto, parece no tener ninguna prisa por desarrollar GPT-5, la competencia y la presi\u00f3n siguen aumentando en la loca carrera de F\u00f3rmula 1 hacia la AIG. Amazon acaba de presentar su familia Titan de LLM (para generar texto y traducirlo a representaciones de significado sem\u00e1ntico). Y el imprevisible co-fundador de Open AI Elon Musk, que acab\u00f3 firmando la <a href=\"https:\/\/futureoflife.org\/open-letter\/pause-giant-ai-experiments\/\">carta de moratoria de seis meses<\/a>, \u2013despu\u00e9s firmada, hasta ahora, por m\u00e1s de 33.000 cient\u00edficos relevantes, empresarios y profesores\u2013, tambi\u00e9n est\u00e1 tramando algo. Ha constituido una empresa llamada X.AI y ha comprado miles de GPU de Nvidia para construir su propio LLM.<\/p>\n<p>Musk tambi\u00e9n declar\u00f3 a Tucker Carlson, de Fox News, que planea enfrentarse al &#8220;pol\u00edticamente correcto&#8221; ChatGPT de OpenAI con algo que ha llamado <em>TruthGPT<\/em>, una &#8220;inteligencia artificial que busca la &#8216;verdad m\u00e1xima&#8217; e intenta comprender la naturaleza del universo&#8221;. Nada menos. Mmmm&#8230;, lo que pasa es que es demasiado aficionado a la <em>posverdad<\/em> extrema y sesgada. Veremos<\/p>\n<p>Dejo al lector, para acabar, en manos de una elocuente frase del prestigioso pensador de la tecnolog\u00eda Jaron Lanier, formulador del concepto &#8216;realidad virtual&#8217;, que abre un nuevo frente de pensamiento sobre la inteligencia artificial: &#8220;<a href=\"https:\/\/www.theguardian.com\/technology\/2023\/mar\/23\/tech-guru-jaron-lanier-the-danger-isnt-that-ai-destroys-us-its-that-it-drives-us-insane\">El peligro de la IA no es que nos destruya, es que nos vuelva locos<\/a>.&#8221; Piensen en ello.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Adolfo Plasencia, 28 de agosto 2023 &nbsp; Nuestra tendencia a antropoformizar todo aquello que llaman &#8220;IA&#8221;, aunque sea machine learning,\u00a0 como los LLM, se cumple con el Chat GPT. Las im\u00e1genes para representar lo que es un puro software tambi\u00e9n lo demuestran. Esta imagen es de Wikipedia. Vivimos en un mundo digitalmente globalizado en el [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[877,971,972],"tags":[213,973,974],"class_list":["post-1671","post","type-post","status-publish","format-standard","hentry","category-adolfo-plasencia","category-inteligencia-artificial","category-machine-learning","tag-inteligencia-artificial","tag-llm","tag-machine-learningg"],"_links":{"self":[{"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/posts\/1671","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/comments?post=1671"}],"version-history":[{"count":3,"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/posts\/1671\/revisions"}],"predecessor-version":[{"id":1677,"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/posts\/1671\/revisions\/1677"}],"wp:attachment":[{"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/media?parent=1671"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/categories?post=1671"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/adolfoplasencia.es\/blog\/wp-json\/wp\/v2\/tags?post=1671"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}