lahaine.org
Mundo, EE.UU. :: 16/07/2025

La promesa desmesurada de las IAG. ¿Cuánta realidad hay en esta nueva tecnología?

Esteban Magnani
Los efectos secundarios y limitaciones estructurales de la Inteligencia Artificial General permiten dudar si realmente beneficiarán a alguien más que las empresas que las desarrollan

La ola de la IAG es irrefrenable... al menos en los medios. En un podcast reciente Sam Altman, el CEO de OpenAI, anunciaba, entre otras cosas: "Vas a ver que tendrás estos empleados virtuales, pero lo que creo que tendrá el mayor impacto en ese período de cinco a diez años es que la IA realmente descubrirá nuevas ciencias". Su hermano y conductor del programa le repregunta (algo poco habitual para los CEOs) cómo se logrará: "Creo que hemos resuelto los modelos con capacidad de razonamiento".

Hace un par de semanas un grupo de científicos bajo el auspicio de Apple publicó un paper llamado "La ilusión de pensar". Allí probaban modelos de IAG supuestamente capaces de razonar que fracasaban en los juegos lógicos al aumentar las variables. Una vez que iban más allá de lo conocido no podían utilizar la lógica para comprender que simplemente tenían que hacer lo mismo que venían haciendo. La conclusión parece obvia si entendemos que la IA es solo estadística, no deducción.

Los peligros actuales de antropomorfizar a la IA son significativos, como explica, por ejemplo, Emily Bender en su investigación "Loros estocásticos". La autora recuerda que la IA solo reformula con probabilidad estadística lo que ya fue creado por humanos y que sirvió para entrenarla.

Como explica el especialista Evgeny Morozov "lo que hoy llamamos inteligencia artificial no es ni artificial ni inteligente". Lo que hace la IA es tomar creaciones humanas, es decir, producto (ahora sí) de la inteligencia, para reciclarlas de manera verosímil. La única inteligencia que puede desplegar la máquina es, en definitiva, de origen humano. Pese a la publicidad y la sorpresa que efectivamente produce la mímica verosímil de estas máquinas, los trabajadores del mundo comienzan a comprender que la IA los despoja de uno de los saberes humanos que aún le son exclusivos.

La evidencia científica no amilana a un empresario como Altman, capaz de decir con entusiasmo que "si los científicos humanos resultan tres veces más productivos usando o3, es un buen negocio" o que "La IA puede hacer algo de ciencia de forma autónoma, descubrir física novedosa".

Mark Zuckerberg, otro abonado a las declaraciones grandilocuentes, recientemente aseguró que "a medida de que el paso de la IA se acelera, el desarrollo de una superinteligencia aparece en el horizonte". Cabe recordar que hace menos de tres años él mismo auguraba la llegada de una nueva internet inmersiva: "La cualidad que definirá el Metaverso será una sensación de presencia". Para desarrollarlo invirtió miles de millones de dólares, contrató a miles de personas y arrastró a numerosas empresas a invertir en esa tierra prometida. ¿Qué queda hoy del Metaverso? Nada, a menos que se lo asocie con algunos juegos inmersivos que ya existian. Pero asegura que la IAG será otra cosa.

Otra gran promesa exagerada de la tecnología reciente fue 'blockchain', un conjunto de tecnologías para descentralizar el control, sobre las que se montaron todo tipo de promesas exageradas, desde la inclusión financiera, hasta la posibilidad de hacer de un videojuego un trabajo. La empresas anunciaban proyectos en 'blockchain' que lucían muy bien en sus gacetillas. Grandes ídolos del mundo cripto salían en la tapa de Forbes, pero pocos meses después estaban entre rejas por estafadores. Al igual que con el Metaverso, ya casi nadie habla de 'blockchain'.

La lista de falsas promesas de la tecnología reciente podría continuar con casos como Theranos o la más reciente Builder.ai, ejemplos de la "cosotortización" del capitalismo contemporáneo. ¿Qué motiva estas oleadas? La necesidad de seducir inversionistas, generarles FOMO, y sostener el valor de las acciones, para financiar el próximo gran proyecto tecnológico con la expectativa de que se transforme en un negocio real o que, al menos, el entusiasmo dure hasta que otra promesa lo remplace.

Superinteligencia

Las grandes empresas tecnológicas están ahora lanzadas al desarrollo de una "superinteligencia", una Inteligencia Artificial General o AGI por su sigla en inglés. Como explica Karen Hao en su reciente libro "Empire of AI", nadie sabe bien cómo sería, pero vaticinan que al seguir incrementando la cantidad de datos, parámetros y poder de cómputo algún día emergerá una inteligencia superior a la humana.

Mientras tanto para alimentar a esas IA deben entrenarlas con cualquier tipo de datos que encuentren en internet, incluida cantidades de basura, algo que las hace aumentar los sesgos, errores y alucinaciones. También deben invertir miles de millones de dólares en supercomputadoras cada vez más grandes y contaminantes. ¿Eso es un problema? No para Altman porque cuando se desarrolle la AGI, asegura, podrá "arreglar" el problema del cambio climático. Las soluciones ya conocidas no parecen interesarle porque plantearían un obstáculo para su negocio.

Gracias al imán del dinero, desconocimiento o pocos incentivos para ir contra un marketing feroz, la idea de que la IAG es el futuro inevitable se ha instalado con tal fuerza que nadie pide precisiones. Todo este hype se traduce en la llegada de inversores ansiosos por subirse al tren y aumentar gastos ya enormes en una tecnología cuyos ingresos no les llegan a los talones.

OpenAI se ufana de tener 500 millones de usuarios mensuales, pero solo 15 millones pagan por el servicio unos pocos dólares. Spotify, por ejemplo, cuenta con casi cien millones de abonados y costos infinitamente más bajos. Aún así demoró años en ser rentable.

Ante la presión mediática las pymes se desesperan por incorporar IAG en sus negocios. Los proveedores informáticos les ofrecen una caja con la etiqueta IAG dentro de la cuál, en general, hay simplemente servicios de gestión de inventarios, bots que atienden (mal) al público o sistemas de mejoras productivas bastante similares a los ya existentes. Por el momento no hay una adopción masiva de IA en los EEUU y algunos que incorporan IAG se dan cuenta de que tienen demasiados sesgos, errores o alucinaciones y se echan atrás.

¿Son estos problemas de próxima resolución? No, son parte estructural de la forma en la que se ha desarrollado la IAG. El mismo CEO de Alphabet, la corporación que contiene Google, Sundar Pichai, reconocía en una extensa entrevista para The Verge "[...] la alucinación sigue siendo un problema sin resolver. En cierto modo, es una característica inherente. Es lo que hace que estos modelos sean tan creativos". Pese a este límite las empresas hacen lobby para que las IAG se utilicen en ámbitos altamente sensibles como transporte, guerra o salud. Microsoft publicó, poco antes de despedir a numerosos empleados, un informe propio asegurando que los diagnósticos de su IAG eran cuatro veces mejores que los de los médicos.

¿Estos significa que la IAG es una burbuja que no sirve para nada? No: hay muchas utilidades para la IA en general y, tal vez, de la IAG en particular, si se entrena con datos confiables, menos contaminación y más supervisión humana. El problema es que la desmesura de las promesas de las grandes empresas está motivada por necesidades financieras que incentivan un tipo de desarrollo con enormes efectos secundarios que eventualmente las beneficiaría solo a ellas. Y eso ocurriría solo si resuelven los problemas que tienen o, como están intentando ahora, logran instalarlas pese a ellos. Aún así no está claro que la IAG podrá pagar la brutal cuenta acumulada en tiempo récord.

Página 12

 

Contactar con La Haine

 

Este sitio web utiliza 'cookies'. Si continúas navegando estás dando tu consentimiento para la aceptación de las mencionadas 'cookies' y la aceptación de nuestra política de 'cookies'.
o

La Haine - Proyecto de desobediencia informativa, acción directa y revolución social

::  [ Acerca de La Haine ]    [ Nota legal ]    Creative Commons License ::

Principal