La semana pasada The Wall Street Journal publicó una noticia singular. En ella se indicaba que Sam Altman, CEO de OpenAI, estaba buscando una inversión de siete billones (con be) de dólares para impulsar el negocio de los chips de inteligencia artificial. Ahora Altman explica que aquellas declaraciones se malinterpretaron.
Siete billones. Según WSJ, Altman estuvo negociando con inversores como el gobierno de los Emiratos Árabes Unidos (EAU). La ambiciosa idea "impulsaría la capacidad mundial de producción de chips", además de poder fabricar chips especializados en IA. En el texto se citaba fuentes cercanas a las negociaciones, y según dicha fuente la inversión que se buscaba era de entre cinco y siete billones de dólares.
La cifra es enorme. Esa inversión deja muy atrás el actual tamaño de la industria de semiconductores. Las ventas de chips en 2023 ascendieron a 527.000 millones, y se espera que lleguen a un billón de dólares en 2030. Mientras, las ventas de máquinas de fabricación de semiconductores —como las que produce ASML— supusieron 100.000 millones de dólares según el grupo SEMI.
Aclaración. Pero según The Information, el CEO de OpenAI no está tratando de recaudar esa enorme cantidad de dinero. Lo que esa cifra indicaba era la suma total de inversiones necesarias a nivel global y en todos los ámbitos, "desde terrenos y electricidad para los centros de datos hasta la fabricación de chips", pero además no era una cifra anual, sino que se refería a que esa sería la inversión total "para cierto número de años", si especificar cuántos exactamente.
O quizás sí se necesita ese dineral. Jensen Huang, CEO de NVIDIA, explicó en un evento reciente en EAU que el dato publicado por WSJ parecía exagerado. Según él, se necesitarían invertir dos billones de dólares a nivel global hasta 2029 en centros de datos para gestionar todo el procesamiento de IA que está por venir. Huang, que conocía las declaraciones previas de Altman, bromeó diciendo que con esos siete billones de dólares serían suficientes para "aparentemente, comprar todas las GPUs [necesarias para esos datacenters]".
Altman sigue pensando en chips. Lo cierto es que el CEO de OpenAI parece especialmente preocupado con los chips de IA. Hace un mes ya se reveló que Altman estaba tratando de recaudar "miles de millones de dólares" para la fabricación de chips especializados, algo que amenazaría la posición de privilegio de NVIDIA.
Las grandes, a por chips IA. Desde la explosión de los modelos de IA generativa, la gran ganadora de esta industria ha sido NVIDIA, que no para de subir posiciones en la lista de empresas con mayor valoración bursátil del mundo. Su posición no obstante podría verse amenazada por desarrollos como Azure Maia (Microsoft) o Tensor (Google). Se desconoce si OpenAI tiene un proyecto de desarrollo de chips propios.
Imagen de portada: TechCrunch (Flickr)
Ver 11 comentarios
11 comentarios
p2dzca
La actual IA está tomando una deriva que solo se entiende desde dos datos: da mucho dinero y no sabemos hacerlo mejor. Una vez recuperados del deslumbramiento inicial que produjo ChatGPT y otros LLM, toca poner los pies en el suelo y observar la realidad.
Tenemos una IA basada en la fuerza bruta. Se espera que aumentando el tamaño de los LLM se alcancen mejoras sustanciales. ¿Cuándo consideraremos que es suficiente, a los dos, a los tres, a los diez trillones de parámetros. ¿Cuánta energía será demasiada para entrenar los nuevos modelos y para que el público los utilice? ¿Nos podremos permitir el consumo eléctrico creciente de la IA?
Necesitamos una IA basada en el conocimiento, no en la fuerza bruta. Desde hace años seguimos desarrollando chips específicos para IA, cada vez más potentes, cada vez más eficientes, pero, en realidad, no tenemos un problema de hardware, sino de software. Es cuestión de investigar, descubrir y desarrollar los algoritmos que permiten la inteligencia en los seres vivos con muy poca energía, pero el dinero está en otro lugar, en el beneficio a corto y medio plazo.
Las capacidades de una abeja, con sus 950.000 neuronas, son mucho mayores que las de los LLM más grandes que existen. Además, como bien ha dicho en varias ocasiones Yann LeCun, el lenguaje no es el camino hacia a la inteligencia artificial, sino que es la inteligencia humana quien nos permitió desarrollar el lenguaje. Se espera que creando LLM más grandes emerjan capacidades muy superiores a las actuales y quizá lo hagan en parte, pero no es el camino hacia la inteligencia artificial general.
Usuario desactivado
Me hace acordar a cuando se decia que una computadora basada en 8 cubits era superior a un superordenador tradicional. Luego paso el tiempo, las computadoras cuanticas requieren miles de cubits para corregir errores y no son capaces de hacer calculos utiles, pero se sigue pidiendo dinero a los inversores para hacerlas mas grandes.
La IA basada en LLM no obtendra inteligencia ni razonamiento por una simple ampliacion de escala. Se necesita otra arquitectura. Y Altman sigue pidiendo dinero para inflar su burbuja.
Cufloc
Vamos, que dijo un número al azar para rellenar titulares y ahora no sabe como disimularlo, porque ya me dirás tú quien cojones dice "se necesita invertir tanto" y no se refiere a un periodo concreto de tiempo. En su cabeza sonaba espectacular.