Saltar al contenido

Big Tech tiene un dominio preocupante sobre la inteligencia artificial

30 de junio de 2023

Cuando Sam Altman de OpenAI habló con los senadores estadounidenses en mayo, hizo una admisión sorprendente. Realmente no quería que la gente usara ChatGPT. “Nos encantaría que lo usaran menos”, dijo. ¿La razón? «No tenemos suficientes GPU».

La admisión de Altman subraya una dinámica preocupante en el creciente negocio de la IA generativa, donde el poder de las empresas tecnológicas establecidas se está afianzando cada vez más gracias al valor y la escala de su infraestructura. En lugar de crear un mercado próspero para nuevas empresas innovadoras, el auge parece estar ayudando a las grandes tecnológicas a consolidar su poder.

Las GPU (unidades de procesamiento de gráficos) son chips especiales que se diseñaron originalmente para representar gráficos en videojuegos y, desde entonces, se han vuelto fundamentales para la carrera armamentista de la inteligencia artificial. Son caros, escasos y en su mayoría provienen de Nvidia Corp., cuyo valor de mercado superó el billón de dólares el mes pasado debido a la creciente demanda. Para construir modelos de IA, los desarrolladores generalmente compran acceso a servidores en la nube de compañías como Microsoft Corp. y Amazon.com Inc. Las GPU alimentan esos servidores.

Durante la fiebre del oro, vende palas, dice el dicho. No sorprende que los proveedores de infraestructura de IA de hoy en día estén sacando provecho. Pero hay una gran diferencia entre ahora y mediados del siglo XIX, cuando los ganadores de la Fiebre del oro de California eran advenedizos como Levi Strauss con sus duraderos pantalones de minero, o Samuel Brennan. , que vendió suficientes sartenes para hacerse millonario. Hoy, y durante al menos el próximo año, la mayoría de las ganancias de la venta de servicios de IA se destinarán a empresas como Microsoft, Amazon y Nvidia, empresas que han dominado el espacio tecnológico durante años.

Parte de la razón es que mientras aumentan los costos de los servicios en la nube y los chips, el precio de acceder a los modelos de IA está bajando. En septiembre de 2022, OpenAI redujo en un tercio el costo de acceder a GPT-3. Seis meses después, hizo que el acceso fuera 10 veces más barato. Y en junio, OpenAI redujo drásticamente la tarifa de su modelo de incrustaciones, que convierte palabras en números para ayudar a los grandes modelos de lenguaje a procesar su contexto, en un 75 %. Sam Altman ha dicho que el costo de la inteligencia está «en un camino hacia casi cero».

Recomendado:  GPT-4 es de código abierto, OpenAI: si no lo elimina, será demandado; Twitter pagará por un solo artículo, Musk: una situación en la que todos ganan; Un ajedrecista chino gana por primera vez el "Rey Mundial del Ajedrez", con un bono de 8,3 millones

Mientras tanto, el precio de construir modelos de IA está aumentando porque comprar una GPU hoy es como intentar comprar papel higiénico durante la pandemia de Covid-19. Los chips A100 y H100 de Nvidia son el estándar de oro para los cálculos de aprendizaje automático, pero el precio de los H100 ha subido a $ 40,000 o más desde menos de $ 35,000 hace solo unos meses, y la escasez mundial significa que Nvidia no puede fabricar los chips lo suficientemente rápido . Muchas nuevas empresas de IA se han encontrado esperando en fila detrás de clientes más grandes como Microsoft y Oracle para comprar estos microprocesadores tan necesarios. Un fundador de una startup con sede en Silicon Valley con enlaces a Nvidia me dijo que incluso OpenAI estaba esperando chips H100 que no recibirá hasta la primavera de 2024. Una portavoz de OpenAI dijo que la compañía no publica esa información; pero el propio Altman se ha quejado de su lucha por conseguir fichas.

Las grandes empresas tecnológicas tienen una gran ventaja sobre las nuevas empresas como OpenAI, gracias a que tienen acceso directo a esas GPU tan importantes, así como a bases de clientes establecidas. Cuando Sam Altman intercambió el 49 % de OpenAI por la inversión de $1000 millones de Microsoft en 2022, parecía una cantidad notable de capital a la que renunciar, hasta que considera que unirse a un importante proveedor de la nube podría ser la forma más segura para que las empresas de IA permanezcan en el negocio. .

Hasta ahora, esa apuesta está dando sus frutos para Microsoft. Amy Hood, directora financiera de la compañía, les dijo a los inversionistas en junio que los servicios impulsados ​​por IA que estaba vendiendo, incluidos los impulsados ​​por OpenAI, contribuirían con al menos $ 10 mil millones a sus ingresos. Ella lo llamó, «el negocio de $ 10 mil millones de más rápido crecimiento en nuestra historia». Ese producto de Microsoft, llamado Azure OpenAI, es más caro que la propia oferta de OpenAI, pero permite a empresas como CarMax y Nota acceder a GPT-4 de una manera más amigable para la empresa, marcando casillas para problemas de seguridad y cumplimiento, por ejemplo.

Recomendado:  los primeros pasos del ChatGPT en el aula, entre docentes autodidactas y el fantasma del plagio

Mientras tanto, los creadores de modelos de IA enfrentan una migración constante de talento entre sus empresas, lo que dificulta mantener el secreto y la diferenciación del producto. Y sus costos son interminables; una vez que han gastado el dinero en créditos de nube para entrenar sus modelos, también tienen que ejecutar esos modelos para sus clientes, un proceso conocido como inferencia. AWS ha estimado que la inferencia representa hasta el 90 % de los costos operativos totales para los modelos de IA. La mayor parte de ese dinero va a los proveedores de la nube.

Eso prepara el escenario para un sistema de dos niveles para las empresas de IA. Los que están arriba tienen el dinero y conexiones prestigiosas. A los fundadores que se gradúan de la aceleradora de startups de élite Y Combinator se les han ofrecido créditos informáticos por valor de cientos de miles de dólares de proveedores de la nube como Amazon y Microsoft. Unos pocos afortunados han logrado conectarse con el inversionista de capital de riesgo Nat Friedman, quien recientemente gastó un estimado de $ 80 millones en su propio lote de GPU para configurar un servicio en la nube a medida llamado Andromeda Cluster.

Las empresas de inteligencia artificial en el segundo nivel formarán una cola larga que no tiene este tipo de conexiones y recursos para entrenar sus sistemas de inteligencia artificial, sin importar cuán inteligentes sean sus algoritmos.

El rayo de esperanza para las empresas más pequeñas es que las empresas de Big Tech algún día encontrarán que sus productos y servicios también se convierten en productos básicos, obligándolos a aflojar su dominio del mercado para construir IA. La escasez de chips eventualmente disminuirá, haciendo que las GPU sean más fáciles de acceder y más baratas. La competencia también debería aumentar entre los propios proveedores de la nube a medida que invaden los territorios de los demás, por ejemplo, con Google desarrollando su propia versión de la GPU, llamada TPU, y Nvidia construyendo su propio negocio en la nube para competir con Microsoft.

Recomendado:  Esvásticas de Union Jack y trenzas de la era espacial: Trece maneras de mirar - revisión | Arte y diseño

Y, a medida que los investigadores desarrollen técnicas como LoRA(1) y PEFT(2) para hacer que el proceso de creación de modelos de IA sea más eficiente, necesitarán menos datos y potencia informática. Los modelos de IA ahora están en camino de volverse más pequeños. Eso requerirá menos GPU e infraestructura, y eso significa que el control de Big Tech no durará para siempre.

Más de la opinión de Bloomberg:

• IBM no puede adquirir su camino hacia los rangos superiores de tecnología: Dave Lee

• AI y Crypto se están convirtiendo en enemigos regulatorios: Aaron Brown

• El fantasma en la máquina no debería ser IA: Parmy Olson

(1) La adaptación de bajo rango de modelos de lenguaje grande es un método de entrenamiento que acelera el entrenamiento de modelos grandes mientras consume menos memoria.

(2) El ajuste fino con eficiencia de parámetros permite que el fabricante de un modelo de IA obtenga un rendimiento comparable al ajuste fino completo del modelo, incluso si solo tiene una pequeña cantidad de parámetros entrenables.

Esta columna no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Parmy Olson es una columnista de Bloomberg Opinion que cubre tecnología. Exreportera del Wall Street Journal y Forbes, es autora de «We Are Anonymous».

Más historias como esta están disponibles en bloomberg.com/opinion