A pesar de su inmensa popularidad, OpenAI supuestamente está quemando efectivo a un ritmo insostenible y podría enfrentar una asombrosa pérdida de 5 mil millones de dólares para fines de 2024.
Esto es según un impactante informe de La informaciónque cita estados financieros internos inéditos y cifras de la industria que exponen cómo OpenAI ya ha gastado aproximadamente 7 mil millones de dólares en modelos de capacitación y hasta 1,5 mil millones de dólares en personal.
Dylan Patel de SemiAnalysis le había dicho anteriormente a The Information que OpenAI supuestamente desembolsó algunos 700.000 dólares al día ejecutar sus modelos en 2022, registrando pérdidas de casi 500 millones de dólares solo ese año.
A pesar de generar ingresos sustanciales, estimados entre 3.500 y 4.500 millones de dólares anuales, los gastos de OpenAI superan con creces sus ingresos.
La empresa ya ha recaudado más de 11.000 millones de dólares a través de siete rondas de financiación y actualmente está valorada en 80.000 millones de dólares.
Sin embargo, a pesar de que ChatGPT es un nombre muy conocido con millones de usuarios en todo el mundo, OpenAI podría resultar un verdadero pozo de dinero para los inversores si nada cambia.
Microsoft, el mayor patrocinador de OpenAI con diferencia, ya ha invertido miles de millones en la empresa en los últimos años.
Se rumoreaba que su inyección de efectivo más reciente, 10 mil millones de dólares a principios de 2023, incluía una porción del 75% de las ganancias de OpenAI y una participación del 49% en la empresa, además de la integración de ChatGPT en Bing y otros sistemas de Microsoft.
A cambio, OpenAI recibe acceso a los servidores en la nube de Azure a un precio sustancialmente reducido.
Pero en el mundo de la IA generativa, nunca hay suficientes chips, hardware en la nube o ideas innovadoras que cambien el mundo y que requieran miles de millones para despegar.
OpenAI ha invertido mucho en ser el primero en lograr la inteligencia artificial general (AGI), un esfuerzo ambicioso e increíblemente costoso.
El director ejecutivo Sam Altman ya ha insinuado que simplemente no se detendrá hasta lograrlo.
El esta involucrado en desarrollando la fusión nuclear y discutió la creación de un proyecto internacional de chips con un respaldo del gobierno de los Emiratos Árabes Unidos y de los Estados Unidos por valor de billones.
La competencia está al rojo vivo
La competencia en el espacio de la IA generativa también se está intensificando, con grandes actores como Google, Amazon, Meta, etc., compitiendo por una porción del pastel.
Si bien ChatGPT sigue siendo el chatbot de IA más reconocido, está capturando una porción cada vez menor de los ingresos totales en juego.
Además, la división de código abierto, encabezada en gran medida por Mistral y Meta, está construyendo modelos cada vez más potentes que son más baratos y controlables que los proyectos de laboratorio cerrado de OpenAI, Google y otros.
Como Barbara H. Wixom, científica investigadora principal del Centro de Investigación de Sistemas de Información del MIT, lo dice acertadamente“Como cualquier herramienta, la IA no crea valor a menos que se utilice correctamente. La IA es ciencia de datos avanzada y es necesario tener las capacidades adecuadas para poder trabajar con ella y gestionarla adecuadamente”.
Y ahí radica un punto crítico. Si una organización tiene el dinero y el conocimiento técnico para aprovechar la IA generativa, no necesariamente necesita asociarse con empresas de código cerrado como OpenAI. En cambio, puede crear su propias soluciones soberanas y más personalizadas.
Salesforce demostró recientemente que al lanzar un software de vanguardia modelo compacto para llamadas API que destrozó los modelos fronterizos de OpenAI, Anthropic, etc.
OpenAI y otros están intentando ir más allá con soluciones empresariales como ChatGPT Enterprisepero es difícil, ya que la IA generativa es costosa y dudosamente vale la inversión en este momento.
Adam Selipsky, director ejecutivo de Amazon Web Services (AWS), dijo él mismo en 2023“Muchos de los clientes con los que he hablado no están contentos con el costo que ven por ejecutar algunos de estos modelos”.
Las empresas de inteligencia artificial están respondiendo reduciendo los costos de sus modelos y lanzando versiones más livianas como el GPT-4o mini, pero eso también presenta un enigma. ¿Cuándo dan las empresas el paso a la IA cuando las opciones cambian todo el tiempo?
2023 proporcionó pocas respuestas para la monetización de la IA
El año 2023 ha servido como campo de pruebas para varios enfoques de monetización de la IA, pero ninguno es una solución milagrosa para los crecientes costos de la industria.
Uno de los mayores desafíos de la monetización de la IA es que no ofrece la misma economía que el software convencional.
Cada interacción del usuario con un modelo como ChatGPT requiere cálculos específicos, que consumen energía y generan costos continuos más altos que escalan a medida que más usuarios se unen al sistema.
Esto plantea un enorme desafío para las empresas que ofrecen servicios de IA a tarifas fijas, ya que los gastos pueden superar rápidamente los ingresos.
Si los costos de suscripción aumentan demasiado, la gente simplemente se retirará. Las encuestas económicas sugieren que las suscripciones son una de las primeras cosas que se eliminan cuando la gente quiere recortar sus gastos.
La reciente colaboración de Microsoft con OpenAI en GitHub Copilot, un asistente de codificación de IA, sirvió como un excelente ejemplo de cómo las suscripciones pueden resultar contraproducentes.
Microsoft cobró una suscripción mensual de 10 dólares por la herramienta, pero informó una pérdida mensual promedio de más de 20 dólares por usuario. Algunos usuarios avanzados infligieron pérdidas de hasta 80 dólares al mes.
Es probable que ocurra una situación similar con otras herramientas de IA generativa. Muchos usuarios ocasionales se suscriben mensualmente a sólo una de las muchas herramientas disponibles y pueden cancelarla fácilmente y cambiar a una herramienta diferente. Por otro lado, hay usuarios de energía no rentables que consumen recursos sin contribuir a obtener ganancias.
Algunos creen que OpenAI ha intentado trucos sucios para mantener el flujo de efectivo. Por ejemplo, el Demostración de GPT-4osincronizado perfectamente con Google IO, reveló funciones de síntesis de voz en tiempo real que parecían abrir nuevos caminos y eclipsar los anuncios de Google.
Todavía estamos esperando que se implementen estas funciones de voz tan publicitadas. OpenAI aún no los ha entregado a nadie, citando problemas de seguridad.
“Estamos mejorando la capacidad del modelo para detectar y rechazar cierto contenido”, declaró OpenAI sobre el retraso.
“También estamos trabajando para mejorar la experiencia del usuario y preparar nuestra infraestructura para escalar a millones mientras mantenemos respuestas en tiempo real. Como parte de nuestra estrategia de implementación iterativa, comenzaremos la versión alfa con un pequeño grupo de usuarios para recopilar comentarios y expandirnos en función de lo que aprendamos”.
Los registros premium aumentaron porque la gente estaba ansiosa por utilizar esas nuevas funciones. ¿OpenAI buscaba un aumento de ingresos a corto plazo impulsado por funciones que nunca estuvieron listas?
Los costos de energía son otro obstáculo
Hay otro obstáculo más en la misión de monetización de la IA generativa: el consumo de energía y agua.
Para 2027, la energía consumida por la industria de la IA podría ser equivalente a el de una pequeña nación. Los recientes aumentos en el uso de agua por parte de Microsoft y Google se atribuyen en gran medida a cargas de trabajo intensivas de IA.
Google reveló recientemente que la IA estaba desviando sus estrategias de sostenibilidad. Las emisiones de CO2 de la empresa han aumentado un 48% desde 2019, y los ejecutivos prácticamente han admitido que las cargas de trabajo de IA son las culpables.
La escasez de agua inducida por la IA recientemente se apoderó de Taiwán, que comenzó a redirigir agua de usos agrícolas a la IA en medio de una sequía en un intento por mantener la fabricación en línea. La escasez de agua también afectará a partes de EE. UU. en 2023, por lo que habrá verdaderos impactos ambientales a los que enfrentarse.
Hablando en el Foro Económico Mundial, altman dicho“Necesitamos mucha más energía en el mundo de la que pensábamos antes. Todavía no apreciamos las necesidades energéticas de esta tecnología”.
Todo esto tiene un costo, tanto a nivel empresarial (Microsoft, Google, etc.) como también para las economías locales y nacionales.
Los próximos años serán fundamentales para dar forma a la trayectoria de la IA generativa, tanto en términos de retorno o inversión, sostenibilidad como de tensión entre ambos.
Como advierte Barbara H. Wixom del MIT: “Hay que encontrar una manera de pagar esto. De lo contrario, no se podrán mantener las inversiones y entonces habrá que desconectarse”.
¿Se detendrá alguna vez la IA generativa? Tienes que pensar que es demasiado grande para fracasar. Pero en este momento parece estancado en el purgatorio de la monetización, y algo de algún lugar necesita administrar otra sacudida de progreso.
Puede que no haga falta mucho para impulsar la IA generativa hacia un punto de inflamación necesario en el que el progreso se produzca de forma económica y natural.
Potencia de fusión, hardware de IA analógico de bajo consumo, arquitecturas livianas: todo está en proceso – wSólo podemos esperar y observar para ver cuándo todo encaja en su lugar.