La crisis interna de OpenAI: poder, confianza y el futuro de la inteligencia artificial

A finales de 2023, OpenAI vivió uno de los episodios más convulsos de su historia. Lo que comenzó como una serie de conversaciones discretas entre miembros de su consejo de administración terminó desencadenando la destitución temporal de su CEO, Sam Altman, y un conflicto que puso en evidencia tensiones profundas sobre liderazgo, transparencia y el rumbo de la inteligencia artificial.
Detrás de este terremoto corporativo se encontraba Ilya Sutskever, científico jefe de la compañía y una de las mentes clave en el desarrollo de sus tecnologías. Durante semanas, Sutskever compartió con otros miembros del consejo documentos internos que, según su visión, demostraban un patrón preocupante en el comportamiento de Altman.
💸 ¡Cupones AliExpress! ¡Cupones válidos del 1 al 7 de abril para una selección de productos! [ Saber más ]
En esos informes se cuestionaba su honestidad, su forma de gestionar la información y, sobre todo, su idoneidad para liderar una tecnología con implicaciones potencialmente existenciales.
Una organización creada para algo más que ganar dinero
OpenAI nació con una premisa poco habitual en Silicon Valley: su objetivo no era únicamente generar beneficios, sino garantizar que la inteligencia artificial beneficiara a toda la humanidad. Fundada como una organización sin ánimo de lucro, su estructura otorgaba al consejo el poder de anteponer la seguridad global incluso por encima de la supervivencia de la empresa.
Este enfoque implicaba que el CEO debía cumplir un estándar excepcional de integridad. Sin embargo, algunos miembros del consejo comenzaron a cuestionar si Altman cumplía con ese requisito. Según los documentos internos, existía preocupación por decisiones tomadas sin transparencia, posibles conflictos de interés y una creciente priorización del crecimiento y los ingresos frente a la seguridad.
El despido que sacudió Silicon Valley
La crisis estalló cuando el consejo decidió destituir a Altman de forma repentina. El anuncio público fue escueto: el CEO no había sido “consistentemente transparente” en sus comunicaciones. La reacción fue inmediata.
Inversores, empleados y socios estratégicos quedaron atónitos. Microsoft, que había invertido alrededor de 13.000 millones de dólares (unos 12.000 millones de euros), apenas tuvo margen para reaccionar. Internamente, la empresa entró en estado de shock.
Mientras tanto, Altman organizaba desde su casa en San Francisco una especie de “gobierno en el exilio”, coordinando apoyos y preparando su regreso.
El contraataque: empleados, inversores y presión mediática
Lo que ocurrió después fue una demostración de poder pocas veces vista en el sector tecnológico. La mayoría de los empleados de OpenAI firmaron una carta exigiendo el regreso de Altman y amenazando con dimitir en masa si no se producía.
Al mismo tiempo, inversores clave condicionaron futuras rondas de financiación a su reincorporación. Microsoft incluso llegó a plantear la creación de una división paralela para acoger a Altman y a los empleados que abandonaran la compañía.
La presión fue tan intensa que el consejo terminó cediendo. En menos de cinco días, Altman volvió a su puesto como CEO.
El “Blip” y sus consecuencias
Este episodio, conocido internamente como “el Blip”, marcó un antes y un después. Aunque Altman recuperó el control, varios miembros del consejo abandonaron sus puestos y se prometió una investigación independiente sobre lo sucedido.
Sin embargo, los resultados de esa investigación nunca se hicieron públicos en detalle, lo que generó aún más dudas sobre la transparencia de la compañía.
Desde entonces, OpenAI ha seguido creciendo a un ritmo vertiginoso, con una valoración que podría alcanzar el billón de dólares (unos 930.000 millones de euros) en una futura salida a bolsa.
El dilema central: seguridad frente a crecimiento
Más allá del conflicto personal, lo ocurrido refleja un debate mucho más profundo dentro de la industria de la inteligencia artificial: ¿debe priorizarse la seguridad o la innovación rápida?
Algunos exempleados y expertos han denunciado que OpenAI ha ido dejando en segundo plano sus compromisos iniciales con la seguridad. Equipos dedicados a investigar riesgos existenciales han sido disueltos, y decisiones clave parecen estar cada vez más influenciadas por objetivos comerciales.
Al mismo tiempo, la tecnología sigue avanzando a gran velocidad, con aplicaciones que ya impactan en ámbitos como la defensa, la economía o la política.
Sam Altman: ¿visionario o figura controvertida?
La figura de Altman divide opiniones. Para sus defensores, es un líder excepcional capaz de movilizar talento, inversión y visión a una escala sin precedentes. Para sus críticos, su estilo combina ambición desmedida con una preocupante flexibilidad respecto a la verdad.
Muchos coinciden en que su mayor fortaleza es su capacidad de persuasión. Altman ha logrado convencer a inversores, gobiernos y desarrolladores de que sus objetivos coinciden con los suyos, incluso cuando estos pueden ser contradictorios.
Un futuro lleno de incertidumbre
El caso de OpenAI plantea preguntas incómodas sobre el futuro de la inteligencia artificial. A medida que estas tecnologías adquieren más poder, también aumenta la importancia de quién las controla y bajo qué principios.
El riesgo no es solo técnico, sino también humano: decisiones tomadas por un pequeño grupo de personas podrían tener consecuencias globales.
Mientras tanto, la industria continúa avanzando, impulsada por enormes inversiones y una competencia feroz. Y en el centro de todo, Sam Altman sigue siendo una figura clave, admirada por algunos, cuestionada por otros, pero imposible de ignorar.






