🏖️ ¡Descuentos verano! ¡Selección de descuentazos de PcComponentes para ti! [ Saber más ]
El CEO de OpenAI, Sam Altman, ha descrito GPT-5 con un tono más propio de una película de suspense que de un simple lanzamiento tecnológico.
Durante una entrevista en el pódcast This Past Weekend with Theo Von, compartió sus impresiones sobre el modelo de una forma que mezcla admiración y nerviosismo, despertando tanto entusiasmo como escepticismo entre quienes siguen de cerca la evolución de la inteligencia artificial.
Un modelo más rápido y potente que inquieta a su propio creador
Altman señaló que GPT-5 “se siente muy rápido”, pero también admitió haber experimentado momentos de gran inquietud mientras lo probaba. Incluso llegó a compararlo con el Proyecto Manhattan, una referencia cargada de implicaciones históricas por su relación con la creación de la bomba atómica.
Estas declaraciones refuerzan la idea de que GPT-5 podría representar un salto significativo en el desarrollo de la inteligencia artificial general.
Más allá de hablar de las capacidades técnicas del nuevo modelo, Altman aprovechó la ocasión para lanzar una dura crítica a la regulación de la IA. Aseguró que “no hay adultos en la sala”, insinuando que los sistemas de supervisión están muy por detrás de la velocidad con la que avanza esta tecnología. Este mensaje, que combina alerta y autocrítica, resulta llamativo viniendo del máximo responsable de OpenAI.
Una narrativa apocalíptica que genera controversia
El paralelismo con el Proyecto Manhattan y las referencias a un cambio irreversible y potencialmente catastrófico han sido vistas como exageradas. Para algunos expertos, estas comparaciones dan la impresión de que OpenAI ha construido algo que ni siquiera entiende del todo, proyectando una imagen de riesgo y falta de control que no beneficia a la compañía.
Aunque Altman no compartió detalles técnicos, todo apunta a que GPT-5 ofrecerá mejoras significativas respecto a GPT-4. Se espera que sea más rápido, inteligente e intuitivo, con nuevas herramientas y una interfaz más avanzada. Sin embargo, el debate sobre el poder que podría concentrar una IA de estas características sigue siendo el punto central de la discusión.
El dilema ético y de poder que plantea la próxima generación de IA
Las declaraciones de Altman ponen sobre la mesa una cuestión fundamental: si los modelos de IA se vuelven más capaces y confiables, ¿quién debe decidir cómo y para qué se utilizan? Incluso si su tono alarmista está exagerado, el hecho de que el propio CEO de OpenAI muestre dudas sobre el rumbo de la tecnología alimenta el debate sobre la necesidad urgente de una regulación efectiva.
Un historial de advertencias sobre los riesgos de la IA
No es la primera vez que Altman reconoce públicamente los peligros potenciales de la inteligencia artificial. En ocasiones anteriores ya había dicho que la IA “podría salir muy mal” si no se gestiona de forma responsable. Aun así, OpenAI continúa trabajando para lanzar productos cada vez más avanzados y accesibles, reforzando la dualidad entre innovación y cautela.
Todo indica que GPT-5 llegará próximamente, acompañado de nuevas herramientas y un diseño renovado. Sin embargo, más allá de sus mejoras técnicas, lo que realmente preocupa es la concentración de poder que supone poner en manos de una sola compañía una inteligencia artificial con capacidades cada vez más cercanas a las humanas.
Las palabras de Altman reflejan el temor a que la sociedad adopte sin cuestionar las decisiones dictadas por la IA. Según él, aceptar vivir bajo las reglas de un sistema artificial “se siente mal y peligroso”. Este debate sobre los límites de la inteligencia artificial seguirá siendo clave a medida que avancen los desarrollos en el sector.