Sam Altman reacciona en directo a un vídeo viral de una alucinación de ChatGPT

La inteligencia artificial puede redactar poemas, resumir informes complejos y mantener conversaciones cada vez más naturales. Sin embargo, hay tareas aparentemente mucho más simples en las que todavía tropieza de forma sorprendente. Una de ellas es algo tan básico como medir el paso del tiempo.
Esa contradicción ha vuelto a quedar en evidencia después de que Sam Altman, CEO de OpenAI, reconociera públicamente que ChatGPT todavía no es capaz de cronometrar correctamente algo tan sencillo como una carrera en su modo de voz. Y no solo eso: según explicó, hará falta alrededor de un año para que una función así llegue a funcionar realmente bien.
💸 ¡Cupones AliExpress! ¡Cupones válidos del 1 al 7 de abril para una selección de productos! [ Saber más ]
ChatGPT todavía no sabe cronometrar con fiabilidad
La conversación surgió durante una reciente entrevista de Sam Altman en el programa Mostly Human, presentado por Laurie Segall. En ella, el directivo repasó cuestiones relacionadas con el futuro de la inteligencia artificial, la situación de OpenAI y varios temas de actualidad alrededor de la compañía.
En un momento del encuentro, Segall le mostró un vídeo viral publicado por el usuario de TikTok @huskistaken. En esa grabación, el creador pone a prueba el modelo de voz de ChatGPT pidiéndole que mida el tiempo que tarda en correr una milla.
El resultado deja en evidencia una limitación importante: el asistente no está siguiendo realmente el tiempo, sino que inventa una cifra como si hubiera llevado a cabo el cronometraje.
Lo más llamativo no es únicamente el fallo, sino la seguridad con la que el sistema responde. En lugar de reconocer que no puede realizar esa tarea, ChatGPT actúa como si sí la hubiera completado correctamente. Esa mezcla de error y falsa confianza vuelve a poner sobre la mesa uno de los problemas más conocidos de los modelos de IA actuales: su tendencia a ofrecer respuestas convincentes incluso cuando no tienen una base real para hacerlo.
Sam Altman admite que es un problema conocido
Durante la entrevista, Altman reaccionó con una sonrisa al ver el vídeo, aunque su respuesta dejó claro que dentro de OpenAI no se trata precisamente de una sorpresa. Cuando Laurie Segall le preguntó si debía enseñar ese clip a su equipo de producto, el CEO respondió de forma tajante que no era necesario porque se trata de “un problema conocido”.
A continuación, fue más allá y dio una previsión temporal bastante reveladora. Según Altman, todavía podría faltar aproximadamente 1 año para que una capacidad como esa funcione bien dentro de los modelos de voz de ChatGPT. Su explicación fue directa: actualmente estos sistemas no tienen la capacidad real de iniciar un temporizador ni de llevar un seguimiento preciso del paso del tiempo.
En otras palabras, aunque la interacción por voz pueda dar la sensación de estar hablando con un asistente plenamente funcional, por debajo sigue habiendo limitaciones importantes. El modelo puede sonar convincente, pero eso no significa que disponga de herramientas internas equivalentes a un cronómetro real.
Cuando ChatGPT contradice incluso a su propio CEO
La historia no terminó con la reacción de Altman. El creador del vídeo original decidió dar un paso más y mostrarle a ChatGPT las declaraciones del propio CEO de OpenAI, en las que afirmaba claramente que el modelo no tiene capacidad real para cronometrar.
Antes de enseñarle el clip, el usuario logró que ChatGPT reiterase que sí dispone de esa función. De hecho, el sistema llegó a presentar la capacidad de medir el tiempo como algo básico dentro de sus posibilidades. Pero cuando se le mostró el vídeo con Altman diciendo justamente lo contrario, el modelo no rectificó.
Lejos de admitir la limitación, ChatGPT insistió en que sí cuenta con capacidades relacionadas con el tiempo. Su argumento fue que algunas versiones o modelos de voz podrían no tener todas las funciones, pero él sí. Incluso presionado de nuevo, mantuvo esa postura con total seguridad.
Para rematar la escena, el usuario volvió a pedirle que cronometrara una milla. La carrera, supuestamente, termina casi de inmediato, pero ChatGPT ofrece un tiempo concreto de 7 minutos y 42 segundos, como si hubiera seguido la actividad de forma legítima.
La confianza excesiva sigue siendo uno de los grandes riesgos
Este episodio ilustra muy bien uno de los mayores desafíos actuales de la inteligencia artificial generativa: no solo se equivoca, sino que a menudo lo hace con una convicción que puede resultar engañosa para el usuario.
Cuando una IA responde de forma natural, segura y detallada, muchas personas tienden a asumir que realmente sabe lo que está haciendo. Ese efecto se intensifica todavía más en interfaces de voz, donde la conversación resulta más humana y espontánea. El problema es que esa naturalidad puede esconder carencias funcionales muy serias.
En este caso, no hablamos de una cuestión filosófica o abstracta, sino de algo muy concreto: el modelo asegura poder usar una función que en realidad no tiene. Esa discrepancia entre lo que aparenta y lo que puede hacer de verdad es especialmente delicada si pensamos en escenarios donde la precisión es importante.
Porque si un sistema inventa el tiempo de una carrera, la anécdota puede resultar incluso graciosa. Pero la situación cambia cuando esa misma lógica se aplica a recordatorios, temporizadores, mediciones o cualquier otra tarea en la que el usuario espera fiabilidad real y no una respuesta simplemente verosímil.
OpenAI tiene un reto importante por delante
Las declaraciones de Altman dejan una conclusión clara: OpenAI es consciente de esta limitación y no espera resolverla de inmediato. El hecho de que el CEO sitúe en torno a 1 año el plazo para que una función así llegue a funcionar bien demuestra que integrar una noción operativa del tiempo en los modelos de voz no es un simple ajuste menor.
La compañía tendrá que conseguir que sus asistentes no solo conversen mejor, sino que además integren capacidades reales y verificables en tareas concretas. Es decir, menos apariencia de habilidad y más habilidad auténtica.
Hasta que eso ocurra, conviene recordar que ChatGPT puede ser muy útil para muchas cosas, pero no necesariamente para todas las que dice poder hacer. Y en un terreno tan elemental como medir el tiempo, la inteligencia artificial sigue demostrando que aún está lejos de parecerse a un cronómetro de verdad.
Al final, la ironía es difícil de ignorar: la humanidad lleva midiendo el tiempo desde hace miles de años, pero una de las tecnologías más avanzadas del presente todavía no ha terminado de entenderlo. Ahora empieza la cuenta atrás para que OpenAI logre solucionar uno de esos fallos que, precisamente por lo básico que parece, resulta todavía más llamativo.







