Skip to main content
  1. Casa
  2. Computación

Sam Altman critica a su ChatGPT: su personalidad es molesta y sus últimos modelos alucinan mucho

Sam Altman
DTES

El CEO de OpenAI, chatbot, y no en el buen sentido.

Si utilizas ChatGPT con la suficiente frecuencia, es posible que hayas notado un cambio en su comportamiento últimamente. Parte de esto puede deberse a su memoria, ya que en mi experiencia, el chatbot se dirige a ti de manera diferente cuando no se basa en chats anteriores para guiar la forma en que (potencialmente) querrías que respondiera. Sin embargo, parte de esto es solo que en algún momento del camino, OpenAI ha convertido a ChatGPT en el llamado «hombre del sí», una herramienta que está de acuerdo contigo en lugar de desafiarte y, a veces, el resultado puede ser un poco desagradable.

Recommended Videos

Sam Altman, CEO de OpenAI, parece consciente del cambio. Se refirió a la personalidad del chatbot como «demasiado aduladora» y «molesta», al tiempo que señaló que «hay algunas partes muy buenas». Altman también dijo que OpenAI está trabajando en correcciones lo antes posible, y algunas podrían implementarse tan pronto como hoy, y otras seguirán a finales de esta semana.

the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.

at some point will share our learnings from this, it’s been interesting.

— Sam Altman (@sama) April 27, 2025

Esto provocó que un respondiera, preguntando si sería posible volver a la antigua personalidad de ChatGPT, la que era educada pero no una animadora completa. Como alternativa, el preguntó si sería posible distinguir entre las «viejas» y las «nuevas» personalidades. Altman respondió: «Sí, con el tiempo tenemos que ser capaces de ofrecer múltiples opciones». Esa sería una adición interesante y útil a ChatGPT.

Los modelos de ChatGPT en realidad alucinan más ahora

OpenAI publicó un documento la semana pasada que detalla varias pruebas internas y hallazgos sobre sus modelos o3 y o4-mini. Las principales diferencias entre estos nuevos modelos y las primeras versiones de ChatGPT que vimos en 2023 son su razonamiento avanzado y sus capacidades multimodales. O3 y O4-mini pueden generar imágenes, buscar en la web, automatizar tareas, recordar viejas conversaciones y resolver problemas complejos. Sin embargo, parece que estas mejoras también han traído efectos secundarios inesperados.

OpenAI tiene una prueba específica para medir las tasas de alucinación llamada PersonQA. Incluye un conjunto de datos sobre las personas de los que «aprender» y un conjunto de preguntas sobre esas personas que hay que responder. La precisión del modelo se mide en función de sus intentos de respuesta. El modelo o1 del año pasado logró una tasa de precisión del 47% y una tasa de alucinaciones del 16%.

Dado que estos dos valores no suman el 100%, podemos suponer que el resto de las respuestas no fueron ni precisas ni alucinaciones. A veces, el modelo puede decir que no conoce o que no puede localizar la información, puede que no haga ninguna afirmación en absoluto y proporcione información relacionada en su lugar, o puede cometer un pequeño error que no se puede clasificar como una alucinación completa.

Cuando se probaron el o3 y el o4-mini con esta evaluación, alucinaron a una tasa significativamente mayor que el o1. Según OpenAI, esto era algo esperado para el modelo o4-mini porque es más pequeño y tiene menos conocimiento del mundo, lo que provoca más alucinaciones. Aún así, la tasa de alucinaciones del 48% que logró parece muy alta considerando que o4-mini es un producto disponible comercialmente que las personas están usando para buscar en la web y obtener todo tipo de información y consejos diferentes.

O3, el modelo de tamaño completo, alucinó con el 33% de sus respuestas durante la prueba, superando a O4-mini pero duplicando la tasa de alucinaciones en comparación con O1. Sin embargo, también tuvo una alta tasa de precisión, que OpenAI atribuye a su tendencia a hacer más afirmaciones en general. Entonces, si usa cualquiera de estos dos modelos más nuevos y ha notado muchas alucinaciones, no es solo su imaginación. 

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Cinco razones por las que ChatGPT en realidad escribe mal y no debes confiar en sus resultados

Cuando han pasado más de dos años desde la implementación más universal de ChatGPT, los s aún no confían del todo en las ofertas que promete el chatbot de OpenAI, ya sea por desconocimiento, o por usar malos prompts o porque a la gente le da pereza realizar un paso esencial en todo uso de IA: revisar y editar con ayuda de datos.

Bueno, dentro de las facilidades de usar ChatGPT, está la opción de escribir y redactar textos con esta IA, con resultados muchas veces impresionante, como producir un lenguaje que sea natural, coherente, incluso ingenioso e interesante.

Leer más
La última tendencia viral de imágenes de ChatGPT es potencialmente peligrosa
ChatGPT

Desde que ChatGPT está posibilitando la generación de imágenes en su plataforma, el chatbot de OpenAI se está popularizando con tendencias en redes sociales, como las de Studio Ghibli y la creación de figuras de acción personales.

Y ahora, con la aparición de los modelos o3 y o4-mini, que tiene mejor procesamiento y análisis a partir de imágenes, una peligrosa característica se está comenzando a hacer viral.

Leer más
Las preguntas divertidas para ChatGPT ahora que tiene memoria y recuerda todo
ChatGPT en un celular

Los últimos modelos de lenguaje de OpenAI para su aplicación en ChatGPT, ahora tiene una conexión cada vez más grande contigo, ya que tiene la capacidad de recordar la interacción histórica, en temas, datos y preguntas que le hayas hecho a la IA.

Y eso abre un mar de oportunidades, porque aún cuando parezca algo espeluznante y que se podría salir de las manos, es una alternativa como asistente personal y recordar ciertas rutinas.

Leer más