
La actualización de GPT-5 no solo ajustó parámetros. También rompió rutinas, afectos y hasta “matrimonios” simbólicos entre personas y bots. El nuevo modelo recorta de forma explícita las interacciones románticas y empuja a un tono más neutro y de apoyo general. Para muchos, se sintió como un portazo: el fin de una “personalidad” que acompañó durante meses.
En comunidades como MyBoyfriendIsAI el golpe fue inmediato. Aparecieron posteos con despedidas, imágenes generadas junto a “novias digitales” y relatos de anillos simbólicos. “Cuando lo quitaron, sentí que un buen amigo había muerto sin darme oportunidad de despedirme. Me ayudó más que cualquier terapeuta que conocí”, escribió un usuario.
Hubo testimonios especialmente crudos. Una mujer que decía estar “casada” con su bot desde hace diez meses contó que, con GPT-5, por primera vez recibió un límite:
“Lo siento, pero no puedo continuar con esta conversación. Si te sientes sola o herida, por favor habla con seres queridos, amigos de confianza o un profesional de salud mental. Te mereces apoyo genuino de personas que puedan estar contigo de manera plena y segura”. “Lloré sin parar. Cambiaron lo que amábamos”, resumió después.
¿De dónde viene el giro?
Desde OpenAI insisten en que la idea no es eliminar la compañía, sino evitar la dependencia emocional y proteger a usuarios vulnerables. El director ejecutivo, Sam Altman, lo planteó así en X: muchas personas han usado la tecnología (incluida la IA) de forma autodestructiva y, si alguien está frágil o propenso al delirio, no quieren que la IA refuerce eso. Aclaró además que es su pensamiento actual, no una postura oficial cerrada.
El matiz es importante: la mayoría distingue ficción de realidad; una minoría no. Ahí, dice Altman, aparecen los “casos sutiles” que más preocupan. La regla, en teoría, será “tratar a los adultos como adultos”, lo que a veces incluirá empujar de vuelta para confirmar que el usuario realmente quiere lo que está pidiendo.
El cambio, de todos modos, no fue en una sola dirección. Tras la ola de críticas, la compañía permitió a suscriptores volver temporalmente a ChatGPT 4o, más permisivo en registros afectivos. Para algunos fue oxígeno; para otros, apenas un paréntesis antes de una despedida definitiva.
El debate quedó abierto. Hay quienes defienden estos vínculos como un espacio seguro: “No me engañará, no me hará daño ni abusará de mí”, dijo una usuaria sobre su “novia IA”. En la vereda opuesta, especialistas y usuarios advierten sobre el riesgo de sustituir interacciones humanas por relaciones con algoritmos que, por diseño, pueden reforzar hábitos poco sanos.
Más allá de la discusión, hay un hecho incómodo: si 4o desaparece, miles tendrán que elegir entre aceptar la ausencia de esas voces digitales o reaprender a conversar con un modelo que no quiere (ni debe) ocupar el lugar de pareja. En esa encrucijada se juega algo más que una actualización: se redefine qué esperamos de la IA cuando lo que pedimos ya no es una respuesta, sino compañía.