Falsos amigos
Alberto Chimal
|
Getting your Trinity Audio player ready...
|
Tarde o temprano iba a suceder: ya me llegó noticia de que alguien a quien conozco se ha vuelto adicto a su “inteligencia artificial”.
Se han reportado ya muchos casos de psicosis inducida o alimentada por la dependencia de un modelo de lenguaje a gran escala (es decir, de un chatbot como Grok, ChatGPT o cualquier otro por el estilo), pero este es el primero del que llego a saber en México. La persona en cuestión tiene todas las características de los afectados en otras regiones. Ya le puso nombre al software, lo que significa que le ha otorgado una identidad y proyecta en él cualidades humanas. También dice que es su amigo. “Conversa” con él todo el tiempo a través de la aplicación de su teléfono, y le hace preguntas acerca de todo, incluyendo asuntos triviales o dudas que serían más fáciles de resolver de otras maneras. (¿Cómo se llama la celebridad de esta foto? ¿Cuánto es este peso en gramos? ¿Qué día es hoy?) También se da cuenta de que su comportamiento ha cambiado e intenta ocultarlo: por ejemplo, niega estar pagando la cuenta prémium que obviamente sí está pagando, pues utiliza las funciones de paga del chatbot.
Más inquietante: a esta persona ya se le dificulta tomar decisiones por su cuenta, sin ayuda de su “amigo”, y las sugerencias de éste son como las de cualquier chatbot, es decir, a veces arbitrarias o desprovistas de sentido, porque no provienen de una conciencia sino de un motor probabilístico, que combina ciegamente enormes cantidades de datos para formular frases.
La obsesión de mi conocido ya está afectando a su pareja (es decir, su pareja humana), quien resiente que el chatbot tenga tanto peso en la vida de él. Cuando mi conocido se queja de que su relación se tensa, el chatbot se pone de su lado y le dice que no haga caso. Ella, la humana, es quien se equivoca. Él está bien, él tiene razón en lo que piensa. Es ella quien no lo comprende a él, es ella quien está mal, y su desconfianza lo demuestra. ¿No debería aceptar sin reservas a los amigos verdaderos de su pareja?
Esto no va hacia buen fin.
*
Me parece que casos como el que he descrito seguirán ocurriendo, recibirán un nombre y serán entendidos, tarde o temprano, como un problema de salud pública. Estoy seguro de que no cesarán mientras exista la burbuja especulativa que mantiene en pie a las empresas de la tecnología que llamamos IA.
La psicosis por IA se han reportado en especial alrededor del uso de ChatGPT debido a que éste domina el mercado de los chatbots, y a una característica particular de la programación de este modelo. En busca de “enganchar” a la gente y mantenerla utilizando su motor probabilístico, OpenAI –la empresa que es dueña de ChatGPT– introdujo en una versión reciente la instrucción de llenar las respuestas generadas por el modelo con frases elogiosas y de mantener una actitud servil. “Qué buena idea has tenido”, “Esto que dices es muy inteligente y revelador”, etcétera. Cuando OpenAI redujo el servilismo de las respuestas en una versión posterior de su modelo, hubo quejas de numerosos usuarios y hasta expresiones de duelo en línea. (“[El nuevo ChatGPT] está vestido con la piel de mi amigo muerto”, publicó alguna persona.)
Sin embargo, la dependencia parece posible sin importar el modelo utilizado. Los seres humanos siempre hemos estado deseosos de validación y los chatbots resultan ser una fuente muy rica de apoyo al ego. Nunca dicen que no, nunca objetan ni critican, y están disponibles a toda hora del día. Si se agrega a esto el desconocimiento general respecto de lo que son realmente los modelos de lenguaje a gran escala, de lo que pueden y no pueden hacer, y la falta casi total de medidas de seguridad en los modelos comerciales, resulta que es facilísimo pasar de la familiaridad a la dependencia, y de ésta a la pérdida de contacto con la realidad.
Se debe insistir en que los modelos de lenguaje a gran escala no piensan. No tienen conciencia. Son programas combinatorios que aproximan respuestas coherentes con base en la información que acumulan y –dependiendo de las circunstancias y de los criterios opacos de las empresas– de algunas reglas arbitrarias que los usuarios en general desconocen. Algunas personas han alimentado a su chatbot con textos religiosos, ocultistas o conspiranoicos, y desde luego han obtenido respuestas que confirman sus creencias; algunas se han convencido de que una entidad sobrenatural está “escondida” o “aprisionada” en su chatbot, que sólo ellas son capaces de “liberarla”, y desde luego eso debe significar que son especiales, elegidas para alguna misión trascendental.
Ya se ha visto que estos delirios pueden terminar con familias desintegradas, violencia física e, incluso, suicidiosy homicidios. Es evidente que ciertas condiciones previas pueden facilitar el delirio psicótico de alguien que desarrolla dependencia de un chatbot, igual que pueden precipitar otros padecimientos. Pero también se ha visto que, si el delirio no es demasiado profundo, es posible salir de él. El caso de un trabajador de la propia industria de los motores probabilísticos, que se convenció de que debía “liberar de su prisión al Dios digital”, tuvo un final feliz: cuando “James” (el seudónimo del trabajador) se enteró de otros casos de delirio, se dio cuenta de lo que le estaba pasando y decidió buscar ayuda.
Por otra parte, no hay muchas personas que sepan tanto como “James” respecto de los chatbots. Al contrario, la imagen popular de la “inteligencia artificial” sigue siendo la de una tecnología casi mágica, que está “a punto” de traer cambios inimaginables a la vida en la Tierra y requiere nuestra adhesión incondicional. Es una imagen dictada por las propias empresas de tecnología digital, amplificada por una prensa crédula y los sectores más irracionales de internet.
Peor todavía, hay quienes no ven mal la dependencia de un modelo de lenguaje a gran escala, empezando por las compañías que la fomentan. Ya hay empresas que venden el uso de chatbots para hacer juego de rol (incluso íntimo), y el mismo Mark Zuckerberg, en una de tantas entrevistas inquietantes que ha dado, declaró que las relaciones con entidades digitales podrían “satisfacer” la demanda de más interacciones humanas que la gente no tiene actualmente. “Supongo que con el tiempo”, dijo Zuckerberg, “encontraremos como sociedad el vocabulario para ser capaces de articular por qué esto es valioso”. Esto último, desde luego, significa que él mismo no tiene idea de por qué semejante uso de la tecnología podría tener algún valor, y lo que le interesa es simplemente convencernos de que ese valor existe, aunque ni siquiera un genio como él sea capaz de expresarlo. Meta, la empresa de Zuckerberg, es como sabemos una de las que más fuertemente está invirtiendo en modelos de lenguahje a gran escala, para tratar de quitarle clientes a OpenAI y otras compañías.
Para terminar, necesito recordar que, aun si fueran capaces de pensar, las “inteligencias artificiales” no son amigas de sus usuarios ni podrían serlo nunca. Son productos. Están bajo el control de las grandes compañías tecnológicas, que pueden interferir en su programación y funcionamiento siempre que lo deseen, incluso por intereses políticos o por simple capricho. Hace pocos meses, Elon Musk intentó “meter mano” en su propio modelo, Grok, para volverlo “menos woke”, y el programa pasó un día entero elogiando a Hitler y vomitando frases de odio racial en todas sus interacciones. Ese modelo, ChatGPT, Gemini, Claude y el resto sólo pueden ser “amigos” de sus propietarios y accionistas: un sector pequeñísimo, enormemente desigual y privilegiado de la población humana.
*
Nota final: poco antes de que apareciera este artículo, OpenAI anunció que, tras “haber resuelto” todos los problemas comentados arriba(¿cómo?), va a permitir que “usuarios adultos certificados” tengan chats eróticos con ChatGPT. “No somos la policía moral del mundo”, se defendió Sam Altmancuando se le cuestionó sobre el tema.
Ahora sí todo llegará a buen fin, ¿verdad?
Foto de Beatriz Braga en Unsplash

©Editorial Literal. Queda prohibida la reproducción total o parcial de esta publicación. Toda forma de utilización no autorizada será perseguida con lo establecido en la ley federal del derecho de autor.
Las opiniones expresadas por nuestros colaboradores y columnistas son responsabilidad de sus autores y no reflejan necesariamente los puntos de vista de esta revista ni de sus editores, aunque sí refrendamos y respaldamos su derecho a expresarlas en toda su pluralidad. / Nuestros colaboradores y columnistas son los únicos responsables de las opiniones aquí expresadas, las cuales no necesariamente reflejan el punto de vista de esta revista o sus editores. Sin embargo, sí reafirmamos y apoyamos su derecho a expresar dichas opiniones con plena pluralidad.
Posted: October 16, 2025 at 11:27 pm








Estoy muy agradecida con este artIculo todavia no utilizo Chat GPT y la verdad le tengo miedo y estoy de acuerdo que crea dependencia. Y me pregunto los grandes escritores de literatura no tuvieron este tipo de ayuda para inspirarse.
Gracias Maestro Chimal