Essay
La anomalía apocalíptica
COLUMN/COLUMNA

La anomalía apocalíptica

Alberto Chimal

El otro día me encontré en internet con un artículo titulado “Manifiesto por la desaparición de las palabras. Sobre los progresos de la inteligencia artificial”. Su autor es Jesús Suaste, académico y escritor mexicano. Me asusté y empecé a leer el artículo pensando (temiendo) que fuera un texto apocalíptico, quizá un llamamiento a que los humanos dejemos literalmente de comunicarnos y de pensar, para cederle definitivamente la tarea a los modelos de lenguaje de gran tamaño: las aplicaciones de inteligencia artificial limitada como el famoso ChatGPT, que en menos de un año han capturado la atención mundial y que, según sus fabricantes y promotores, serían auténticas conciencias no humanas.

(No lo son, pero dejemos la cuestión para después.)

Sí sentí alivio, la verdad, cuando vi que el título era otra trampa de internet (más clickbait, hecho para provocar reacciones como la mía) y el artículo era humorístico: una sátira del exceso de información que inunda los medios del siglo XXI.

El artículo pone en evidencia un tema de actualidad colocándolo en un futuro imposible, ridículo: hacer esto es una tradición occidental por la que, hablando sólo de México, han pasado también Juan Villoro, José Emilio Pacheco, Jorge Ibargüengoitia o M. A. Almazán. Dado que las “inteligencias artificiales” ya van a escribirlo todo, dice Suaste, deberían empezar por escribir toda la basura –todos los discursos innecesarios, que se producen por costumbre o ritual y sólo agregan ruido a la experiencia de la vida humana–, y todos los derivados de esa misma basura: las tesis que todos preferirían plagiar y nadie va a leer, los artículos académicos y sus correspondientes notas de rechazo, las polémicas en redes sociales y sus miles de respuestas indignadas, las conferencias mañaneras del presidente y los opiniones sobre ellas de partidarios y opositores, etcétera. Ningún ser humano tendría que consumir nada de eso, concluye Suaste, porque las inteligencias artificiales se bastarían para mantener el ciclo entero en marcha –texto, consumo, comentario, consumo del comentario, comentario del comentario– de aquí a la eternidad. En cambio, los humanos podríamos simplemente callarnos: ir a reflexionar a algún sitio remoto, a la espera de que se nos ocurriera algo realmente digno de ser dicho.

El humor en el texto no quiere ir más allá de la crítica del presente, pero muestra una actitud resignada que también es muy frecuente en su tradición: no rechaza el cambio tecnológico, no se le resiste en absoluto, pero tampoco tiene una actitud optimista ni siquiera intrigada. Acepta la transformación rapidísima del presente que, según se dice por todas partes, está ocurriendo gracias a ChatGPT y su parentela, pero no intenta comprenderla: es una especie de destino fatal ante el que solamente queda reírse, mientras se agacha la cabeza.

Es muy extraño, pero esa misma actitud está presente en buena parte de la cobertura periodística alrededor de ChatGPT y las otras IA limitadas, incluso en textos redactados en países del norte global, que supuestamente no están acomplejados por su propio desarrollo tecnológico ni han sido víctimas de campañas centenarias de opresión colonial. Aún más raro, esas notas sí llegan a tener un tono aterrado y catastrofista, aun si en ocasiones lo disfrazan con algún tipo de ironía o comicidad estúpida. Por todas partes aparecen relatos de “conversaciones” agresivas o enloquecedoras entre humanos y software; videos que anuncian crédulamente a ChatGPT como “más inteligente que tú”; textos inquietantes sobre bots “malignos” cuando la explicación de sus respuestas ultrajantes o absurdas es invariablemente más prosaica; resúmenes mal hechos del informe que la empresa OpenAI, creadora de ChatGPT, hizo a partir de respuestas ¡del propio ChatGPT! sobre el impacto que tendrá en el mercado laboral. Notas crédulas, o cínicas, que ven como inevitable la supremacía de estas tecnologías nacientes, asumen que toda la vida humana necesita acomodarse ya a su presencia, y en muchos casos tratan lo que es esencialmente una herramienta de autocompletar enormemente sofisticada como una nueva especie inteligente, o incluso como una deidad.

(Esto último es en serio. La deidad, según el artículo en cuestión –publicado por el Wall Street Journal–, debería tener como intermediaria entre ella y el populacho a una nueva casta de sacerdotes tecnócratas. El que Henry Kissinger sea uno de los firmantes del artículo, y de los aspirantes a obispo digital, hace que el texto parezca aún más otra sátira, pero no.)

Hay más: la semana pasada se publicó una carta abierta en la que académicos y empresarios de informática piden una pausa de seis meses en el desarrollo de cualquier modelo de lenguaje de gran tamaño más sofisticado que GPT-4 (la base de la versión actual de ChatGPT), arguyendo que se debe trabajar más para conjurar cualquier “riesgo existencial” que la IA pueda representar para la especie humana, incluyendo el de la esclavización o destrucción total, al estilo de Terminator o Matrix.

Hace dos años, un artículo importante y muy comentado de Emily M. Bender, Timnit Gebru, Margaret Mitchell y Angelina McMillan-Major (“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”) ya explicaba los riesgos de proyectar nuestra propia humanidad en los modelos de lenguaje de gran tamaño: “entidades” que no tienen conciencia ni, por lo tanto, intenciones, malas ni de ningún otro tipo. Los autores del texto son todos personalidades respetadas en el mundo de la investigación de inteligencia artificial, con periodos de trabajo en Google y otras grandes compañías y organizaciones involucradas en el tema.

Sin embargo, da la impresión de que los países desarrollados –y sus “titanes” de la industria, el conocimiento o la política– se están rindiendo sin pelear ante la ilusión de una inteligencia artificial general (capaz de hacer todo lo que hace una mente humana, provista de verdadera autoconciencia) y de una transformación colosal e irreversible de la existencia entera en el planeta. Más o menos como se espera que lo hagamos todos los demás. No parece importar que, aparte del artículo que ya mencioné, haya otras críticas severas y muy sensatas al modo en que atribuimos cualidades humanas a un chatbot o un generador de imágenes.

Es comprensible que OpenAI se complazca con la publicidad gratuita, aunque sea negativa, de su producto, que le dará miles de millones de dólares y ya han convertido a su director, Sam Altman, en una nueva figura icónica: el siguiente Elon Musk, reverenciado como genio infalible. Pero al menos una parte de los principales competidores de Altman parece reaccionar igual que el público más desinformado y discute conceptos y escenarios confusos, que los medios a su alrededor explican poco y mal. Ahora mismo, esos hombres tan aventajados e influyentes esperan el advenimiento de la inteligencia artificial con la actitud reverente, atemorizada, totalmente segura de tener la razón, de los miembros de una secta religiosa.

¿Podría esa fe ciega hacer que ocurra, como una especie de profecía autocumplida? ¿Y qué pasaría entonces con quienes no tenemos un refugio antinuclear, ni riqueza o poder suficientes para intentar sobrevivir catástrofe alguna, ya no digamos esa? ¿Tenemos que dejarlo todo y echar a correr a algún sitio, a cualquier sitio, como en una mala película?

*

Es necesario excavar un poco en la cultura de las grandes empresas globales de informática –cuyas sedes, en su mayoría, están en California, en o alrededor del legendario Silicon Valley– para encontrar la causa de la anomalía apocalíptica. Según parece, esa preocupación no es un signo de ansiedades reprimidas: de una conciencia, aunque sea velada, de la crisis profunda del capitalismo de nuestro tiempo, que intenta aumentar todavía más los beneficios de sus dueños a costa de todos los demás en un entorno natural y social que ya no puede tolerar mucho más abuso.

Por el contrario, todo sería culpa de una serie de ideologías escatológicas, muy poderosas en aquel entorno y casi desconocidas fuera de él, que en general proponen intensificar la explotación y pretenden justificarla, presentándola como una especie de misión sagrada de los magnates tecnológicos. Émile P. Torres, historiadore y filósofe, las ha investigado y lista varias “escuelas de pensamiento” que se sostienen entre empresarios, think tanks, sitios web especializados y redes sociales. Torres y Gebru las agrupan en el acrónimo TESCREAL: Transhumanismo, Extropismo, Singularitarismo, Cosmismo, Racionalismo, Altruismo Efectivo y Largoplacismo (transhumanism, extropianism, singularitarianism, cosmism, rationalism, effective altruism, longtermism).

Las etiquetas parecerán extrañas: la de racionalismo, por ejemplo, desvirtúa el nombre de una escuela filosófica del siglo XVII. Aquí se puede decir que ninguna tiene más de tres décadas de existencia, todas designan posturas complementarias más que puntos de vista opuestos, y muchas celebridades de la moderna oligarquía tecnológica creen en varias o hasta todas ellas al mismo tiempo.

©Demian Carpe Diem.

Entre todas, las ideologías TESCREAL forman una visión del mundo que parece salida de un libro o una serie de ciencia ficción. Su argumento sería el siguiente: quienes pueden “salvar a la humanidad” son los dueños y creadores de la tecnología avanzada, que aplican la lógica (racionalismo) por encima del sentimentalismo y la “buena onda” progresista; sólo ellos pueden alcanzar el objetivo esencial de la especie humana, que es expandirse por todo el universo (cosmismo) y maximizar la explotación de sus recursos (extropismo). Por lo tanto, su tecnología debe aplicarse para resolver el problema de mejorar la especie humana y los cuerpos individuales (transhumanismo), expandir la conciencia y controlar la inevitable aparición de las superinteligencias artificiales (singularitarismo), que crecerán de manera exponencial a partir de las que existen hoy. La llegada de esta nueva época de la especie tomará tiempo, pero desde ahora (largoplacismo) debe apuntarse hacia ella, lo que exige dar prioridad a las acciones que puedan llevarnos al mañana próspero y astronáutico que nos espera (altruismo efectivo) incluso en lugar de problemas del momento –hambre, pobreza, colapso ambiental–, por llamativos que puedan parecer.

Lo que da miedo a los magnates de la tecnología digital no es que ChatGPT “llegue” a ser inteligente y todopoderoso, sino que lo esté haciendo demasiado rápido. (Y, tal vez, que no sea propiedad de ellos.)

Además de su semejanza con muchas visiones triunfalistas, excepcionalistas, excluyentes del futuro que Estados Unidos crea desde el siglo XX, y que han influido en sus industrias y su política hasta la actualidad, las ideologías TESCREAL tienen, desde luego, componentes de pensamiento sectario. Se presupone que quienes las defienden tienen la razón; que sus juicios serán correctos y ya saben todo lo que necesitan saber acerca del mundo y de las sociedades humanas; que sus fines, por abstractos que sean, importan más que cualquier persona concreta fuera de su grupo.

Y este grupo, por lo demás, está compuesto (para decirlo con franqueza) básicamente por hombres blancos, cisgénero, heterosexuales, angloparlantes, ricos. Son parte de la población con más ventajas heredadas en el mundo del siglo XXI, y quienes tienen más por ganar si se continúa la explotación petrosexorracial –el término es del teórico trans Paul B. Preciado: extracción, destrucción y marginalización que preserva la inequidad– a la que el capitalismo realmente existente ha sometido al mundo durante siglos. No es de sorprender que parte de los argumentos alrededor de esta fantasía futurista, en especial en el llamado transhumanismo, tenga su origen en escuelas de pensamiento racista como la eugenesia, que se ha usado para tratar de justificar la marginación y el exterminio de poblaciones enteras. Tampoco sorprenderá encontrar misoginia, sexismo, capacitismo y todas las otras formas de discriminación favoritas del extremismo contemporáneo.

*

Es tentador asumir una postura fatalista y resignarse al porvenir que tal o cual poder fáctico ya ha decidido alcanzar, o incluso convencernos de que podemos recibirlo con esperanza: de que unos pocos más, aparte de los jefes, podrán (o podremos) caber en él.

Por otra parte, también podemos imaginar futuros diferentes. Incluso si la desigualdad del presente parece invencible, si no se ve forma alguna de oposición, no está de más recordar que ninguna profecía se cumple más que en retrospectiva, que la humanidad no es racional más que una parte del tiempo y que la experiencia de vida de los más poderosos nunca es la más completa, la más amplia ni la más versátil. Y tampoco es eterna. La Historia está llena de proyectos utópicos que terminaron en la ruina y la burla, o que se distorsionaron hasta volverse irreconocibles y llegar a consecuencias aterradoras totalmente imprevistas.

Es más fácil verlo desde lugares como México: desde los patios traseros, los campos de trabajo forzado y los basureros del mundo desarrollado. El escritor José Luis Zárate, uno de los iniciadores de la ciencia ficción contemporánea en este país, ha dicho con enorme claridad que aquí es inevitable imaginar el futuro de otra forma: no somos creadores ni exportadores de tecnología, sino consumidores y con frecuencia víctimas. En los necroespacios del mundo –donde la vida se vuelve tóxica y a veces imposible; otra palabra acuñada por Preciado– estamos en el lado malo del garrote y cada cierto tiempo nos pegan: no le vamos a cantar loas. O al menos no todo el tiempo.

Además, la inteligencia artificial (sea tan buena como se dice o no, qué más da) plantea problemas más urgentes.

Entre los críticos del hype de los modelos de lenguaje de gran tamaño, Sayash Kapoor y Arvind Narayanan –respectivamente estudiante doctoral y profesor en la Universidad de Princeton– han escrito acerca del error que representa centrar la discusión acerca de inteligencias artificiales en posibilidades de larguísimo plazo, que aún no están respaldadas por los hechos… y se basan (agrego, otra vez con toda franqueza) en películas y cómics de cuando los caciques de Silicon Valley eran adolescentes mal adaptados. Fantasías de poder nacidas en circunstancias muy humanas y patéticas, que en ocasiones se persiguen incluso ignorando la realidad de las tecnologías involucradas.

(En 2016, Musk anunciaba “para muy pronto” el hackeo directo del cerebro humano con redes de nanomáquinas; no es la única ocasión en que ha prometido algo espectacular e inminente para luego no volver a mencionarlo.)

Kapoor y Narayanan identifican tres riesgos de corto plazo en el uso de los modelos de lenguaje de gran tamaño: 1) problemas de seguridad como hackeos y filtraciones, 2) exceso de confianza en herramientas poco confiables y 3) explotación laboral acompañada de centralización de poder. Nada de eso es difícil de imaginar ahora. Incluso visiones optimistas del futuro de la inteligencia artificial, como la del escritor y académico Jorge Carrión (quien ha escrito acerca de su impacto en el mundo de la edición), llegan a describir cambios plausibles, que podrían ser motivados no por un ensueño trascendental sino por la mera codicia. Reducción de puestos de trabajo y empleos eventuales, mayor concentración de ingresos en las empresas, desplazamiento y precarización de trabajadores, elitización o aniquilación de la labor humana especializada…

El mundo en que los modelos de lenguaje de gran tamaño funcionan como una máquina de movimiento perpetuo, escupiendo y tragando idioteces a espaldas de la humanidad, es puro pretexto para hablar de otra cosa: nunca va a llegar. Es tan imposible como la redención de los millonarios que imaginó Juan José Arreola, los continentes de papel de Julio Cortázar y, quizá, algunos augurios cosmistas y extropistas. Pero nuevas formas de abuso y desigualdad sí se encuentran cerca. Esos son los desastres que merecen preocuparnos.

 

-Imagen de portada Ars Electrónica

 

Alberto Chimal es autor de más de veinte libros de cuentos y novelas. Ha recibido el Premio Bellas Artes de Narrativa “Colima” 2013 por Manda fuego,  Premio Nacional de Cuento Nezahualcóyotl 1996 por El rey bajo el árbol florido, Premio FILIJ de Dramaturgia 1997 por El secreto de Gorco, y el Premio Bellas Artes de Cuento San Luis Potosí 2002 por Éstos son los días entre muchos otros. Su Twitter es @AlbertoChimal

©Literal Publishing. Queda prohibida la reproducción total o parcial de esta publicación. Toda forma de utilización no autorizada será perseguida con lo establecido en la ley federal del derecho de autor.

Las opiniones expresadas por nuestros colaboradores y columnistas son responsabilidad de sus autores y no reflejan necesariamente los puntos de vista de esta revista ni de sus editores, aunque sí refrendamos y respaldamos su derecho a expresarlas en toda su pluralidad. / Our contributors and columnists are solely responsible for the opinions expressed here, which do not necessarily reflect the point of view of this magazine or its editors. However, we do reaffirm and support their right to voice said opinions with full plurality.


Posted: April 5, 2023 at 9:00 pm

Leave a Reply

Your email address will not be published. Required fields are marked *