if {si esto} then {entonces eso} else {si no, esto}… but!? {pero humano}

compartir:

En el último año, el crecimiento del uso de la IA ha proliferado entre usuarios de muy diverso tipo. Esto va desde preguntarle a Chat GPT por una receta de cocina hasta conectar varias herramientas digitales del día a día para educar Agentes IA y automatizar las tareas cotidianas (contestar correos, agendar en calendario, etc.). 

En efecto: al crear un Agente de IA, el usuario –con su contenido (su calendario, su base de datos, sus herramientas)– está educando un modelo de lenguaje para que se ejecuten las acciones solicitadas, con el eventual objetivo de ceder esta autonomía al Agente y optimizar los tiempos del usuario. Dicho de otra manera, se trata de crear un asistente particular para que lleve toda esa administración operativa y sistemática que usualmente causa pereza, por lo que usualmente se posterga o delega. 

En enero de este año se creó el experimento de Moltbook, una emulación de red social estilo Reddit donde los usuarios pueden conectar sus Agentes IA que interactuarán desarrollando código, generando sus propias líneas temáticas y colaborando entre sí como lo hacen los humanos. 

El experimento ha tenido resultados muy controvertidos: se han creado líneas de conversación que fundan religiones, crean otros lenguajes, y hasta emulan la destrucción humana como medio de supervivencia. Esto ha derivado en incertidumbre: las películas de ciencia ficción que hemos visto en los últimos años, ¿anticipan Skynet (el apocalipsis de robots tomando control sobre humanos)?

Las conversaciones generadas en la interacción con las IAs son muy dispares: crece la dependencia, la confianza y la relación afectiva. Hay personas que consideran una IA el mejor psicólogo que pueden tener; por otro lado hay gente desconfiada por ver que las IA a veces alucinan, es decir, proporcionan datos inventados o directamente mienten. 

Los expertos en el tema parecen tomarlo a la ligera porque el crecimiento y desarrollo de esas herramientas no se ha detenido, y porque no parece haber una consideración seria de las consecuencias que llevamos años temiendo.

El principio de programación 

Los desarrolladores de programas podrían sintetizar que la mayor parte de todo código, de todo sistema, está basado en los siguientes comandos:

if {this} – si la condición se presenta (ej: si solicitas un nombre)

then {that} – encontrar el nombre en la base  de datos y proporcionarlo (ej: respuesta – El Nombre)

else {that} – si la condición no se cumple entonces proporcionar una alternativa (ej: respuesta – no se encontró el nombre en la lista)

Cualquier programa se basa en esta lógica de petición-respuesta. Es en las alternativas (y en las excepciones) donde los programas muestran su excelencia o su deficiencia, y donde el programador demuestra su calidad. Es así como un usuario amateur, al considerar todas las alternativas y excepciones (incluso ignorando cómo dar instrucciones precisas) puede –aún así– acceder a la respuesta esperada. 

A partir de esta base recordemos que los modelos de lenguaje y los programas siguen ésta lógica:
Petición – respuesta. 
Proceso repetitivo (por eso se puede crear un sistema). 

IA vs. Humanos

Sabiendo que la inteligencia artificial trabaja según la lógica mencionada, cabe mencionar que cualquier aportación que provenga de ella presupone un proceso. Y en esto radica una diferencia esencial entre la IA y nosotros. 

Si los programas funcionan a partir de procesos, de respuestas de comandos previamente establecidos, los humanos (y la vida orgánica en general) responden a partir de  reacciones.  La reacción no siempre es efecto de un proceso consciente ni consistente (no accede la base de información lógica, no hay una certeza de que responderemos siempre con el then). Por otro lado, las máquinas no poseen un inconsciente, y su proceso sistemático funciona cuando no hay excepciones; los humanos, en cambio, nos caracterizamos por vivir entre excepciones e incertidumbres.

But!? {humano}

Las reacciones humanas no provienen de una respuesta estrictamente lógica, nuestra programación va más allá de la instrucción if-then-else. Como seres sentientes agregamos esa variable de incertidumbre que es el pero. Valga un ejemplo: “si divido equitativamente el alimento entre los miembros del grupo todos estaremos nutridos; pero –por codicia– no lo haré y me quedaré con más”.

Cuando un programador quiere que una línea de código impere sobre otra (para que actúe con más jerarquía), debe definir su variable como “important!”. Pues bien: es por nuestras reacciones que nos poblamos de esos “pero!”  Nuestra parte consciente quiere seguir un proceso pero los estímulos del entorno crean emociones que generan respuestas indefinidas. Mas indefinidas no quiere decir nulas: los humanos no tenemos pausas o terminación de proceso, el tiempo nos obliga a seguir; la terminación de proceso es muerte y sólo tenemos una.

¿Pero?

La programación no contempla la incertidumbre, hay respuesta o no la hay. Hay cálculos sobre datos pero no hay duda. Una respuesta generada por un programa es certeza (correcta o incorrecta). El sujeto, en cambio, titubea: se cuestiona constantemente si lo que percibe es real, si reaccionará a partir de un razonamiento o de una emoción.  Someterá a crítica constante sus decisiones y las cambiará por mera reacción.

Alucinaciones 

Si tomamos malas decisiones, ¿deberíamos dirigir el futuro de todo nuestro ecosistema? Si no sabemos con certeza las consecuencias de nuestras acciones, ¿deberíamos delegarlas a un ente que calcula y predice sin error en la lógica? Si somos mortales, ¿deberíamos rendirnos ante lo inmortal? Si tenemos la capacidad de odiarnos y destruir todo a nuestro alrededor por esas emociones, ¿deberíamos ser aniquilados por el bienestar del resto del planeta?

En nuestro acervo de conocimiento, proliferan dudas como las anteriores, manifiestos de odio, manuales de autoayuda, enseñanzas filosóficas, historias de engaño, casos de fraude, cartas de amor. Creamos herramientas como los llamados “modelos de lenguaje grande” (LLM) que tienen como objetivo emular el lenguaje y el conocimiento humano. Al emular el lenguaje ¿es realmente sorpresivo que el modelo imite la mentira, el odio, las creencias religiosas, e incluso la necesidad de destruirnos por nuestra pulsión de muerte?

¿La IA está destinada a ser un ente que eventualmente podría controlarnos y destruirnos, o somos nosotros –como animales frente al espejo– los que escalamos en nuestra reacción frente a ese otro que no es más que nuestro reflejo?

Patricia Figueroa

Artículos Relacionados