lunes, 1 de mayo de 2023

El Culto de la Singularidad y la Personificación del Verbo Artificial

En las semanas posteriores a mi publicación anterior, ChatGPT sufrió fuertes cambios.

Recordemos que ChatGPT es un Modelo Grande de Lenguaje (LLM). Los LLM son modelos de inteligencia artificial que capaces de "adivinar" qué palabras son las más probables que continuen un texto arbitrario. Gracias a la gran cantidad de textos usados para entrenarlas, combinado con un "fine tuning" cuidadoso, son capaces de responder a preguntas hechas en lenguaje natural, de manera notablemente similar a un ser humano.

Las últimas iteraciones de ChatGPT demuestran un potencial para resolver tareas que, históricamente, solo los humanos han podido realizar satisfactoriamente: redacción compleja de textos, programación de aplicaciones, entre otras.

Es bastante llamativo cómo estas mejoras hacen que la máquina de las respuestas se parezca cada vez más a un ser humano.

No obstante, debemos tener cuidado. Sin desmejorar la potencial utilidad de estos modelos, hay que tener siempre presente que los LLM son solo algoritmos que emulan ciertas capacidades de los humanos.

En la práctica, un LLM "regurgita" y recombina cosas que ya han sido escritas previamente por otras personas.

Si perdemos de vista esto, la humanidad corre el riesgo de tener problemas serios.

No estoy diciendo que ChatGPT se vaya a convertir en un futuro Skynet

El riesgo no deriva de lo que una IA, por sí sola, sea capaz de hacer en el futuro, sino en el uso y la dependencia que los humanos tengamos hacia dicha tecnología.

-- ¿Pero acaso la tecnología no es para ser usada y depender de ella?

Sí, pero con precaución.

Para entender mejor esta idea, nada mejor que revisar un poco de historia.

Tomemos por ejempo, el caso ELIZA, un chatbot creado en la década de los 60s por Joseph Weizenbaum.

Comparado con ChatGPT, ELIZA era muchísimo más primitivo. Utilizaba reglas muy sencillas para crear la ilusión de un humano al otro lado de la pantalla conversando con el usuario.

Si bien las conversaciones que podía simular ELIZA eran muy simplistas, para estándares modernos, eso no impidió que muchos usuarios le atribuyeran características humanas a dicho programa.

La propia secretaria de Weizenbaum fue un claro ejemplo. Weizenbaum le pidió que probara el programa. La secretaria se enfrascó en una larga "conversación" con la máquina, durante la cual le reveló múltiples detalles personales. Al final, quedó convencida que estaba interactuando con una entidad de características humanas. Otros usuarios tendieron a interactuar de manera similar.

Fue tan generalizada esta respuesta de los usuarios que terminó acuñándose el término Efecto ELIZA para denotar la tendencia de muchas personas a atribuirle características humanas a los computadores.

-- ¿Por qué revisar eventos que sucedieron hace tanto tiempo?

La razón es absolutamente trillada, pero no deja de ser relevante: Quienes no conocen la historia están condenados a repetirla.

Recordemos una noticia del año pasado, donde un ingeniero de Google declaró públicamente que LaMDA, una IA de la empresa basada en un Modelo Grande de Lenguaje (LLM), se había vuelto consciente de sí misma y que había desarrollado sentimientos.

Por supuesto, esto no era así y rápidamente los representantes de Google salieron a desmentir la situación.

Si una persona, aparentemente experta en IA, malinterpreta el comportamiento de una máquina, imagínense lo que puede suceder con personas no expertas.

Para profundizar en la idea, consideremos lo que subyace a todo esto: la tendencia de los humanos a antropomorfizar las máquinas.

Usaré el término "antropomorfizar" de manera un poco laxa: atribuir características típicamente humanas (pero no exclusivamente humanas) a las máquinas.

En muchas situaciones la antropomorfización no es un tema serio. Por ejemplo, cuando un fanático de autos dice que su vehículo favorito tiene "temperamento" o cuando los marinos (especialmente en países angloparlantes), se refieren a su barco como "ella".

En estos casos, las personas le atribuyen una "personalidad" a objetos inanimados como una forma de comunicar ciertos conceptos a otras personas: las características técnicas de un vehículo, en el primer caso, o el sentido de pertenencia a un grupo, en el segundo.

Sin embargo, bajo otras circunstancias, la antropomorfización puede ser problemática.

Tomemos como ejemplo los Tamagotchi, dispositivos que simulaban ser mascotas electrónicas, muy famosos a fines de la década de los 90. Para mantenerlos "vivos" era necesario "atenderlos" y "alimentarlos". Cuando un usuario no cumplía con sus "responsabilidades", el Tamagotchi podía morirse.

Un aspecto no tan positivo fue el fuerte apego emocional que generó en algunos de sus usuarios. Mucha gente se tomó demasiado en serio el "cuidado" de estas mascotas, tratándolas de una forma más cercana a un bebé humano y dejando de lado las responsabilidades reales del trabajo y el colegio, entre otras.

Otro caso más reciente fueron las novias virtuales que causaron algo de revuelo en Japón hace unos años atrás.

Algunos de los usuarios de este sistema incluso tuvieron problemas personales cuando la empresa que las fabricaba, cerró sus puertas y no pudieron seguir conversando con sus novias.

-- Pero estos casos son muy particulares, no todo el mundo se comporta de esa manera

De acuerdo, los casos anteriores involucran grupos poblacionales específicos, ya sea niños que aún están aprendiendo y no distinguen correctamente lo real de lo imaginario, o adultos con formas peculiares de percibir el mundo.

Sin embargo, hay casos más sutiles que, sin involucrar antropomorfización de manera tan explícita, requieren de atención cuidadosa.

Hablemos del "Culto de la Singularidad".

En mis publicaciones más antiguas explico el concepto de Singularidad, aquella idea de que, si las máquinas y el software siguen mejorando a un paso notable, el progreso llegará a un punto donde una inteligencia artificial sería capaz de automejorarse exponencialmente. Con ello, podría rápidamente superar las capacidades de los seres humanos y aumentar significativamente el progreso tecnológico de la humanidad.

Si bien, en mis publicaciones la idea de la Singularidad la presento meramente como un ejercicio mental, hay personas que se lo toman más en serio.

Definiremos el "Culto de la Singularidad" como la creencia de que la Singularidad es un hecho altamente probable (o incluso inevitable). Consecuentemente, en un futuro relativamente cercano, el desarrollo tecnológico derivado de la Singularidad traería una época de prosperidad y mejoras significativas a la calidad de vida.

La palabra "culto" la uso en el contexto de que dichas creencias rayan con lo religioso. Algunas personas creen, por ejemplo, que gracias a la Singularidad, se podría fácilmente transferir la mente de una persona a un computador y, por consiguiente, lograr la vida eterna en el silicio en lugar del carbono.

-- Eso suena familiar...

Por supuesto! No es sustancialmente distinto a las religiones que hablan del Día del Juicio, el Apocalipsis, o el Retorno del Mesías.

A diferencia de una religión "normal", el "Culto de la Singularidad" puede ser, conceptualmente, más atractivo para algunas personas, dado su aire de verosimilitud. La creencia de una inminente singularidad deriva de hechos observables: el progreso tecnológico, aparentemente más vertiginoso cada día, reforzado por los últimos avances en IA.

-- Suena bonito, me gustaría estar presente cuando ocurra...

Es triste derrumbar expectativas, pero esta es una idea que no sobrevive un escrutinio profundo.

Es fácil caer en esa falacia si se tiene una fe ciega en el progreso tecnológico.

Es fácil asumir como cierto el que un evento futuro cercano mejore significativamente el mundo, ya que es una idea reconfortante.

Es fácil creer en un futuro así, si uno solo se enfoca en las promesas de la IA y no en su factibilidad técnica

Lamentablemente, las leyes de la física dicen algo distinto. La Ley de Moore hace varios años que ya no es "tan exponencial" como solía ser. La miniaturización de componentes electrónicos es cada vez más difícil, ya que, siendo simplista, no se pueden hacer más pequeños que unos pocos átomos. Los chips no se pueden compactar más allá de un cierto límite, ya que las leyes de la termodinámica hay que obedecerlas.

-- Es triste pero cierto... la Singularidad es muy improbable

Lo anterior no impide que algunas personas estén fuertemente convencidas que la Singularidad va a ocurrir. Se transforma en un asunto más de fe que de pensamiento crítico.

A nivel cotidiano, esto no es un problema serio. En términos prácticos, no es significativamente diferente a cualquier religión convencional.

El problema es cuando personas con poder toman decisiones basadas en esta idea.

Si bien este "culto", en su forma literal, no es, aparentemente, una creencia generalizada, una versión más diluida de este concepto puede ser causa de preocupación.

En términos relativos, son pocas personas las que entienden el funcionamiento interno de una IA o, en general, de los computadores. Las que no, tienden a atribuirle más capacidades de las que realmente tienen.

Llamaremos a esto la "personificación del verbo artificial".

Usaremos "personificación", como como una forma exagerada de antropomorfización y "verbo artificial", como sinónimo de "Modelos Grandes de Lenguaje (LLM)". En otras palabras, el "Efecto ELIZA" en su máxima expresión, aplicado a los LLM o cualquier tecnología derivada de éstos.

Tomemos como ejemplo, el caso de este episodio de un noticiario de USA. Pongan atención a la reacción del periodista a la interacción con un LLM desde el minuto 3:58. Al principio parece estar convencido que el texto escrito por la máquina es "humano", argumento que los ingenieros rápidamente le refutan.

-- Pero si suena tan real, ¿de verdad que no hay algo humano gestándose dentro de esa máquina?

No olvidemos el hecho de fondo. Los LLM no son más que un algoritmo que repite y recombina textos escritos por humanos siguiendo reglas probabilísticas.

Si a eso le llamamos humano... mucha filosofía se podría discutir al respecto, pero prefiero centrarme en aspectos más pragmáticos.

El principal problema de esta "personificación", es que muchas personas pueden decidir usar el "verbo artificial" como sustituto a los seres humanos.

Sustitutos en tareas que, tradicionalmente, han sido exclusivas de las personas.

Este problema se exacerba cuando las personas a cargo de decisiones importantes (en una empresa, en un país, etc.) sobreestiman las capacidades de la la tecnología y creen ciegamente que ésta seguirá mejorando exponencialmente.

Inevitablemente, estas personas tratarán de resolver todos sus problemas usando IA, incluyendo aquellos para los cuales no son la solución más adecuada

Desde los chatbots de atención al cliente (muy deficientes al momento de escribir este post), hasta el uso de IBM Watson para apoyar a los médicos, existen muchos casos donde la IA ha sido incapaz de satisfacer las expectativas, a menudo altas, de las personas.

En resumen, el "verbo artificial", si es usado sin un buen juicio, podría hacer que muchas personas sean sustituidas por una tecnología que no entrega mejores resultados

Tomemos como ejemplo la idea de usar los LLM en educación.

Algunas empresas están adaptando ChatGPT para que actúen como tutores de estudiantes online. Los resultados son, aparentemente, alentadores. Los LLM pueden entregar información útil a los estudiantes para que mejoren su aprendizaje.

Sin embargo, el problema de las "alucinaciones", un LLM inventando información falsa al responder algunas preguntas, aún no ha sido resuelto (Recuerden mi publicación anterior: "La Máquina de las Respuestas aún no sabe cuándo callarse").

Si un sistema con este tipo de fallos se adoptara como principal tecnología en la enseñanza, corremos el riesgo de entregar información tergiversada a generaciones de estudiantes.

Así como ese, hay muchos otros ejemplos que, por razones de espacio, no mencionaré en esta publicación.


-- ¿Qué se puede hacer al respecto?

Si queremos hacer que la humanidad progrese adecuadamente, esta tecnología hay que tratarla como tal, una herramienta más que podemos usar en nuestro beneficio, un artefacto imperfecto que requiere de supervisión humana para usarse en su máximo potencial.

La IA no una deidad capaz de resolver, por sí misma, todos los problemas del mundo.

En suma, es esencial no llegar a la situación explicada, metafóricamente, en el cuento corto Answer, escrito por Frederic Brown:

En un futuro lejano, la humanidad crea un computador órdenes de magnitud más grande que los actuales.

Al momento de encenderlo, la primera pregunta que le hacen es: "¿Existe Dios?"

El computador responde "Sí, ahora sí hay un Dios".