En las semanas posteriores a mi publicación anterior, ChatGPT sufrió fuertes cambios.
Recordemos que ChatGPT es un
Modelo Grande de Lenguaje (LLM).
Los LLM son modelos de inteligencia artificial que capaces de
"adivinar" qué palabras son las más probables que continuen un texto
arbitrario. Gracias a la gran cantidad de textos usados para
entrenarlas, combinado con un "fine tuning" cuidadoso, son capaces de
responder a preguntas hechas en lenguaje natural, de manera notablemente
similar a un ser humano.
Las últimas iteraciones de ChatGPT demuestran un potencial para resolver
tareas que, históricamente, solo los humanos han podido realizar
satisfactoriamente: redacción compleja de textos, programación de
aplicaciones, entre otras.
Es bastante llamativo cómo estas mejoras hacen que la
máquina de las respuestas se parezca cada vez más a un ser humano.
No obstante, debemos tener cuidado. Sin desmejorar la potencial utilidad
de estos modelos, hay que tener siempre presente que los LLM son solo
algoritmos que
emulan ciertas capacidades de los humanos.
En la práctica, un LLM "regurgita" y recombina cosas que ya han sido escritas previamente por otras personas.
Si perdemos de vista esto, la humanidad corre el riesgo de tener problemas serios.
No estoy diciendo que ChatGPT se vaya a convertir en un futuro
Skynet
El riesgo no deriva de lo que una IA, por sí sola, sea capaz de hacer en
el futuro, sino en el uso y la dependencia que los humanos tengamos
hacia dicha tecnología.
-- ¿Pero acaso la tecnología no es para ser usada y depender de ella?
Sí, pero con precaución.
Para entender mejor esta idea, nada mejor que revisar un poco de historia.
Tomemos por ejempo, el caso
ELIZA, un chatbot creado en la década de los 60s por Joseph Weizenbaum.
Comparado con ChatGPT, ELIZA era muchísimo más primitivo. Utilizaba
reglas muy sencillas para crear la ilusión de un humano al otro lado de
la pantalla conversando con el usuario.
Si bien las conversaciones que podía simular ELIZA eran muy simplistas,
para estándares modernos, eso no impidió que muchos usuarios le
atribuyeran características humanas a dicho programa.
La propia secretaria de Weizenbaum fue un claro ejemplo. Weizenbaum le pidió que
probara el programa.
La secretaria se enfrascó en una larga "conversación" con la máquina,
durante la cual le reveló múltiples detalles personales. Al final, quedó
convencida que estaba interactuando con una entidad de características
humanas. Otros usuarios tendieron a interactuar de manera similar.
Fue tan generalizada esta respuesta de los usuarios que terminó acuñándose el término
Efecto ELIZA para denotar la tendencia de muchas personas a atribuirle características humanas a los computadores.
-- ¿Por qué revisar eventos que sucedieron hace tanto tiempo?
La razón es absolutamente trillada, pero no deja de ser relevante: Quienes no conocen la historia están condenados a repetirla.
Recordemos una noticia del año pasado, donde un ingeniero de Google
declaró públicamente que LaMDA, una IA de la empresa basada en un
Modelo Grande de Lenguaje (LLM), se había vuelto
consciente de sí misma y que había desarrollado sentimientos.
Por supuesto, esto no era así y rápidamente los representantes de Google salieron a desmentir la situación.
Si una persona, aparentemente experta en IA, malinterpreta el
comportamiento de una máquina, imagínense lo que puede suceder con
personas no expertas.
Para profundizar en la idea, consideremos lo que subyace a todo esto: la
tendencia de los humanos a antropomorfizar las máquinas.
Usaré el término "antropomorfizar" de manera un poco laxa: atribuir
características típicamente humanas (pero no exclusivamente humanas) a
las máquinas.
En muchas situaciones la antropomorfización no es un tema serio. Por
ejemplo, cuando un fanático de autos dice que su vehículo favorito tiene
"temperamento" o cuando los marinos (especialmente en países
angloparlantes), se refieren a su barco como "ella".
En estos casos, las personas le atribuyen una "personalidad" a objetos
inanimados como una forma de comunicar ciertos conceptos a otras
personas: las características técnicas de un vehículo, en el primer
caso, o el sentido de pertenencia a un grupo, en el segundo.
Sin embargo, bajo otras circunstancias, la antropomorfización puede ser problemática.
Tomemos como ejemplo los
Tamagotchi,
dispositivos que simulaban ser mascotas electrónicas, muy famosos a
fines de la década de los 90. Para mantenerlos "vivos" era necesario
"atenderlos" y "alimentarlos". Cuando un usuario no cumplía con sus
"responsabilidades", el Tamagotchi podía morirse.
Un aspecto no tan positivo fue el fuerte apego emocional que generó en algunos de sus usuarios. Mucha gente se
tomó demasiado en serio el "cuidado"
de estas mascotas, tratándolas de una forma más cercana a un bebé
humano y dejando de lado las responsabilidades reales del trabajo y el
colegio, entre otras.
Otro caso más reciente fueron las
novias virtuales que causaron algo de revuelo en Japón hace unos años atrás.
Algunos de los usuarios de este sistema incluso tuvieron problemas personales cuando la empresa que
las fabricaba,
cerró sus puertas y no pudieron seguir conversando con sus novias.
-- Pero estos casos son muy particulares, no todo el mundo se comporta de esa manera
De acuerdo, los casos anteriores involucran grupos poblacionales
específicos, ya sea niños que aún están aprendiendo y no distinguen
correctamente lo real de lo imaginario, o adultos con formas peculiares
de percibir el mundo.
Sin embargo, hay casos más sutiles que, sin involucrar
antropomorfización de manera tan explícita, requieren de atención
cuidadosa.
Hablemos del "Culto de la Singularidad".
En mis publicaciones más antiguas explico el concepto de
Singularidad,
aquella idea de que, si las máquinas y el software siguen mejorando a
un paso notable, el progreso llegará a un punto donde una inteligencia
artificial sería capaz de automejorarse exponencialmente. Con ello,
podría rápidamente superar las capacidades de los seres humanos y
aumentar significativamente el progreso tecnológico de la humanidad.
Si bien, en mis publicaciones la idea de la Singularidad la presento
meramente como un ejercicio mental, hay personas que se lo toman más en
serio.
Definiremos el "Culto de la Singularidad" como la creencia de que la
Singularidad es un hecho altamente probable (o incluso inevitable).
Consecuentemente, en un futuro relativamente cercano, el desarrollo
tecnológico derivado de la Singularidad traería una época de prosperidad
y mejoras significativas a la calidad de vida.
La palabra "culto" la uso en el contexto de que dichas creencias
rayan con lo religioso.
Algunas personas creen, por ejemplo, que gracias a la Singularidad, se
podría fácilmente transferir la mente de una persona a un computador y,
por consiguiente, lograr la vida eterna en el silicio en lugar del
carbono.
-- Eso suena familiar...
Por supuesto! No es sustancialmente distinto a las religiones que hablan
del Día del Juicio, el Apocalipsis, o el Retorno del Mesías.
A diferencia de una religión "normal", el "Culto de la Singularidad"
puede ser, conceptualmente, más atractivo para algunas personas, dado su
aire de verosimilitud. La creencia de una inminente singularidad deriva
de hechos observables: el progreso tecnológico, aparentemente más
vertiginoso cada día, reforzado por los últimos avances en IA.
-- Suena bonito, me gustaría estar presente cuando ocurra...
Es triste derrumbar expectativas, pero esta es una idea que no sobrevive un escrutinio profundo.
Es fácil caer en esa falacia si se tiene una fe ciega en el progreso tecnológico.
Es fácil asumir como cierto el que un evento futuro cercano mejore
significativamente el mundo, ya que es una idea reconfortante.
Es fácil creer en un futuro así, si uno solo se enfoca en las promesas de la IA y
no en su factibilidad técnica
Lamentablemente, las leyes de la física dicen algo distinto. La
Ley de Moore hace varios años que ya no es "tan exponencial" como solía ser.
La miniaturización de componentes electrónicos es cada vez más difícil,
ya que, siendo simplista, no se pueden hacer más pequeños que unos
pocos átomos. Los chips no se pueden compactar más allá de un cierto
límite, ya que las leyes de la termodinámica
hay que obedecerlas.
-- Es triste pero cierto... la Singularidad es muy improbable
Lo anterior no impide que algunas personas estén fuertemente convencidas
que la Singularidad va a ocurrir. Se transforma en un asunto más de fe
que de pensamiento crítico.
A nivel cotidiano, esto no es un problema serio. En términos prácticos,
no es significativamente diferente a cualquier religión convencional.
El problema es cuando personas con poder toman decisiones basadas en esta idea.
Si bien este "culto", en su forma literal, no es, aparentemente, una
creencia generalizada, una versión más diluida de este concepto puede
ser causa de preocupación.
En términos relativos, son pocas personas las que entienden el
funcionamiento interno de una IA o, en general, de los computadores. Las
que no,
tienden a atribuirle más capacidades de las que realmente tienen.
Llamaremos a esto la "personificación del verbo artificial".
Usaremos "personificación", como como una forma exagerada de
antropomorfización y "verbo artificial", como sinónimo de "Modelos
Grandes de Lenguaje (LLM)". En otras palabras, el "Efecto ELIZA" en su
máxima expresión, aplicado a los LLM o cualquier tecnología derivada de
éstos.
Tomemos como ejemplo, el caso de este episodio de un noticiario de USA.
Pongan atención a la reacción del periodista a la interacción con un LLM
desde el minuto
3:58.
Al principio parece estar convencido que el texto escrito por la máquina
es "humano", argumento que los ingenieros rápidamente le refutan.
-- Pero si suena tan real, ¿de verdad que no hay algo humano gestándose dentro de esa máquina?
No olvidemos el hecho de fondo. Los LLM no son más que un algoritmo que
repite y recombina textos escritos por humanos siguiendo reglas
probabilísticas.
Si a eso le llamamos humano... mucha filosofía se podría discutir al
respecto, pero prefiero centrarme en aspectos más pragmáticos.
El principal problema de esta "personificación", es que muchas personas
pueden decidir usar el "verbo artificial" como sustituto a los seres
humanos.
Sustitutos en tareas que, tradicionalmente, han sido exclusivas de las personas.
Este problema se exacerba cuando las personas a cargo de decisiones
importantes (en una empresa, en un país, etc.) sobreestiman las
capacidades de la la tecnología y creen ciegamente que ésta seguirá
mejorando exponencialmente.
Inevitablemente, estas personas tratarán de resolver todos sus problemas usando IA,
incluyendo aquellos para los cuales no son la solución más adecuada
Desde los chatbots de atención al cliente (muy deficientes al momento de escribir este post), hasta el uso de
IBM Watson para apoyar a los médicos, existen muchos casos donde la IA ha sido incapaz de satisfacer las expectativas, a menudo altas, de las personas.
En resumen, el "verbo artificial", si es usado sin un buen juicio, podría hacer que muchas personas
sean sustituidas por una tecnología que no entrega mejores resultados
Tomemos como ejemplo la idea de usar los LLM en educación.
Algunas empresas están adaptando ChatGPT para que actúen como tutores de
estudiantes online. Los resultados son, aparentemente, alentadores. Los
LLM pueden entregar información útil a los estudiantes para que mejoren
su aprendizaje.
Sin embargo, el problema de las "alucinaciones", un LLM inventando
información falsa al responder algunas preguntas, aún no ha sido
resuelto (Recuerden mi publicación anterior:
"La Máquina de las Respuestas aún no sabe cuándo callarse").
Si un sistema con este tipo de fallos se adoptara como principal
tecnología en la enseñanza, corremos el riesgo de entregar información
tergiversada a generaciones de estudiantes.
Así como ese, hay muchos otros ejemplos que, por razones de espacio, no mencionaré en esta publicación.
-- ¿Qué se puede hacer al respecto?
Si queremos hacer que la humanidad progrese adecuadamente, esta
tecnología hay que tratarla como tal, una herramienta más que podemos
usar en nuestro beneficio, un artefacto imperfecto