lunes, 7 de julio de 2025

La IA y los Centauros - Cómo la Máquina de las Respuestas puede apoyar a los humanos y no al revés

En mi publicación anterior argumenté que la IA, particularmente un LLM, aun no puede reemplazara a los humanos en el desarrollo de software. Un Informático utilizando una IA sigue realizando, esencialmente, las mismas tareas que un desarrollador de software de antaño.

No solo las mismas tareas, sino que sigue requiriendo, más o menos, las mismas habilidades y conocimientos para hacer bien su labor.

La principal diferencia es que parte del trabajo lo hace la IA.

La pregunta que surge es: ¿cómo utilizar una IA para sacarle el máximo provecho?

Para dar una buena respuesta es importante entender el concepto de Centauro.

No me refiero, literalmente, a la criatura mitológica, sino a la analogía entre ésta y el uso que le damos a la tecnología.

Cuando una persona juega ajedrez contra una máquina, es simplemente una competencia entre humano y tecnología. Desde hace décadas que las máquinas son mejores en el ajedrez.

Sin embargo, si un humano se apoya en una máquina, puede derrotar, no solo a otros humanos, sino también a otras máquinas.

En este contexto, Centauro es la combinación de la parte humana, el cerebro, con la parte equina, la tecnología. Un centauro tiene todas las ventajas de un humano y un caballo, por lo tanto puede derrotar a ambos de manera aislada.

Cuando un ajedrecista se apoya en la IA para proyectar escenarios, explorar jugadas y usa su experiencia y capacidades para decidir qué hacer, éste se comporta como un Centauro.

Esta analogía va más allá de la simple combinación humano-tecnología. Un precepto clave es que la parte humana controla a la parte equina del Centauro, no al revés.

La antítesis de este concepto es el Centauro Invertido, cuando la parte equina controla a la parte humana.

Cuando un ajedrecista no se dedica a perfeccionar sus habilidades y conocimientos y depende totalmente de la IA para escoger las jugadas, se está comportando como un Centauro Invertido.

Mientras un Centauro tiene una clara ventaja sobre humanos o máquinas aislados, el Centauro Invertido no es sustancialmente diferente que una simple máquina. Por lo tanto un auténtico Centauro podrá siempre llegar más lejos.

  • Y qué tienen que ver los Centauros con el desarrollo de software?

La respuesta es muy directa. Un Informático de antaño solo tenía su cerebro para desarrollar software. En la actualidad, además, tiene un sinnúmero de herramientas, la parte equina, que lo apoyan.

Los LLM son una parte equina muy potente

Sin embargo, si el Informático no perfecciona sus habilidades y conocimientos, y depende totalmente de su parte equina, no será mejor que las herramientas que usa.

Todo claro hasta este punto, salvo un detalle:

La idea de un centauro parte del supuesto que la parte humana y equina están permanentemente unidas.

En la práctica eso no es así. No importa cuánto se hable de que humanos y tecnología son inseparables, lo cierto es que, para que una persona pueda desarrollar al máximo sus habilidades y conocimientos, en algunos momentos debe hacerlo de manera autónoma, sin depender de artilugios sofisticados, sino usando solo su cerebro.

Es como decirle un atleta que, para entrenar en 100m planos, lo haga montando una motocicleta. Evidentemente andará más rápido, pero no fortalecerá su cuerpo adecuadamente para ganar la competencia.

Las habilidades cognitivas no son muy diferentes.

Es mejor aprender primero aritmética antes de usar una calculadora.

Es mejor programar primero seudocódigo en papel antes de sentarse a escribir código en un computador.

Es mejor aprender primero a pensar antes de delegar parte de nuestras tareas cognitivas a una máquina.

La analogía del centauro se queda corta, porque asume que humano y equino son inseparables.

Una mejor analogía es de un humano completo montado en un caballo. Juntos son más capaces que sus partes por separado, pero da lugar a que el humano pueda bajarse del caballo y entrenar por su cuenta.

En conclusión, las máquinas son simples herramientas. Nosotros debemos decidir cuándo las usamos y cuándo no.

Si dejamos que las máquinas hagan el trabajo por nosotros.

Si dejamos que tomen las decisiones por nosotros.

Si dejamos que piensen por nosotros.

Nada impedirá que en el futuro nos reemplacen, no por máquinas a secas, sino por humanos que usen bien las máquinas.

lunes, 16 de junio de 2025

La IA y la Informática: Puede la Máquina de las Respuestas desarrollar software?

Uno de los temas más promovidos por los Sacerdotes del Culto del Cargo, los gerentes de las empresas de tecnología, es la aplicación de IA a la Informática. Más específicamente, utilizar un Modelo Grande de Lenguaje (LLM) para programar computadores.

No es de extrañarse, considerando que los LLM fueron creados por personas de esta área.

Como un Uroboro, muchos predican que la IA reemplazará a los Informáticos, y dejará sin trabajo a muchos en esta área, de manera similar a otras disciplinas.

  • ¡Por supuesto!, el futuro está en el Vibe Coding! una persona con escaso o nulo conocimiento de programación, puede crear programas dándole instrucciones a un LLM!

Vibe coding, la nueva tendencia. Aprovechar al máximo las capacidades de la IA para reemplazar las neuronas de los programadores. Delegar las tareas tediosas y complejas del desarrollo de software a un LLM. Programar computadores dejándose llevar por lo que nos entrega ChatGPT o similares, de manera similar a surfear una ola en la playa.

  • ¿Reemplazará la IA a los programadores?

La situación no es tan diferente a otras disciplinas. Dado que este es un tema donde tengo mucha experiencia, puedo entregar información de primera mano para despejar dudas.

Lo primero y más importante es hacerse una pregunta muy similar a la formulada en mi artículo anterior:

  • En qué actividades de la programación de computadores, los LLM pueden reemplazar a los humanos de manera adecuada?

Por adecuada, me refiero a que el resultado entregado por un LLM sea tal que requiera un esfuerzo mínimo en controlar su calidad.

En otras palabras, que uno pueda confiar en la IA de manera similar a un humano experto en el tema.

Para responder a esto tenemos que entender qué es exactamente, programar.

En esencia, programar es concebir una secuencia lógica de pasos para resolver un problema de manejo de información y explicarlos de manera no ambigua a un computador.

Una persona que programa tiene que:

  1. Entender y conceptualizar, de manera completa, la cadena de razonamiento que resuelve el problema. Esto a menudo es algo complejo.

  2. Especificar lo anterior usando un lenguaje de programación. Éste, a diferencia de un lenguaje natural hablado por personas, es más conciso, no ambiguo y requiere un entrenamiento no trivial para usarlo de manera fluida.

Muchos ven un LLM como una alternativa atractiva para programar computadores. Si uno puede darle instrucciones sencillas a un computador usando lenguaje natural y el computador genera un software funcional, ¿para qué aprender a programar de la manera "tradicional"?

Las aparentes capacidades de los LLM en estas tareas, insinúan una revolución que cambiaría la Informática. Sin embargo, la gente cae a menudo en la falacia que para programar solo basta con aprender el lenguaje.

Lo cierto es que, lo más importante es la concepción de la solución, previa a su especificación: El diseño.

Al día de hoy, los LLM todavía son muy limitados para diseñar soluciones informáticas (el ítem 1 mencionado más arriba).

  • Pero, si es así, cómo lo hace un LLM para llegar a un resultado similar al de una persona experta?

A diferencia de un humano, un LLM opera de un modo drásticamente diferente. Recordemos que para crear un LLM hay que entrenarlo con múltiples textos de diferentes fuentes. El LLM no "aprende" de ellos como lo hacen las personas, sino simplemente registra las probabilidades de ocurrencia de cada palabra en diferentes posiciones de cada texto.

Al responder, un LLM no "piensa" realmente, sino genera estocásticamente el texto más probable que acompañe al prompt escrito por la persona. Si usamos lenguaje natural para decirle a un LLM: "Un elefante se balanceaba", este respondería: "sobre la tela de una araña". Esa sería su respuesta, ya que, de acuerdo a los múltiples textos con los que fue entrenado, esas palabras van a menudo juntas.

Cuando se trata de programación, la situación no es diferente.

En adición a textos en lenguaje natural, los LLM han sido entrenados con un sinnúmero de códigos fuente escritos por personas. Con esa información, el LLM es capaz de generar un programa de forma similar a como construiría una frase en lenguaje natural.

En un lenguaje de programación, luego del prompt: "Escribe un programa en Python que imprima Hola mundo", el LLM respondería con el texto print("Hola mundo"). Esto es gracias a que hay muchísimos programas en internet que hacen algo similar, acompañados de un texto explicativo. El LLM los tiene registrados en su sistema y contribuyen probabilísticamente a sus respuestas.

En resumen, un LLM no programa como una persona, sino simplemente ha "aprendido" a "adivinar" qué secuencias de palabras de un lenguaje de programación son las más probables que acompañen a una pregunta de desarrollo de software.

No hay razonamiento de por medio, solo especulación probabilística.

En la práctica, si bien un LLM podría generar una solución al problema, también puede, con una probabilidad no negligible, entregar resultados erróneos, tanto conceptuales como gramaticales, por el simple hecho que no está razonando sobre el problema ni su solución.

  • Pero si a cada rato se ven videos donde un LLM resuelve rápidamente un problema que a un programador le puede tomar días...

Este tipo de contenido hay que analizarlo con cautela. Un escrutinio un poco más profundo revela que la mayoría de este tipo de publicaciones, se centra en problemas con las siguientes características:

  1. Son problemas relativamente simples

  2. Son problemas cuya solución ha sido publicada en múltiples ocasiones en Internet

  3. Utilizan lenguajes de programación y librerías populares

La primera característica deriva de las limitaciones actuales en la información de contexto que los LLM pueden utilizar. La "memoria de trabajo" relativamente pequeña de los LLM hace que no puedan crear, todavía, soluciones relativamente complejas.

La segunda y tercera obedecen a la naturaleza intrínseca de los LLM como un modelo estadístico de una base de conocimientos. Dado que un LLM es entrenado con el código de muchas soluciones encontradas en Internet, es de esperarse que pueda resolver de mejor forma, problemas que se asemejen a los que haya "aprendido".

Consecuentemente, estos modelos no funcionan bien cuando el problema:

  1. Es complejo, tiene muchos elementos no triviales interconectados entre sí

  2. Difiere ligeramente de problemas existentes


  • Entonces los LLM son inútiles. Si es así, por qué tienen tanta publicidad?

No voy a discutir las implicaciones éticas en torno al marketing de productos o servicios.

Lo cierto es que los LLM tienen el potencial de facilitar la programación de computadores, pero aún tienen problemas muy importantes que restringen lo adecuado de sus respuestas.

Por sobre todo, las limitaciones mencionadas anteriormente son más evidentes mientras más generales sean las instrucciones dadas al LLM.

Esto quiere decir que la aplicabilidad de los LLM a la programación se ve fuertemente afectada por la calidad del prompt utilizado.

Un LLM funciona bastante bien traduciendo texto de un lenguaje a otro. Esto aplica tanto para lenguajes naturales como para lenguajes de programación.

Un LLM, usado correctamente, es razonablemente bueno para convertir una especificación en lenguaje natural, a su equivalente en un lenguaje de programación.

Mientras más preciso y detallado sea el prompt, mejores serán los resultados. Mientras más general y ambiguo, es más probable que un LLM entregue resultados de baja calidad.

En la práctica, para sacarle provecho a un LLM en programación, hay que concebir una secuencia lógica de pasos para resolver un problema de manejo de información y explicarlos de manera no ambigua a al LLM.

  • Un momento! Esa frase es la misma que se mencionó al inicio del artículo! No es aquella que explica lo que hace un programador?

Precisamente :)

jueves, 5 de junio de 2025

La IA y la automatización del trabajo. ¿Puede la Máquina de las Respuestas reemplazar a los humanos?

Cuando niño, en mi casa había una enciclopedia de los años 50s. No tenía la definición de "Computador", sino de "Computista": una persona que realiza cálculos.


En aquella época las neuronas humanas hacían todo el trabajo.

Cuando se masificaron los computadores personales en los 70s y 80s, la mayoría de la computación pasó a ser realizada por máquinas. Los computistas de carne y hueso dieron paso a los computadores de hardware.

Muchos oficinistas que hacían tareas repetitivas tuvieron que adaptarse. Una persona con un computador podía reemplazar a grupos de personas que hacían las cosas manualmente. Muchos perdieron sus empleos.

A pesar de ello, en el largo plazo, la cantidad de empleos se recuperó. Para soportar la creciente demanda de computación, se requirieron nuevos puestos de trabajo, tanto para personas que usaban computadores, como para quienes construían el software que los hacía funcionar. Cada nuevo invento en el área no hizo más que aumentar la demanda de capital humano.

Esa tendencia se ha mantenido hasta la actualidad.

La historia muestra que, cada vez que se intenta sustituir el cerebro humano con máquinas, la sociedad termina requiriendo aún más especialistas que antes.

Hasta ahora los computadores han asumido tareas repetitivas y estructuradas: cálculos contables, diseño y escritura de documentos (procesadores de texto), simulaciones, etc. Sin embargo, muchos están preocupados por los recientes avances de las IA Generativas, las cuales aparentan ser capaces de crear productos intelectuales similares a los de los humanos.

En otras palabras tareas no repetitivas y no estructuradas que, históricamente, solo los humanos han podido hacer

  • ¿Producirán estas tecnologías una disminución irreversible en los empleos?

Depende...

...de la respuesta a la siguiente pregunta:

  • En qué áreas la IA hace un mejor trabajo que una persona?

Creería que las siguientes son las más conocidas;

  1. Resumir y clasificar texto. En mi experiencia estas tareas las hace relativamente bien. Probablemente por el hecho que las IA basadas en LLM fueron inicialmente construidas para esos propósitos. Otras aplicaciones nacieron como comportamientos emergentes. Sin embargo, todavía tienen limitaciones, especialmente con alucinaciones

  2. Traducir texto a otros idiomas. Esta tecnología ya funcionaba de manera bastante adecuada antes de que se popularizaran los LLM. Con la ayuda de LLM, parecen generar buenos resultados, pero aún tienen limitaciones para textos complejos

  3. Redacción de texto. En mi experiencia, desde el punto de vista gramatical, las IA tienden a ser significativamente más efectivas que un humano promedio para generar textos "bien escritos". Sin embargo, la calidad del contenido del texto puede depender mucho de las instrucciones que reciba.

  4. Emular a un humano en una conversación. Alguien dijo alguna vez que, para pasar el Test de Turing hay dos opciones: hacer una máquina tan inteligente que ningún humano pueda detectarla, o ponerla a jugar contra un humano tan estúpido que cualquier máquina pueda ganarle. Todavía nos encontramos en el en el segundo escenario. Si bien hay indicios de que podríamos estar transicionando hacia el primero, creo que es muy pronto para entusiasmarse.

  5. Responder preguntas especializadas. Mucha gente utiliza un LLM como una Máquina de las Respuestas. Sin embargo, un LLM no es una base de conocimientos, sino un modelo estadístico de una base de conocimientos. En otras palabras, un LLM tiene una probabilidad (no negligible) de entregar datos falsos (alucinaciones).

  6. Programación de computadores. En teoría, un LLM puede utilizarse como un lenguaje de programación de muy alto nivel (lenguaje natural). La premisa más extrema es que un LLM puede generar software sin necesidad de una persona especialista. Vibe Coding es el nuevo "paradigma" donde una persona sin conocimientos de programación, construye software con la ayuda de un LLM. En mi experiencia, la calidad de ese código deja mucho que desear.

  7. Generar contenido audiovisual. Todos somos testigos de la cantidad de imágenes y videos generados por IA que se ve en las redes. A veces no nos damos cuenta que es generado por IA, lo cual habla bien (o mal?) del estado de estas tecnologías.


  • ¿En cuáles de estas áreas podría una IA sustituir adecuadamente a un humano?

Recalco la palabra adecuadamente. No olvidemos que los vendedores de IA, los Sacerdotes del Culto del Cargo, en su ánimo proselitista, siempre abogarán por el uso de la IA en cuánta área sea posible, ya que eso aumenta las ventas y valoriza las acciones de sus empresas.

Revisemos cada una de las áreas anteriores.

  1. Resumen de texto, traducción, redacción de texto. Profesiones como Escritura Técnica, Periodismo o Traductor de idiomas, pueden verse afectadas por la IA, ya que tareas importantes que realizan pueden ser automatizadas y podrían llevar a ciertas empresas a prescindir de la contraparte humana. Sin embargo, cuando la calidad del resultado es importante, es necesario que un humano depure los resultados entregados por la máquina.

  2. Emular a un humano en una conversación. Los sistemas automatizados de atención al cliente ya eran comunes antes de los LLM. La masificación de las IA para este propósito ha tenido resultados poco alentadores. En buena medida, la sustitución de humanos por máquinas dependerá del objetivo que tenga la Atención al Cliente para cada empresa. Si solo se necesita como un mecanismo para distraer al cliente y no atender a sus necesidades, una IA es una opción que, una vez supere algunas limitaciones, podría lograr ese propósito. Si lo que se quiere es realmente atender las necesidades del cliente, aún es necesario tener un humano de por medio.

    Otra área relacionada donde tiene mucho potencial es para distraer a los estafadores telefonicos. En este caso la IA no tiene que ser perfecta, sino solo simular a un humano medianamente creíble para hacerles perder tiempo y dinero a los estafadores.

  3. Responder a preguntas especializadas. Las IA se usan cada vez más frecuentemente como una alternativa a las búsquedas clásicas en la red, ya que proveen una interfaz más amigable y pueden resumir múltiples fuentes en una respuesta que es (con cierta frecuencia) coherente. Esto último ha sido históricamente monopolizado por humanos. Como siempre, el problema más grande son las alucinaciones, con lo cual se requiere un humano especialista que verifique la calidad de los resultados.

    Un área afín es educación. En teoría, un LLM puede servir de tutor si se le dan las instrucciones adecuadas. En ese caso se afectan dos cosas: la certeza de la información entregada y el factor humano. Gracias a esto último, la educación presencial todavía tiene valor para muchas personas por sobre la educación a distancia u otras estrategias similares.

  4. Programación. En esta área tengo experiencia de primera mano. Varias veces he probado en profundidad las capacidades de los LLM para crear código fuente. Los resultados, en mi opinión, son bastante pobres todavía. Si bien puede generar rápidamente cosas comunes y simples, tiene serias limitaciones cuando los requisitos a implementar aumentan de complejidad, requieren soluciones poco comunes o usan lenguajes poco populares o que cambian mucho en el tiempo. En mis pruebas, los LLM a menudo generan código con errores o que son difíciles de entender (porque siguen malas prácticas). Donde tienden a funcionar mejor es para generar código repetitivo, por ejemplo, archivos de configuración o boilerplate. En resumen, no pueden, por si solas reemplazar a un humano, pero si pueden potenciar a un desarrollador con suficiente experiencia.

  5. Generación de contenido audiovisual. En esta área tengo serias preocupaciones. Esto es porque percibo que la mayoría del mercado para contenido audiovisual no requiere material de buena calidad. Esto es un caldo de cultivo ideal para la generación de bazofia (en inglés slop), contenidos destinados a las masas que no les preocupa lo bueno o malo que es.

En resumen, todas las disciplinas que, potencialmente, pueden verse afectadas por la IA comparten lo siguiente:

  • Tareas tradicionalmente humanas pueden realizarse más rápido bajo ciertas condiciones

  • La calidad del resultado tiene una variabilidad que requiere supervisión de un humano competente

  • Si la calidad no es importante, el humano puede ser removido de la ecuación

Al final la pregunta puede acotarse a:

  • ¿Qué porcentaje de las empresas están dispuestas a ahorrar dinero reemplazando humanos por IA, sin importar el detrimento en calidad?

Esa pregunta aún no puede responderse del todo. Está por verse si, aquellas empresas que intentan reemplazar personas por IA sobrevivan en el tiempo o si necesitarán recontratar los puestos humanos removidos para recuperar su competitividad.

Por sobre todo, aún si la IA reemplaza humanos, es muy probable que, lo haga sobre aquellos con poca especialización. En el largo plazo, podría no afectar significativamente la cantidad de puestos de trabajo ni los salarios promedio, ya que nuevas necesidades derivadas del uso de IA requerirán nuevos puestos para los humanos.

No importa lo que digan los Sacerdotes del Culto del Cargo, la Máquina de las Respuestas no es nada más que eso, una máquina, una herramienta que formará parte del abanico de opciones que tenemos los humanos para hacer nuestro trabajo más expedito, con todo lo que ello implica.

En otras palabras, creo que la IA seguirá el destino de las hojas de cálculo, que reemplazaron a los "computistas", pero no a los contadores.


lunes, 10 de marzo de 2025

Arte Artificial, Contenidos y valor intrínseco: Es la Máquina de las Respuestas capaz de crear?

El primer post que hice sobre IA y los LLM comenzaba con una cita, atribuida a Pablo Picasso: "Los ordenadores son inútiles, solo pueden darte respuestas"

De ahí nació la idea de llamar, a un computador y, más específicamente a uno potenciado por IA, la "Máquina de las Respuestas".

Un aspecto importante de la Máquina de las Respuestas, es la creación de "arte" a través de IA Generativa. Ya sea en forma de imágenes, audio o multimedia en general, los últimos avances en IA están dando bastante que hablar.

Desde un gatito preparando hamburguesas, hasta una imagen que ganó un concurso de arte , lo cierto es que ha sido un tema controversial y veo difícil un consenso en el corto plazo.

--Pero las imágenes, videos, música, son "arte" sin importar quién o qué las produzca? no?--

Un punto de discusión es si realmente lo que generan las máquinas podría considerarse "arte". No intentaré dar una definición exhaustiva de esta palabra, ya que permite muchísimas interpretaciones.

Sin embargo, la raíz del asunto está en la concepción del proceso de creación artística. Si lo vemos como una caja negra con entradas y salidas, creo que muchos concuerdan que el crear arte es algo más cercano a la transmisión de mensajes entre personas.

  • El arte es creado por humanos. Los humanos usan herramientas y sus propias manos para dar forma a algo que se le llama "arte".

  • El arte es creado para humanos. Los humanos lo perciben, interpretan, le dan un significado y un valor intrínseco subjetivo (independientemente de si esa fue la intención del artista o no).

Esta definición explicaría la controversia.

Bajo esa definición, lo que genera la IA no seria arte, sino solo "contenidos", multimedia que, de acuerdo a muchos, no tendría "alma", ya que ha sido creada por máquinas y no cumple el propósito de comunicar a un emisor y un receptor humanos

--Y si hay un humano diciéndole a la IA lo que debe hacer?--

Ciertamente, algunos piensan que escribir un prompt con las instrucciones que la máquina traducirá a un contenido multimedia, también es creación artística.

Sin embargo, si uno lo compara con procesos reales, esa interacción se asemeja más a la de un mecenas pidiéndole a su artista de cabecera que le haga una obra por encargo. El mecenas puede tener una idea básica de lo que quiere y comunicársela al artista, pero a final de cuentas es este último el que crea, no el mecenas.

Detrás del trabajo tangible de un artista está la intencionalidad constante de sus acciones en torno al proceso creativo. Cada pincelada en una pintura, cada golpe de martillo en una escultura, son, en su mayoría, una acción deliberada del artista para armar su creación.

Ciertamente hay un area gris. Suponiendo que una persona invierta una gran cantidad de tiempo con una IA generativa para lograr un resultado "artístico", esto podría ser indicio de intencionalidad y por consiguiente, de creación artística.

Sin embargo, el mayor argumento en contra de esto es la naturaleza estocástica, aleatoria, de lo que una IA genera a partir de un prompt. Es difícil lograr intencionalidad cuando no se saben a ciencia cierta, los efectos de las acciones.

--A no ser que la intencionalidad del artista sea lidiar con procesos aleatorios e impredecibles para generar sus resultados...--


Otro aspecto a tener en cuenta es la forma en que la IA genera los productos. Los últimos avances en IA Generativa derivan del uso de innumerables datos de entrenamiento, en forma de imágenes, videos y sonidos, creados por humanos.

La Máquina de las Respuestas "aprende" de dichos datos y los usa para generar algo que se asemeja.

Algunos argumentan que esa regurgitación y rehash del material hecho por humanos, no es creación artística y que los dueños de las IA estarían aprovechándose de las ideas de quienes crearon el material original.

Otros dicen que eso no es muy distinto a como un humano crea arte: tomando ideas de los demás. “Los grandes artistas copian, los genios roban”, es algo que dijo, presuntamente, Picasso también.

Sin embargo los mecanismos intrínsecos para llegar al resultado son esencialmente diferentes.

En este video la presentadora argumenta que las formas de medir desempeño representativas para los humanos no son aplicables a las IA, debido a la diferencia intrínseca del proceso que humanos y máquinas usan para llegar al mismo resultado.

Se puede argumentar algo similar para la creación artística. Un humano crea arte siguiendo ciertos procesos físicos y mentales, motivación y subjetividad. El proceso usado por una IA generativa para generar una imagen, video o audio, es inherentemente diferente.

¿Podemos llamar arte a lo que construye una máquina, siguiendo un proceso radicalmente diferente al de un humano?

--Información insuficiente para llegar a una respuesta significativa--


Un tercer elemento de controversia es el valor intrínseco de una obra, sea artística o simple contenido.

Ciertos aspectos de una obra si pueden ser cuantificados, aunque también basados en subjetividad: el valor monetario.

Como cualquier cosa que se pueda vender y comprar, el precio depende de su cadena del valor y la percepción subjetiva de los participantes de la transacción.

Hablando de la cadena del valor, tradicionalmente, el artista humano es un componente importante y crucial en la determinación del precio.

Todos conocemos artistas famosos, Michelangelo, Da Vinci y muchos otros. Artistas que, por ser históricamente famosos, su obras tienen un valor monetario enorme.

De manera no exactamente igual, otros artistas modernos son famosos, más por el patrocinio de casas de subastas que por un reconocimiento histórico masivo.

En cualquier caso, cuando hay una IA de por medio, esta parte de la cadena del valor se sustituye por una máquina, lo cual reduciría su valor.

--O no?--

Hace unos días, una casa de subastas famosa, Christie's, vendió una serie de obras hechas por IA por bastante dinero. Esto hace pensar que, en la cadena de valor de obras artísticas, el humano sería un componente prescindible y sustituible.

Evidentemente, la IA traerá consigo problemas serios para artistas de todo calibre.

Quizás la solución simplista sea hacer la distinción entre Arte Humano y Arte Artificial. Que las personas (y las máquinas (?)) determinen su valor.

A todas luces, el arte sigue y seguirá siendo un tema subjetivo y controversial. Especialmente con la popularización de la IA.

La Máquina de las Respuestas, cuando se trata de artes y contenidos, genera mas preguntas que soluciones

sábado, 24 de agosto de 2024

El Culto del Cargo y sus sacerdotes: Como no dejarse meter el dedo en la boca en la sociedad de la desinformación


Comencemos con una historia interesante.

Década de los 40s. El mundo estaba en plena Segunda Guerra Mundial. Los aliados habían establecido una base de operaciones en una isla de la Melanesia, una zona estratégica en el Océano Pacífico.

Los nativos de la isla, en esa época, no tenían acceso a la tecnología moderna. Vieron como los soldados llegaron en barcos y aviones, construyeron edificios y utilizaron extraños aparatos para recibir información y comunicarse con el exterior. Al cabo de unos días recibían el "cargo", cajas llenas de cosas útiles: ropa, comida en conserva, vehículos, etc.

En medio de su ignorancia, desarrollaron una mística muy peculiar, derivada de un razonamiento que podría describirse de la siguiente forma:

  • Los visitantes tienen una serie artefactos mágicos, que desafían nuestro conocimiento. Sabes cómo los visitantes los fabricaron?
  • Ellos son humanos igual que nosotros. No es posible que ellos los hayan fabricado. Debe haber una explicación de fondo.
  • Y cómo, entonces, los obtuvieron?
  • Los visitantes realizan una serie de rituales: Marchan por la isla con unos palos apoyados en el hombro y unas banderas. Se sientan frente a unas cajas, se ponen algo en los oidos y le hablan a la caja. Construyeron un camino muy largo por donde aterrizan las aves de metal que traen los artefactos
  • Evidentemente, quienes realizan esos rituales son favorecidos por los dioses. Lo hemos visto en el caso de los visitantes. Si nosotros hacemos lo mismo que ellos, los dioses también nos enviarán sus regalos.


Es así como los indígenas imitaron, a su manera, todo lo que hacían las tropas. Armaron cajas y audífonos de madera, para simular las radios, crearon "pistas de aterrizaje" para las aves de metal y fabricaron rifles de palo y desfilaron por la isla, tratando de obtener el favor de los dioses.

Todos imaginamos como terminó la historia. Las aves de metal nunca aterrizaron con su cargamento de artefactos mágicos. Este suceso, junto con otros similares en décadas anteriores, pasó a la historia como una forma de Culto del Cargo, la creencia religiosa que, explicada de forma simplista, se centra en lograr que los dioses nos traigan artilugios de divina manufactura.

En esencia, el Culto del Cargo nace de un análisis racional, pero basado en un conocimiento incompleto del mundo. Los indígenas nunca habían visto una fábrica, no sabían que los humanos eran capaces de crear todos los aparatos que trajeron los visitantes. Asumían que otras civilizaciones tenían un desarrollo tecnológico similar al de ellos. Por lo tanto, los artefactos que ellos traían tenían que ser, necesariamente, de origen divino.

¿Que importancia tiene esto, para el tema de hoy?

En la época moderna, a pesar del acceso a la información, el Culto del Cargo se sigue manifestando de maneras más sutiles, especialmente en el área de las tecnologías.

A menudo, cuando una empresa crea o adopta un nuevo artefacto, paradigma, modelo, etc. que les resulta exitoso para su negocio, lo primero que hace es publicitarlo. El foco, evidentemente, es marketing: mostrar que aquel artilugio es un factor importante de su éxito.

En medio de su ignorancia, otras empresas desarrollan una mística muy peculiar, derivada de un razonamiento que puede describirse de la siguiente forma:

  • La empresa "E" está siendo muy exitosa. Nosotros queremos ser exitosos también. ¿Cómo lo hizo la empresa "E" para lograrlo?
  • Ellos tienen personas con capacidades similares a las nuestras. Es evidente que eso no es suficiente y hay una razón de fondo detrás de su éxito.
  • Entonces, ¿Qué hicieron para ser exitosos?
  • Hace poco hicieron una presentación de una tecnología "T" que les ha funcionado de maravilla.
  • Es evidente que quienes la usan van a ser exitosos. Lo hemos visto en el caso de la empresa "E". Si nosotros hacemos lo mismo que ellos, tendremos éxito.


Suena familiar?

Haga el ejercicio de reemplazar "T" por los siguientes conceptos y "E" por alguna empresa que los haya adoptado:

  • Scrum / Metodologías ágiles
  • Web 4.0, 5.0 o 6.0
  • Blockchain / NFT
  • Microservicios
  • Inteligencia Artificial
¿Por qué sucede esto?

Los tomadores de decisiones en las organizaciones tienen más cosas en común con los indígenas de la Melanesia de lo que quisieran reconocer. Cada vez que aparece una nueva tendencia, todos intentan adoptarla, sin conocer cómo funciona ni, por sobre todo, saber si es o no útil, o factible, dentro de su propia realidad.

Hay una similitud incómoda con el Culto del Cargo, agravada por el hecho que, a diferencia de los indígenas, nuestro acceso a la información es ubicuo y muy fácil.

La ignorancia no es una excusa.

Sin profundizar más allá en el Culto per se, lo que quisiera es enfocarme en sus mecanismos de adopción y propagación.

En la historia original del Culto del Cargo, su adopción fue muy natural. Los artilugios traídos por los visitantes hablaban por sí mismos: aparatos que volaban, tarros que tenían comida en su interior, casas prefabricadas.

A los indígenas no les cabía la menor duda sobre la utilidad de dichos artefactos.

Esto no es tan evidente en el Culto del Cargo moderno. Para lograr seguidores, a menudo se necesita comunicar a las masas los presuntos beneficios del "cargo" que esté de moda.

Y quién se encarga de predicar los preceptos de una religión?

Evidentemente, los "sacerdotes".

Desde los evangelistas del agilismo a los gerentes de empresas de IA, todos predican las bondades de sus rituales en torno al "cargo". Pero hay una diferencia esencial con el Culto del Cargo original. El resultado de su proselitismo no es que los creyentes fabriquen sus propias radios y rifles de palo como los indígenas de Melanesia, sino que los compren directamente de la empresa evangelizadora.

O les paguen una consultoría para realizar los rituales requeridos.

Tomemos el caso de los LLM y la IA en general.

Desde su popularización, las empresas que los desarrollan no hacen más que mostrar sus supuestas bondades, cómo transformarán el mundo y la necesidad imperativa de utilizarlos para lograr el éxito. Sin embargo, no proveen suficiente evidencia concreta que sustente sus predicamentos.

El "cargo", en este contexto, se transforma en un ideal de éxito y, los "rituales" que venden estas empresas, no son nada más que sombras de que, presuntamente, nos señalan cómo alcanzar esa idea abstracta, al estilo de una Caverna Platónica.

Afortunadamente, al igual que con los indígenas de la Melanesia, con el tiempo y la evidencia llega el desengaño y la conclusión de que dichos rituales no siempre sirven para obtener el "cargo".

Aquí surge un nuevo paralelo con historias pasadas.

Los Milleritas fueron una secta que creía que el fin del mundo ocurriría el 22 de octubre de 1844. Evidentemente, cuando llegó ese día y nada sucedió, sus seguidores quedaron profundamente decepcionados.

Los LLM, en particular, todavía tienen algunas deficiencias importantes que hacen dudar de su impacto futuro. Sin imponer una fecha de caducidad específica, tienen el potencial de una Gran Decepción similar a la de los Milleritas.

Las que considero más importantes son: 
  • Las alucinaciones que, en mi experiencia, todavía son un problema no resuelto.

  • El consumo de energía no trivial que se requiere en ciertas etapas del ciclo de vida de los LLM y que podrían hacer infactible su crecimiento sostenido.
  • La cantidad finita de datos disponibles para entrenar estos modelos. Al igual que la energía, este límite podría crear una asíntota en las capacidades máximas de un LLM.
Es razonable asumior que los "sacerdotes" son conscientes de lo anterior y preveen una potencial desilusión futura. Para contrarrestar, intentan mantener la atención de sus feligreses, ya sea prometiendo un "cargo" aún más sublime o predicando el fin del mundo como lo conocemos.

En el caso de la IA, OpenAI habla de la llegada inexorable de una Inteligencia Artificial General (AGI). En mi opinión, eso suena como si fuera la segunda llegada del Mesías. También menciona cómo los LLM afectarán un alto porcentaje de los trabajos actuales en las empresas. A lo anterior no ayuda el que la prensa amplifique de manera sensacional dichas historias.

Dichas fábulas no son creíbles por siempre. Tal como los Milleritas, los cultos que predicen el apocalipsis caen en desgracia, una vez sus seguidores notan que aquello no va a ocurrir.

Las tecnologías como los LLM no pueden mantener su impulso por siempre. Tarde o temprano una empresa necesita mostrar un retorno a la inversión y, si las cifras son rojas, hasta el más crédulo de los gerentes lo pensará dos veces antes de continuar con los mismos rituales. En mi opinión, que asumo muchas otras personas comparten, buena parte de las ganancias asociadas a IA vienen de la expectativa sobre cómo cambiará el futuro, no por las ganancias actuales que, aparentemente, aun no produce en suficiente cuantía.

Si estoy en lo correcto, tarde o temprano los seguidores a este culto se decepcionarán y lo abandonarán en masa. Los Cultos del Cargo modernos tarde o temprano seguirán la suerte de los Milleritas.

Por supuesto, existe la posibilidad que esté equivocado, por no tener acceso a la información propietaria que solo los "sacerdotes" manejan.

Puede que una nueva tecnología revolucionaria vea la luz pronto y resuelva mis principales reparos sobre los LLM.

Puede que esto haga que el próximo Mesías... ¡perdón! la próxima Inteligencia Artificial General, arribe tarde o temprano.

Puede que el mundo tal cómo lo conocemos, y nuestros empleos, se acaben.

Por ahora, sin haber suficiente evidencia, solo hay dos alternativas:

Tener fe o ver para creer.

lunes, 1 de abril de 2024

La sociedad de la imaginación y la Biblioteca de Babel

Hace 10 años, se publicó un documental sobre Pirate Bay, un sitio de distribución de material pirata y de un juicio que hicieron en contra de sus creadores.

Más allá del contenido específico del documental, lo que recuerdo especialmente es esta escena, cuando a Peter Sunde, uno de los creadores del sitio, le preguntan:

- Cuándo fue la primera vez que se reunieron IRL [In Real Life]

Y el responde lo siguiente:
- No usamos la expresión IRL. Usamos la expresión "Away From Keyboard" [AFK]. Creemos que Internet es real .

Recuerdo que dicha respuesta me dejó pensando bastante, ya que, hasta ese momento, mi perspectiva se alineaba más con la del entrevistador:

  • Mundo real (IRL): Cuando uno se ve cara a cara con otra persona, el mundo análogo.
  • Mundo imaginario: Internet y cualquier tipo de interacción digital.

Me atrevería a decir que la mayoría de las personas pensaban de manera similar. Después de todo, las redes sociales aún no eran tan ubicuas ni se usaban tan frecuentemente como en la actualidad.

Desde mis primeras incursiones en Internet en 1994, siempre percibí Internet como un mundo separado del día a día: una biblioteca donde encontrar información, un lugar para descargar programas y juegos, etc. Si bien solía interactuar con otras personas, lo hacía mayoritariamente de manera asíncrona o impersonal. Las formas más comunes eran a través de email, chat en modo texto (Internet Relay Chat (IRC)), o juegos multiusuario "masivos" (para la época): MUD y MOO. En esas plataformas era común usar una suerte de "alter-ego" en lugar del nombre y personalidad reales.

Esta idea de Internet como un mundo separado, se reforzaba aún más por el hecho que relativamente pocas personas tenían acceso a ella. Solo unos pocos nerds estábamos siempre conectados.

Dentro de las personas que no, habían algunas particularmente radicales en su negación a aceptar, siquiera, que Internet era un "mundo" donde habían otros seres humanos. Recuerdo, en el año 2000, a un conocido que me comentaba, visiblemente irritado, cómo falló una entrevista de trabajo, porque el principal entrevistador se conectó por videoconferencia. Todas sus habilidades interpersonales fallaron para interactuar con lo que él consideraba "una cara en una pantalla".

Al margen de este caso, lo cierto es que, con el tiempo, la percepción de la gente fue cambiando gradualmente.

Primero fueron las plataformas de mensajería, ICQ, MSN Messenger y otras, que hicieron más amigable la comunicación por Internet. Luego siguieron las redes sociales que facilitaron la búsqueda y contacto con más "amigos".

Aquello que en sus comienzos era una actividad de nerds pasó a ser mainstream.

La gente asimiló gradualmente Internet como una forma de comunicación. Por sobre todo, pasó a ser, no solo un ambiente de uso cotidiano, sino de uso prioritario.

Las generaciones más recientes ya no conciben Internet como algo separado del mundo "real", sino como una extensión natural del mismo.

La cúspide la alcanzamos con la pandemia del 2020. Todos conocemos la historia. Si bien muchos extrañaron la presencialidad, muchas interacciones de tipo intelectual pudieron continuar su curso.

Para la mayoría de las personas, la comunicación virtual, fue, voluntariamente o no, algo real. Después de todo, si uno insulta a alguien a través de una videoconferencia, esa persona se sentirá tan mal como si lo hubiera hecho en persona. Si alguien, en una red social, lanza una crítica hacia otras personas, éstas se sentirán afectadas, tanto o más que si la hubieran recibido cara a cara.

Cuando los efectos de las interacciones entre las personas no varían significativamente dependiendo del medio (virtual o presencial), se puede entender que ambos medios son "reales".

En otras palabras, lo imaginario pasa a ser "real" en el momento en que la mayoría está de acuerdo.

Los constructos consensuados de imaginación colectiva no son nada nuevo. Basta con mirar alrededor.

  • El dinero, esos papeles y tarjetas que tenemos en nuestras billeteras tienen un valor intrínseco muy bajo. Desde hace miles de años su valor "real" depende de un acuerdo intangible entre las personas.
  •  La ropa y, en general, artículos de moda. Qué está "in" y qué no, depende de factores subjetivos, de lo que un grupo grande de gente decide tácita y colectivamente.
  • La personificación de objetos inanimados. Cuando vemos a alguien interactuando con un objeto o una imagen, como si se tratara de una persona.

Como lo anterior hay muchos otros ejemplos. Dejo el ejercicio al lector de identificarlos.

Lo anterior nos lleva al tema de hoy: ¿Qué rol juega la imaginación a la luz de los últimos avances tecnológicos?

Hay dos aspectos importantes que muchas personas destacan:

  • Las redes sociales y los algoritmos que deciden qué material mostrar a sus usuarios.
  • La capacidad de los últimos modelos de IA de generar contenido, real o imaginario, tanto en formato textual como audiovisual.

El primer aspecto, que ya lleva varios años en gestación, se basa en el foco de las empresas de redes sociales de generar engagement. Uno de sus objetivos es que, al usuario que entre a ver algo en una red social, le cueste dejar el celular y hacer otra cosa. Y, si logra enfocarse en algo distinto, sienta la compulsión de abrir el celular nuevamente a seguir viendo el contenido.

En otras palabras, estos algoritmos generan, si no adicción, al menos síntomas asociados con adicción

De manera laxa, los llamaremos "Algoritmos Adictivos"

El segundo aspecto está en pleno desarrollo. Ya hemos visto, desde 2023, avances importantes en la generación automática de texto y de imágenes.

En mis posts previos he explicado con detalle los LLM, modelos de IA capaces de generar texto razonablemente coherente, casi imposible de distinguir de aquel escrito por humanos.

Los LLM forman parte de un grupo de tecnologías, llamadas Modelos Generativos de IA. Otros modelos generativos son capaces de sintetizar imágenes, videos y audio. Al igual que los LLM, éstos pueden crear material bastante convincente y difícil de discriminar de su contraparte real.

Más aún, los modelos generativos tienen un potencial muy fuerte para generar cosas imaginarias. Ya hemos hablado previamente de las alucinaciones de los LLM. De los modelos generativos, éstos son, probablemente, los menos críticos, ya que tienen el potencial de generar cosas reales. Las imágenes y videos sintetizados por modelos generativos son, por definición, imaginarios.

A los modelos generativos, cuando son usados para crear cosas no reales, les llamaremos "Modelos Imaginativos"


¿Qué sucede cuando combinamos Algoritmos Adictivos con Modelos Imaginativos?

Los Algoritmos Adictivos, de manera simplista, los podemos entender como un mecanismo que, a partir del perfil de un usuario: su información personal, gustos, preferencias, historial de uso de una plataforma, localización, clima, alineación de los astros, etc., seleccionan material para mostrarle, extraído de una gran biblioteca de contenidos, almacenada en los sitios de las redes sociales.

En la actualidad, dichos algoritmos funcionan manera extremadamente eficaz. Probablemente esta es una de las razones por la que algunos países restringen el acceso a la redes sociales a menores de edad.

Lo más preocupante de los Algoritmos Adictivos, es que son capaces de cautivar al usuario usando únicamente el material existente en Internet. Una biblioteca que, si bien es grande, es finita.

¿Qué sucede cuando, dichos algoritmos tienen acceso a una cantidad infinita de contenido, generada por los Modelos Imaginativos?

Tomemos, por ejemplo, los Modelos de Difusión, ampliamente utilizados para crear imágenes y videos irreales a partir de texto. Un usuario digita una frase y el modelo construye una o varias imágenes sintéticas que, por lo general, están muy alineadas con el texto suministrado.

Combinados con estos modelos, los Algoritmos Adictivos no solo tienen acceso a una biblioteca infinita de contenidos, sino que el proceso de "selección" del material para un usuario se potencia fuertemente por las capacidades de traducción de texto a imagenes de los Modelos de Difusión.

Imaginemos el siguiente ejemplo: a un usuario le gustan los gatos. En una red social siempre busca imágenes de gatos. Esto lo sabe la red social y sus Algoritmos Adictivos favorecen mostrar material alineado con sus gustos.

Supongamos ahora que la red social puede generar automáticamente imágenes de gatos. No solo las podrá sintetizar y presentar al usuario en infinitas variaciones, sino que también podrá personalizarlas aún más de acuerdo a sus gustos más específicos.

¿Le gustan los gatos siameses?
- La red social le mostrará todas las posibles imágenes de gatos de esa raza.

¿Le gusta verlos comiendo catnip?
- La red social generará gatos siameses borrachos haciendo payasadas.

¿Le interesa saber qué sucede cuando lanzan rayos láser por los ojos, mientras montan sobre un oso pardo y chapotean sobre los ríos de chocolate de la luna que, por supuesto, debe estar hecha de queso?
- Pídalo y se le concederá.

Un Algoritmo Adictivo, potenciado por Modelos Imaginativos, tiene el potencial de generar un nivel de adicción nunca antes visto.

Otro problema preocupante es si la imaginación de las personas se vería atrofiada o no. Evidentemente no es un tema nuevo. Muchos tenían preocupaciones similares cuando la radio, las películas, o la televisión debutaron para las masas, o cuando los efectos especiales generados por computador se hicieron ubicuos en el cine.

Mi percepción es que dichas formas de mostrar la información, no necesariamente afectan la capacidad de imaginar.

Con los medios audiovisuales tradicionales, la imaginación persiste. La razón es simple.

Por ejemplo, al ver una película, en lugar de leer el libro en el que se basa, no tenemos que imaginarnos cómo lucen sus personajes. Los vemos directamente en la pantalla. Sin embargo, después de terminar la película, volvemos al mundo real. En ese momento dejamos de ser consumidores pasivos y, cada vez que recordamos la película, estamos imaginando y podemos, a partir de ello, crear cosas nuevas en nuestra mente. Tambien podemos discutir sobre la película con otras personas y construir un mundo imaginario en torno a su trama.

Los consumidores de las nuevas tecnologías tampoco necesitan imaginar los personajes de un libro. Probablemente, puede que ni siquiera exista un libro en el cual basarse, ni una historia mínimamente coherente que conecte los contenidos que consuma. Peor aún, el usuario no va a volver al mundo real a imaginar por su cuenta, ya que nunca dejará de consumir contenidos. Puede que no necesite, ni pueda, formar parte de un grupo con el cual construir una "realidad" colectiva intangible, ya que su interfaz de comunicación será, principalmente, material "imaginado" por una máquina y un botón de like.

El usuario tendrá su propia Biblioteca de Babel, personalizada a sus gustos y preferencias y no tendrá ganas de salir de állí.

¿Qué sucederá cuando la mayoría de las personas estén en esa situación?

No quiero imaginarlo.


martes, 5 de septiembre de 2023

El Ruido, los Simpsons y buscando a Wally en un mar de doppelgangers

Hagamos un pequeño experimento.

Supongan que queremos ver todos los episodios de Los Simpsons, pero tenemos poco tiempo, así que vamos a verlos todos al unísono.

Una locura, ¿no?

Hay personas que lo han hecho. Por ejemplo, este video muestra un montón de episodios de la serie simultáneamente.

Más allá de cuestionar la sabiduría de una persona, o prescribir a qué debe dedicar su tiempo libre, lo cierto es que este ejercicio nos entrega lecciones interesantes sobre el tema de hoy: el ruido y la IA.

Enfoquémonos, por ahora, únicamente en el audio del video anterior.

Noten que los primeros minutos son razonablemente inteligibles. Se escucha a lo lejos la música del intro de la serie.

Las razones son evidentes. La mayoría de los capítulos empiezan más o menos igual.

Sin embargo, pongan atención a lo que sucede luego que el intro termina en la mayoría de los capítulos:

Ruido.


Definiremos Ruido, de manera simplista. 

Ruido, como una señal aleatoria e ininteligible. Es muy difícil encontrarle pies y cabeza al audio del video una vez el intro termina.

Ruido, como algo que se crea a partir del exceso de información. Mientras más capítulos combinamos en un solo audio, más "ruidoso" es. 

Ruido, como algo que, en grandes cantidades, nos limita el acceso a la información, al mensaje que otra persona quisiera que recibamos. A modo de prueba, traten de discernir el diálogo del capítulo que realmente quisieran ver... 

Buena suerte con ello. 

En la vida diaria encontramos ruido en todas partes: cuando estamos conversando con otra persona en una calle muy transitada y nuestras voces se opacan con los sonidos de decenas de vehículos. Cuando intentamos entender lo que nos dice el mesero en un restaurante con muchas personas hablando al tiempo. Incluso, cuando estamos al pie de una cascada y lo único que se escucha es el sonido de millones de gotas golpeando las rocas al tiempo. 

Sin embargo, el ruido no se limita únicamente a sonidos. El concepto es bastante más amplio. Podemos generalizarlo, informalmente, como cualquier cosa que nos dificulte discernir información útil a partir de lo que percibimos.


Hablemos del ruido en Internet. 

No me refiero al ruido eléctrico en las redes que transmiten los datos de Internet, sino a una definición de ruido que, aunque informal, es más cercana al usuario final. 

Aquel que encontramos cuando buscamos activamente información en Internet. 

Para eso hay que recordar, como siempre, un poco de historia. 

Cuando Internet comenzó a popularizarse, a principios de la década de los 90, no habían mecanismos eficientes para buscar información. No existía Google ni nada similar. Era difícil discernir información útil de manera rápida. En otras palabras, había mucho "ruido". 

La única forma de buscar información era abrir, uno por uno, los sitios web que uno conociera, leer sus contenidos hasta encontrar lo que se necesitara. 

Recuerdo, en aquella época, la única ayuda que tenía a mi disposición, era un libro físico, un catálogo que referenciaba los principales sitios de Internet que uno podía visitar, junto con una descripción general de sus contenidos. 

Posteriormente, se hizo popular la primera versión de Yahoo, sitio web que, en sus comienzos, no era más que un directorio de sitios de Internet, categorizados en una estructura jerárquica, pero sin capacidades de búsqueda por términos, como estamos acostumbrados en la actualidad. 

En esencia, la búsqueda en Internet no era muy diferente a jugar "buscando a Wally". Navegar en un mar de personas hasta encontrar al sujeto de rayas rojas.

Al poco tiempo, la funcionalidad de búsqueda por palabras empezó a tomar forma en Yahoo. Le siguieron otros sitios que le hicieron la competencia: Lycos y Altavista, entre otros. 

Finalmente, Google, en 1998, introdujo un algoritmo de búsqueda significativamente más efectivo que los existentes. Rápidamente se extendió su uso y consiguió el monopolio de las búsquedas por Internet. 

La principal característica de un buscador es que reduce el "ruido", haciendo más fácil discernir la información que necesitamos del resto de los contenidos en Internet. 

Más específicamente, a partir de los términos de búsqueda, un buscador ordena por relevancia todos los sitios que tiene indexados. 

Haciendo la analogía con Wally, sería como reducir la saturación de color a todos los personajes que no son Wally, para que sus rayas rojas resalten sobre la multitud.

Durante muchos años hemos tenido la fortuna de acceder fácilmente a información específica gracias a los buscadores que filtran solo los sitios relevantes y descartan el resto. 

Sin embargo, en los últimos años percibo que la calidad de las búsquedas se ha deteriorado. 

Antiguamente, la primera página de resultados de Google contenía los sitios más relevantes para resolver mis problemas. Hoy ese lugar lo ocupan sitios de dudosa reputación y que no siempre responden adecuadamente a lo que necesito. 

Una de las posibles causas es el uso intensivo de "Optimización de Motores de Búsqueda" (SEO). 

SEO es un conjunto de técnicas para hacerle creer a un buscador que un sitio tiene mayor relevancia que otros cuando se usan ciertos términos de búsqueda. 

Volviendo a Wally, el análogo sería agregar a la ilustración muchísimos personajes con diferente fisionomía que Wally, pero vestidos con ropa de rayas rojas más gruesas y saturadas. Aunque nos demore unas fracciones de segundo descartarlos, al ser tan numerosos, encontrar al verdadero nos tomaría más tiempo. 

En la práctica, el SEO disminuye la capacidad de un buscador de reducir el "ruido". Encontrar lo que buscamos se hace nuevamente más difícil, ya que debemos esforzarnos más en discernir la información relevante de la que no lo es.

¿Qué tiene esto que ver con Inteligencia Artificial? 

Recordemos nuevamente el tema de mis dos últimas publicaciones: Los LLM

Los LLM permiten a un computador sintetizar fácilmente textos sobre cualquier tema, con una redacción similar a cómo lo haría un ser humano. En mis publicaciones previas discutí algunas implicaciones de esto. 

La que nos concierne en este post es su potencial como fuente de ruido

Con los LLM corremos el riesgo que la búsqueda de información se torne aún mas difícil. 

Imaginen un usuario malicioso que quiera esparcir desinformación (Fake News) por Internet. Una forma sencilla de hacerlo sería crear múltiples sitios nuevos, o hacer muchas publicaciones en sitios existentes, que contengan texto generado por un LLM. 

Si para un humano normal es difícil detectar la autoría artificial de estos textos, para un computador también es complejo. Hasta la fecha no he encontrado evidencia de formas razonablemente efectivas de discriminar entre textos escritos por humanos y textos generados por un LLM. 

Un ejemplo real de este problema es la aparición de libros electrónicos escritos por LLM. En algunos casos la dificultad de distinguir un libro "real" de uno generado puede ser un peligro serio.

Si bien es posible que ese problema se resuelva en el futuro, lo cierto es que, en el intertanto, un LLM utilizado maliciosamente tiene el potencial de deteriorar las búsquedas de información en Internet. 

Colocando a Wally en una situación análoga, sería como agregar un sinnúmero de Doppelgangers, vestidos igual que nuestro personaje. 

En la superficie, estas imitaciones serían casi indistinguibles. Solo al acercarse a una de ellas se notarían las diferencias. Una oreja en una posición ligeramente incorrecta, un dedo de sobra en una de sus manos, un ojo de un color ligeramente incorrecto... 

Bajo esas condiciones, el tiempo perdido en la búsqueda pasa a ser excesivo. 

Pero eso no es lo peor. 

Si la capacidad de síntesis de los LLM sigue mejorando, la dificultad para discriminar textos humanos de textos sintéticos se haría cada vez más difícil. Podríamos llegar a un punto en que los doppelgangers sean tan similares a Wally que, en el momento que encontremos al auténtico, podríamos no tener la suficiente certeza de si es el real o una imitación. 

Tendríamos a Wally en frente de nosotros y lo pasaríamos por alto...

...y quedaría perdido en un mar de doppelgangers.

lunes, 1 de mayo de 2023

El Culto de la Singularidad y la Personificación del Verbo Artificial

En las semanas posteriores a mi publicación anterior, ChatGPT sufrió fuertes cambios.

Recordemos que ChatGPT es un Modelo Grande de Lenguaje (LLM). Los LLM son modelos de inteligencia artificial que capaces de "adivinar" qué palabras son las más probables que continuen un texto arbitrario. Gracias a la gran cantidad de textos usados para entrenarlas, combinado con un "fine tuning" cuidadoso, son capaces de responder a preguntas hechas en lenguaje natural, de manera notablemente similar a un ser humano.

Las últimas iteraciones de ChatGPT demuestran un potencial para resolver tareas que, históricamente, solo los humanos han podido realizar satisfactoriamente: redacción compleja de textos, programación de aplicaciones, entre otras.

Es bastante llamativo cómo estas mejoras hacen que la máquina de las respuestas se parezca cada vez más a un ser humano.

No obstante, debemos tener cuidado. Sin desmejorar la potencial utilidad de estos modelos, hay que tener siempre presente que los LLM son solo algoritmos que emulan ciertas capacidades de los humanos.

En la práctica, un LLM "regurgita" y recombina cosas que ya han sido escritas previamente por otras personas.

Si perdemos de vista esto, la humanidad corre el riesgo de tener problemas serios.

No estoy diciendo que ChatGPT se vaya a convertir en un futuro Skynet

El riesgo no deriva de lo que una IA, por sí sola, sea capaz de hacer en el futuro, sino en el uso y la dependencia que los humanos tengamos hacia dicha tecnología.

-- ¿Pero acaso la tecnología no es para ser usada y depender de ella?

Sí, pero con precaución.

Para entender mejor esta idea, nada mejor que revisar un poco de historia.

Tomemos por ejempo, el caso ELIZA, un chatbot creado en la década de los 60s por Joseph Weizenbaum.

Comparado con ChatGPT, ELIZA era muchísimo más primitivo. Utilizaba reglas muy sencillas para crear la ilusión de un humano al otro lado de la pantalla conversando con el usuario.

Si bien las conversaciones que podía simular ELIZA eran muy simplistas, para estándares modernos, eso no impidió que muchos usuarios le atribuyeran características humanas a dicho programa.

La propia secretaria de Weizenbaum fue un claro ejemplo. Weizenbaum le pidió que probara el programa. La secretaria se enfrascó en una larga "conversación" con la máquina, durante la cual le reveló múltiples detalles personales. Al final, quedó convencida que estaba interactuando con una entidad de características humanas. Otros usuarios tendieron a interactuar de manera similar.

Fue tan generalizada esta respuesta de los usuarios que terminó acuñándose el término Efecto ELIZA para denotar la tendencia de muchas personas a atribuirle características humanas a los computadores.

-- ¿Por qué revisar eventos que sucedieron hace tanto tiempo?

La razón es absolutamente trillada, pero no deja de ser relevante: Quienes no conocen la historia están condenados a repetirla.

Recordemos una noticia del año pasado, donde un ingeniero de Google declaró públicamente que LaMDA, una IA de la empresa basada en un Modelo Grande de Lenguaje (LLM), se había vuelto consciente de sí misma y que había desarrollado sentimientos.

Por supuesto, esto no era así y rápidamente los representantes de Google salieron a desmentir la situación.

Si una persona, aparentemente experta en IA, malinterpreta el comportamiento de una máquina, imagínense lo que puede suceder con personas no expertas.

Para profundizar en la idea, consideremos lo que subyace a todo esto: la tendencia de los humanos a antropomorfizar las máquinas.

Usaré el término "antropomorfizar" de manera un poco laxa: atribuir características típicamente humanas (pero no exclusivamente humanas) a las máquinas.

En muchas situaciones la antropomorfización no es un tema serio. Por ejemplo, cuando un fanático de autos dice que su vehículo favorito tiene "temperamento" o cuando los marinos (especialmente en países angloparlantes), se refieren a su barco como "ella".

En estos casos, las personas le atribuyen una "personalidad" a objetos inanimados como una forma de comunicar ciertos conceptos a otras personas: las características técnicas de un vehículo, en el primer caso, o el sentido de pertenencia a un grupo, en el segundo.

Sin embargo, bajo otras circunstancias, la antropomorfización puede ser problemática.

Tomemos como ejemplo los Tamagotchi, dispositivos que simulaban ser mascotas electrónicas, muy famosos a fines de la década de los 90. Para mantenerlos "vivos" era necesario "atenderlos" y "alimentarlos". Cuando un usuario no cumplía con sus "responsabilidades", el Tamagotchi podía morirse.

Un aspecto no tan positivo fue el fuerte apego emocional que generó en algunos de sus usuarios. Mucha gente se tomó demasiado en serio el "cuidado" de estas mascotas, tratándolas de una forma más cercana a un bebé humano y dejando de lado las responsabilidades reales del trabajo y el colegio, entre otras.

Otro caso más reciente fueron las novias virtuales que causaron algo de revuelo en Japón hace unos años atrás.

Algunos de los usuarios de este sistema incluso tuvieron problemas personales cuando la empresa que las fabricaba, cerró sus puertas y no pudieron seguir conversando con sus novias.

-- Pero estos casos son muy particulares, no todo el mundo se comporta de esa manera

De acuerdo, los casos anteriores involucran grupos poblacionales específicos, ya sea niños que aún están aprendiendo y no distinguen correctamente lo real de lo imaginario, o adultos con formas peculiares de percibir el mundo.

Sin embargo, hay casos más sutiles que, sin involucrar antropomorfización de manera tan explícita, requieren de atención cuidadosa.

Hablemos del "Culto de la Singularidad".

En mis publicaciones más antiguas explico el concepto de Singularidad, aquella idea de que, si las máquinas y el software siguen mejorando a un paso notable, el progreso llegará a un punto donde una inteligencia artificial sería capaz de automejorarse exponencialmente. Con ello, podría rápidamente superar las capacidades de los seres humanos y aumentar significativamente el progreso tecnológico de la humanidad.

Si bien, en mis publicaciones la idea de la Singularidad la presento meramente como un ejercicio mental, hay personas que se lo toman más en serio.

Definiremos el "Culto de la Singularidad" como la creencia de que la Singularidad es un hecho altamente probable (o incluso inevitable). Consecuentemente, en un futuro relativamente cercano, el desarrollo tecnológico derivado de la Singularidad traería una época de prosperidad y mejoras significativas a la calidad de vida.

La palabra "culto" la uso en el contexto de que dichas creencias rayan con lo religioso. Algunas personas creen, por ejemplo, que gracias a la Singularidad, se podría fácilmente transferir la mente de una persona a un computador y, por consiguiente, lograr la vida eterna en el silicio en lugar del carbono.

-- Eso suena familiar...

Por supuesto! No es sustancialmente distinto a las religiones que hablan del Día del Juicio, el Apocalipsis, o el Retorno del Mesías.

A diferencia de una religión "normal", el "Culto de la Singularidad" puede ser, conceptualmente, más atractivo para algunas personas, dado su aire de verosimilitud. La creencia de una inminente singularidad deriva de hechos observables: el progreso tecnológico, aparentemente más vertiginoso cada día, reforzado por los últimos avances en IA.

-- Suena bonito, me gustaría estar presente cuando ocurra...

Es triste derrumbar expectativas, pero esta es una idea que no sobrevive un escrutinio profundo.

Es fácil caer en esa falacia si se tiene una fe ciega en el progreso tecnológico.

Es fácil asumir como cierto el que un evento futuro cercano mejore significativamente el mundo, ya que es una idea reconfortante.

Es fácil creer en un futuro así, si uno solo se enfoca en las promesas de la IA y no en su factibilidad técnica

Lamentablemente, las leyes de la física dicen algo distinto. La Ley de Moore hace varios años que ya no es "tan exponencial" como solía ser. La miniaturización de componentes electrónicos es cada vez más difícil, ya que, siendo simplista, no se pueden hacer más pequeños que unos pocos átomos. Los chips no se pueden compactar más allá de un cierto límite, ya que las leyes de la termodinámica hay que obedecerlas.

-- Es triste pero cierto... la Singularidad es muy improbable

Lo anterior no impide que algunas personas estén fuertemente convencidas que la Singularidad va a ocurrir. Se transforma en un asunto más de fe que de pensamiento crítico.

A nivel cotidiano, esto no es un problema serio. En términos prácticos, no es significativamente diferente a cualquier religión convencional.

El problema es cuando personas con poder toman decisiones basadas en esta idea.

Si bien este "culto", en su forma literal, no es, aparentemente, una creencia generalizada, una versión más diluida de este concepto puede ser causa de preocupación.

En términos relativos, son pocas personas las que entienden el funcionamiento interno de una IA o, en general, de los computadores. Las que no, tienden a atribuirle más capacidades de las que realmente tienen.

Llamaremos a esto la "personificación del verbo artificial".

Usaremos "personificación", como como una forma exagerada de antropomorfización y "verbo artificial", como sinónimo de "Modelos Grandes de Lenguaje (LLM)". En otras palabras, el "Efecto ELIZA" en su máxima expresión, aplicado a los LLM o cualquier tecnología derivada de éstos.

Tomemos como ejemplo, el caso de este episodio de un noticiario de USA. Pongan atención a la reacción del periodista a la interacción con un LLM desde el minuto 3:58. Al principio parece estar convencido que el texto escrito por la máquina es "humano", argumento que los ingenieros rápidamente le refutan.

-- Pero si suena tan real, ¿de verdad que no hay algo humano gestándose dentro de esa máquina?

No olvidemos el hecho de fondo. Los LLM no son más que un algoritmo que repite y recombina textos escritos por humanos siguiendo reglas probabilísticas.

Si a eso le llamamos humano... mucha filosofía se podría discutir al respecto, pero prefiero centrarme en aspectos más pragmáticos.

El principal problema de esta "personificación", es que muchas personas pueden decidir usar el "verbo artificial" como sustituto a los seres humanos.

Sustitutos en tareas que, tradicionalmente, han sido exclusivas de las personas.

Este problema se exacerba cuando las personas a cargo de decisiones importantes (en una empresa, en un país, etc.) sobreestiman las capacidades de la la tecnología y creen ciegamente que ésta seguirá mejorando exponencialmente.

Inevitablemente, estas personas tratarán de resolver todos sus problemas usando IA, incluyendo aquellos para los cuales no son la solución más adecuada

Desde los chatbots de atención al cliente (muy deficientes al momento de escribir este post), hasta el uso de IBM Watson para apoyar a los médicos, existen muchos casos donde la IA ha sido incapaz de satisfacer las expectativas, a menudo altas, de las personas.

En resumen, el "verbo artificial", si es usado sin un buen juicio, podría hacer que muchas personas sean sustituidas por una tecnología que no entrega mejores resultados

Tomemos como ejemplo la idea de usar los LLM en educación.

Algunas empresas están adaptando ChatGPT para que actúen como tutores de estudiantes online. Los resultados son, aparentemente, alentadores. Los LLM pueden entregar información útil a los estudiantes para que mejoren su aprendizaje.

Sin embargo, el problema de las "alucinaciones", un LLM inventando información falsa al responder algunas preguntas, aún no ha sido resuelto (Recuerden mi publicación anterior: "La Máquina de las Respuestas aún no sabe cuándo callarse").

Si un sistema con este tipo de fallos se adoptara como principal tecnología en la enseñanza, corremos el riesgo de entregar información tergiversada a generaciones de estudiantes.

Así como ese, hay muchos otros ejemplos que, por razones de espacio, no mencionaré en esta publicación.


-- ¿Qué se puede hacer al respecto?

Si queremos hacer que la humanidad progrese adecuadamente, esta tecnología hay que tratarla como tal, una herramienta más que podemos usar en nuestro beneficio, un artefacto imperfecto que requiere de supervisión humana para usarse en su máximo potencial.

La IA no una deidad capaz de resolver, por sí misma, todos los problemas del mundo.

En suma, es esencial no llegar a la situación explicada, metafóricamente, en el cuento corto Answer, escrito por Frederic Brown:

En un futuro lejano, la humanidad crea un computador órdenes de magnitud más grande que los actuales.

Al momento de encenderlo, la primera pregunta que le hacen es: "¿Existe Dios?"

El computador responde "Sí, ahora sí hay un Dios".

martes, 7 de marzo de 2023

La Máquina de las Respuestas

Años atrás, haciendo una tarea para el colegio, encontré una cita, atribuida a un artista famoso, la cual decía que los computadores eran inútiles porque solo podían dar respuestas.

Mis recuerdos al respecto se difuminaron con el tiempo y, por muchos años, cuando recordaba dicha frase, la atribuía erróneamente a algún escritor latinoamericano, de esos que le hacen leer a uno en el colegio.

Hace unos días, cuando empecé a reunir información para este nuevo post, me di cuenta que la frase se le atribuye a Pablo Picasso. Creo que dicha autoría es aún más pertinente para el tema que revisaremos hoy (aunque la razón la trataremos en un post futuro).



Sin lugar a dudas, los computadores, junto con el software que los hace funcionar, son de bastante utilidad. La sociedad actual sería imposible sin aquello que llamaremos la "Máquina de las Respuestas".

Para guiar mejor la discusión, es bueno definir qué es exactamente una "respuesta".

En términos muy simples, entenderemos por "respuesta" a la información que nos entrega el computador para satisfacer una petición que se le hace. Dicha petición no necesariamente tiene el formato de una pregunta. Puede ser texto, un par de clicks en la pantalla del computador, imágenes, etc.

Asimismo, la respuesta puede ser en diferentes formatos. Cuando buscamos en Internet alguna información, estamos enviando una pregunta a un computador en otro lugar del mundo y éste nos entrega una respuesta en forma de texto, imágenes, multimedia o de algunas maneras menos ortodoxas.

-- La Máquina de las Respuestas entrega información útil.


 

Antaño, los computadores eran más difíciles de usar. La forma de hacerle preguntas requería un fuerte entrenamiento en matemáticas, electrónica y otras disciplinas afines. Los formatos de las respuestas también eran complejos de entender.

Pasaron las décadas y los computadores pasaron de ser un aparato de laboratorio a un objeto de uso diario, no muy distinto a un electrodoméstico. La mayoría de los avances que lo permitieron, consistieron en formas de preguntar y responder de manera análoga a como los humanos interactuamos entre nosotros y con objetos de uso cotidiano.

Un hito muy importante fue el primer intento de emular, en un computador, el uso de lápiz y cuaderno. El Sketchpad, creado en 1961, permitía realizar tareas en un computador usando un "lápiz de luz" y una pantalla donde se podía dibujar y señalar.

Otro evento importante fue la madre de todos los demos, en 1968. En aquella ocasión se presentaron  tecnologías que son la base de las oficinas modernas: computadores de uso personal, con pantalla, teclado y mouse, procesadores de texto, conexiones de red y videoconferencia.

Por supuesto, no hay que olvidar el Internet, cuyos orígenes se remontan a 1969. Su principal utilidad, en un principio, era crear una conexión resiltente entre computadores a través de múltiples rutas. Con la creación de la Web, en 1989, se hizo más fácil para usuarios no expertos, navegar a través de la información.

-- La Máquina de las Respuestas se volvió más amigable y conocedora


 

Con algunas excepciones, la mayoría de los avances de las siguientes décadas fueron mejoras incrementales de lo anterior. La reducción en el precio de los computadores y redes facilitó su masificación. De manera similar, cada vez más personas y organizaciones pudieron conectarse a través de Internet.

Un hito más reciente fue la creación del primer iPhone. El paradigma de interacción, basado en usar uno o varios dedos para manipular una pantalla se sigue usando, sin cambios sustantivos, en la actualidad.

El resto de la historia la mayoría lo conoce: buscadores, mensajería instantánea, redes sociales, su masificación global gracias a bajos costos, facilidad de uso y conectividad en todo lugar.

En la actualidad la "máquina" se puede guardar en el bolsillo. Cuando tenemos una duda, podemos sacarla y preguntarle.

-- La Máquina de las Respuestas responderá diligentemente.


 

Todas estas tecnologías eran argumento de ciencia ficción hace algunas décadas. Basta con mirar series de los 60s a los 90s para corroborarlo.

Probablemente la más representativa es Star Trek. Ya en su versión original de los 60s se veían aparatos no muy distintos a computadores portátiles, tabletas y celulares.

Sin embargo, entre todos esos ingenios, hay uno que aún no se ha hecho del todo realidad:

La interacción verbal con un computador usando lenguaje natural.

Muy probablemente, al lector se le vendrá a la mente Alexa, Google Assistant, Siri y un sinnúmero de otros asistentes personales, como razones suficientes para refutar lo anterior.

Si bien estos servicios hacen un trabajo bastante bueno de reconocer la voz del usuario, sus respuestas aún dejan mucho que desear.

-- La Máquina de las Respuestas, cuando le preguntamos verbalmente, aún no entiende bien lo que le decimos.

 

Sin embargo, hemos llegado a un punto de inflexión en el desarrollo tecnológico. Una nueva tecnología que puede generar cambios grandes en la forma de interactuar con los computadores:

Los Modelos Grandes de Lenguaje (Large Language Models o LLM).

En términos simples, un LLM es un software. A dicho software se le puede suministrar un texto escrito en lenguaje natural. El LLM es capaz de completarlo, "adivinando" qué palabras, frases o párrafos serían los más probables que le sucedan, de tal forma que el texto completo parezca "coherente" o sea similar a algún texto existente.

Por ejemplo, si a un LLM le damos el texto "Un elefante se balanceaba", el LLM es muy probable que responda "sobre la tela de una araña".

¿Cómo se logra esto?

La creación de un LLM requiere "entrenarlo". Dicho entrenamiento consiste en tomar muchos textos, remover palabras de ellos aleatoriamente y pedirle al LLM que intente adivinar cuál es el texto que se removió. El resultado de dicho entrenamiento, las "entrañas" del LLM, se almacena en algo denominado los "parámetros", concepto análogo a las neuronas y sus conexiones entre sí.

Mientras más parámetros tenga un LLM, mientras más textos se hayan usado en su entrenamiento, mejor debería ser su desempeño.

Esta tecnología no es particularmente nueva. La razón por la cual se popularizó en los últimos meses fue por los resultados exitosos de crear un LLM muy grande y, posteriormente, hacer un trabajo intensivo de fine tuning para mejorar sus respuestas:

ChatGPT.

Dado que ChatGPT fue entrenado con textos de muchos tipos, tiene en sus "entrañas" información de muchos dominios. Cuando le formulamos una pregunta sobre un tema, su respuesta consiste en "adivinar" cuáles serían las frases más probables que habría que escribir a continuación para responder a esa pregunta.

Si dentro de los textos que se usaron para entrenarlo hay alguno pertinente, esto se reflejará en las respuesta que entregue.

Debido a las características de este LLM, dichas respuestas tienden a estar muy bien redactadas y son particularmente convincentes.

-- La Máquina de las Respuestas, puede entender lo que le decimos verbalmente y es capaz de entregar una respuesta adecuada...

Un momento!, no lleguemos a conclusiones apresuradas!

Confieso que, cuando tuve acceso por primera vez a ChatGPT, estuve horas "conversando" con la "máquina". La experiencia se sentía muy similar a hablar con la "computadora" de Star Trek.

Mis interacciones fueron, de dos tipos: preguntas técnicas especializadas y creación interactiva de argumentos para novelas.

Para el primer tipo, me sorprendió la calidad de muchas respuestas. Cuando la pregunta es directa, no excesivamente compleja y el LLM ha sido entrenado con suficientes textos sobre el tema, las respuestas tienden a ser casi indistinguibles de las que entregaría un experto humano.

Para el segundo tipo, si bien tiende a generar historias relativamente genéricas, con un diálogo adecuado, se pueden crear argumentos bastante interesantes.

A pesar de lo anterior, ChatGPT aún tiene limitaciones importantes.

En general, no es capaz de retener información de los diálogos como lo haría un humano medianamente inteligente.

Por ejemplo, en las conversaciones técnicas, a veces no tiene en cuenta elementos de sus propias respuestas, en la elaboración de las siguientes. Para la generación de historias, tiende a olvidar detalles argumentales importantes que se han dialogado previamente, a confundir personajes o cambiarle los nombres y sus características.

Pero, por sobre todo, ChatGPT tiene todavía un gran defecto que lo diferencia de la "computadora" de Star Trek.

Cuando uno le pregunta sobre algo que no existe, o para lo cual no conoce una respuesta, ChatGPT tiende a fantasear, inventar respuestas, decir cosas claramente no veraces.

En esas situaciones, ChatGPT no es capaz de decir:

"Unable to comply".

-- La Máquina de las Respuestas aún no sabe cuándo callarse.



lunes, 12 de diciembre de 2016

Sistemas adaptativos y libre albedrío

La divagación que les contaré hoy nació de recordar mis primeros pasos en Internet, en el remoto año 1995. 

En aquella época tuve la suerte de acceder a un computador con conexión a Internet en la universidad donde estudiaba, un lujo al cual pocos tenían acceso. Desde allí pude visitar los pocos sitios web que existían en esa época, como por ejemplo la página más antigua de la Web

También tuve acceso a una cuenta en un servidor que, a través de Telnet, podía revisar correo electrónico y, a través de FTP, publicar páginas web. 

Con estas herramientas creé uno de los sitios web más antiguos del norte de Chile, el cual tenía información sobre astronomía. Su versión original se puede acceder a través de archive.org

Ciertamente, la calidad del sitio distaba mucho de lo que uno acostumbra a ver en la actualidad. Esto se explica, en parte, por los escasos conocimientos que tenía de diseño gráfico (sí, pueden reírse a mis expensas). Sin embargo, la principal razón era la limitada capacidad de los computadores y el software de la época. 

Uno de los principales inconvenientes de dicho sitio es que era estático, es decir, siempre mostraba el mismo contenido a los usuarios. Si quería hacer un cambio, como por ejemplo actualizar la página de noticias, tenía que modificar manualmente un archivo para agregar la noticia.

Pasaron los años, la tecnología mejoró y también mis conocimientos de diseño gráfico y programación. A principios del año 2000, con un grupo de amigos, armamos un sitio para poner información de nuestro pasatiempo de aquella época. Visualmente, la página era un poquito mejor que la página de astronomía (sí, pueden seguir riéndose a mis expensas). Sin embargo, la principal ventaja es que la página era dinámica.

Cada vez que uno quería agregar una nueva noticia, bastaba con ingresar a la página con las credenciales de usuario y publicar a través de un formulario (suena familiar?). Versiones posteriores de dicha página proveían funcionalidad similar al muro de Facebook, el cual podía ser actualizado por todos los usuarios suscritos a la página y cada usuario podía filtrar las noticias del "muro", de acuerdo a sus preferencias.

Actualmente, ese dinamismo ha aumentado sustancialmente. Los sitios actuales pueden ser creados dinámicamente y de manera colaborativa. Al acceder a un sitio, cada usuario voluntaria o involuntariamente manifiesta qué cosas quiere ver y qué cosas no. Los sitios web, de manera "inteligente" le muestran información más adecuada a cada uno dependiendo de sus gustos y preferencias.

Un ejemplo clásico es Nexflix. Este sitio permite ver películas y series directamente en el navegador o el celular. Además de su funcionalidad primaria, Netflix tiene una característica muy interesante. Cada vez que vemos un video, Netflix aprende qué nos gusta y qué no y luego sugiere qué series o películas nos interesaría ver e, incluso, estima el rating que le daríamos a un video particular a partir de nuestro historial de uso del sitio.

Otro ejemplo muy conocido es Amazon. De manera similar a Netflix, Amazon aprende de sus usuarios y sugiere otros productos para comprar a partir su historial de compras. Si alguien compra un saco de dormir, el sitio le sugerirá comprar colchones inflables, carpas y linternas. Si alguien compra una cámara fotográfica, el sitio le sugerirá comprar trípodes, bolsos y tarjetas de memoria.


Lo anterior nos lleva al tema de hoy, los sistemas adaptativos. En términos simples, un sistema adaptativo es aquel que modifica su comportamiento dependiendo de la información que reciba del exterior. 

Netflix y Amazon pueden considerarse sistemas adaptativos, ya que se comportan de manera diferente dependiendo de la información que reciben de cada usuario. Netflix sugiere diferentes películas a cada persona, dependiendo de los gustos y preferencias que infiera de cada una. Amazon recomienda diferentes productos dependiendo de lo que el usuario haya comprado previamente.

Netflix y Amazon son la punta del iceberg en el área de sistemas adaptativos. En los últimos años se han masificado otras aplicaciones adaptativas, cuyas capacidades son cada vez más interesantes.

Consideremos, por ejemplo, Google Now. Esta aplicación se instala en el celular y le recomienda al usuario diferentes cosas dependiendo de su localización, hora del día y otros elementos, particularmente los correos de su cuenta de Gmail.

Recuerdo que cuando lo activé en mi celular, Google Now se dio cuenta rápidamente cuál era la dirección de mi trabajo y de mi casa, a partir de la localización reportada por el celular a diferentes horas del día. Más aún, en las mañanas me indicaba cuánto me iba a demorar en llegar al trabajo y, en las tardes, cuánto me iba a demorar en llegar a mi casa.

La cosa se puso un poco más tenebrosa impresionante cuando empezó a capturar la información de mis itinerarios de vuelo que llegaban a mi correo electrónico, luego de comprar pasajes de avión. 

Al principio, me avisaba unos días antes del vuelo para que no me olvidara de hacer el check-in. Sin embargo, lo que me hizo tomar el tema en serio fue un día que iba a viajar en avión y la aplicación me dice:

Debes salir dentro de 10 minutos si quieres llegar a tiempo al aeropuerto.

Si bien en términos tecnológicos, lo anterior no es particularmente complejo. Lo realmente preocupante son las proyecciones de esta tecnología en un futuro cercano. 

Si los sistemas adaptativos siguen mejorando a la tasa actual, cabría esperar dentro de unas décadas, sistemas que nos hagan recomendaciones sobre casi cualquier aspecto de nuestras vidas, inclusive, que pudieran tomar las decisiones en lugar de nosotros.

Las motivaciones para hacer sistemas adaptativos que tomen decisiones son muchas, ya que en varios escenarios podrían ser muy beneficiosas. Por ejemplo, las tecnologías asociadas a Quantified Self permitirían a una persona saber con mucho detalle su estado se salud. Un sistema adaptativo combinado con lo anterior podría, por ejemplo, despachar medicamentos automáticamente para tratar ciertas condiciones de salud del usuario o llamar automáticamente a un médico o un servicio de urgencia si estima que el usuario podría tener un problema de salud dentro de unas horas o días.

Además del ámbito médico, otras aplicaciones de los sistemas adaptativos serían aquellas enfocadas a la satisfacción de los deseos de un usuario. Este es un escenario inquietante, precisamente por la capacidad potencial de dichos sistemas de anticipar y satisfacer dichos deseos.

A primera vista podría no parecer tan preocupante. Sería como tener un sirviente que siempre está preocupado de mantenernos contentos. Dicho sirviente sería, además, un psicólogo, médico, psiquiatra altamente competente que nos conocería mejor que nosotros mismos. Si la persona quisiera tomar una limonada, no tendría que decirlo; el sistema adaptativo ya lo habría anticipado y tendría la limonada ya preparada y heladita. Si la persona empezara a pensar en un par de zapatos nuevos, el sistema ya los habría comprado en una tienda online. 

El principal problema son las implicaciones que tendría para el libre albedrío. El libre albedrío es el poder que tiene uno de tomar decisiones, las cuales requieren acciones de parte nuestra. Cuando dejamos que un sistema adaptativo satisfaga nuestros deseos, estamos removiendo las acciones que deberíamos ejecutar producto de nuestras decisiones.

En otras palabras: Si en respuesta a nuestras decisiones, las acciones las realiza un sistema adaptativo, el libre albedrío perdería su razón de ser.

Más aún, si un sistema adaptativo fuera capaz de medir mucha información sobre nosotros y tomar decisiones a partir de esa información, también estaría sustituyéndonos en el proceso de toma de decisiones.

En el momento en que un sistema adaptativo decidiera por nosotros, estaríamos renunciando al libre albedrío.

Para la mayoría de la gente que valora la posibilidad de decidir sobre sus propias vidas, este escenario sería un futuro horrible. 

Las consecuencias ya ha sido exploradas por autores de ciencia ficción. Un ejemplo emblemático es La Raza Feliz, donde las máquinas se encargan de satisfacer todas las necesidades de los seres humanos.

Sin ánimo de incluir spoilers, les cuento que el final no es feliz.

Sólo queda preguntarse, ¿cómo evitar semejante distopia?

Difícil respuesta, considerando que Google Now me está diciendo que hay menos tráfico que hace un rato y sólo demoraría 20 minutos en llegar a mi casa. 

Creo que terminaré aquí mi divagación.