lunes, 1 de abril de 2024

La sociedad de la imaginación y la Biblioteca de Babel

Hace 10 años, se publicó un documental sobre Pirate Bay, un sitio de distribución de material pirata y de un juicio que hicieron en contra de sus creadores.

Más allá del contenido específico del documental, lo que recuerdo especialmente es esta escena, cuando a Peter Sunde, uno de los creadores del sitio, le preguntan:

- Cuándo fue la primera vez que se reunieron IRL [In Real Life]

Y el responde lo siguiente:
- No usamos la expresión IRL. Usamos la expresión "Away From Keyboard" [AFK]. Creemos que Internet es real .

Recuerdo que dicha respuesta me dejó pensando bastante, ya que, hasta ese momento, mi perspectiva se alineaba más con la del entrevistador:

  • Mundo real (IRL): Cuando uno se ve cara a cara con otra persona, el mundo análogo.
  • Mundo imaginario: Internet y cualquier tipo de interacción digital.

Me atrevería a decir que la mayoría de las personas pensaban de manera similar. Después de todo, las redes sociales aún no eran tan ubicuas ni se usaban tan frecuentemente como en la actualidad.

Desde mis primeras incursiones en Internet en 1994, siempre percibí Internet como un mundo separado del día a día: una biblioteca donde encontrar información, un lugar para descargar programas y juegos, etc. Si bien solía interactuar con otras personas, lo hacía mayoritariamente de manera asíncrona o impersonal. Las formas más comunes eran a través de email, chat en modo texto (Internet Relay Chat (IRC)), o juegos multiusuario "masivos" (para la época): MUD y MOO. En esas plataformas era común usar una suerte de "alter-ego" en lugar del nombre y personalidad reales.

Esta idea de Internet como un mundo separado, se reforzaba aún más por el hecho que relativamente pocas personas tenían acceso a ella. Solo unos pocos nerds estábamos siempre conectados.

Dentro de las personas que no, habían algunas particularmente radicales en su negación a aceptar, siquiera, que Internet era un "mundo" donde habían otros seres humanos. Recuerdo, en el año 2000, a un conocido que me comentaba, visiblemente irritado, cómo falló una entrevista de trabajo, porque el principal entrevistador se conectó por videoconferencia. Todas sus habilidades interpersonales fallaron para interactuar con lo que él consideraba "una cara en una pantalla".

Al margen de este caso, lo cierto es que, con el tiempo, la percepción de la gente fue cambiando gradualmente.

Primero fueron las plataformas de mensajería, ICQ, MSN Messenger y otras, que hicieron más amigable la comunicación por Internet. Luego siguieron las redes sociales que facilitaron la búsqueda y contacto con más "amigos".

Aquello que en sus comienzos era una actividad de nerds pasó a ser mainstream.

La gente asimiló gradualmente Internet como una forma de comunicación. Por sobre todo, pasó a ser, no solo un ambiente de uso cotidiano, sino de uso prioritario.

Las generaciones más recientes ya no conciben Internet como algo separado del mundo "real", sino como una extensión natural del mismo.

La cúspide la alcanzamos con la pandemia del 2020. Todos conocemos la historia. Si bien muchos extrañaron la presencialidad, muchas interacciones de tipo intelectual pudieron continuar su curso.

Para la mayoría de las personas, la comunicación virtual, fue, voluntariamente o no, algo real. Después de todo, si uno insulta a alguien a través de una videoconferencia, esa persona se sentirá tan mal como si lo hubiera hecho en persona. Si alguien, en una red social, lanza una crítica hacia otras personas, éstas se sentirán afectadas, tanto o más que si la hubieran recibido cara a cara.

Cuando los efectos de las interacciones entre las personas no varían significativamente dependiendo del medio (virtual o presencial), se puede entender que ambos medios son "reales".

En otras palabras, lo imaginario pasa a ser "real" en el momento en que la mayoría está de acuerdo.

Los constructos consensuados de imaginación colectiva no son nada nuevo. Basta con mirar alrededor.

  • El dinero, esos papeles y tarjetas que tenemos en nuestras billeteras tienen un valor intrínseco muy bajo. Desde hace miles de años su valor "real" depende de un acuerdo intangible entre las personas.
  •  La ropa y, en general, artículos de moda. Qué está "in" y qué no, depende de factores subjetivos, de lo que un grupo grande de gente decide tácita y colectivamente.
  • La personificación de objetos inanimados. Cuando vemos a alguien interactuando con un objeto o una imagen, como si se tratara de una persona.

Como lo anterior hay muchos otros ejemplos. Dejo el ejercicio al lector de identificarlos.

Lo anterior nos lleva al tema de hoy: ¿Qué rol juega la imaginación a la luz de los últimos avances tecnológicos?

Hay dos aspectos importantes que muchas personas destacan:

  • Las redes sociales y los algoritmos que deciden qué material mostrar a sus usuarios.
  • La capacidad de los últimos modelos de IA de generar contenido, real o imaginario, tanto en formato textual como audiovisual.

El primer aspecto, que ya lleva varios años en gestación, se basa en el foco de las empresas de redes sociales de generar engagement. Uno de sus objetivos es que, al usuario que entre a ver algo en una red social, le cueste dejar el celular y hacer otra cosa. Y, si logra enfocarse en algo distinto, sienta la compulsión de abrir el celular nuevamente a seguir viendo el contenido.

En otras palabras, estos algoritmos generan, si no adicción, al menos síntomas asociados con adicción

De manera laxa, los llamaremos "Algoritmos Adictivos"

El segundo aspecto está en pleno desarrollo. Ya hemos visto, desde 2023, avances importantes en la generación automática de texto y de imágenes.

En mis posts previos he explicado con detalle los LLM, modelos de IA capaces de generar texto razonablemente coherente, casi imposible de distinguir de aquel escrito por humanos.

Los LLM forman parte de un grupo de tecnologías, llamadas Modelos Generativos de IA. Otros modelos generativos son capaces de sintetizar imágenes, videos y audio. Al igual que los LLM, éstos pueden crear material bastante convincente y difícil de discriminar de su contraparte real.

Más aún, los modelos generativos tienen un potencial muy fuerte para generar cosas imaginarias. Ya hemos hablado previamente de las alucinaciones de los LLM. De los modelos generativos, éstos son, probablemente, los menos críticos, ya que tienen el potencial de generar cosas reales. Las imágenes y videos sintetizados por modelos generativos son, por definición, imaginarios.

A los modelos generativos, cuando son usados para crear cosas no reales, les llamaremos "Modelos Imaginativos"


¿Qué sucede cuando combinamos Algoritmos Adictivos con Modelos Imaginativos?

Los Algoritmos Adictivos, de manera simplista, los podemos entender como un mecanismo que, a partir del perfil de un usuario: su información personal, gustos, preferencias, historial de uso de una plataforma, localización, clima, alineación de los astros, etc., seleccionan material para mostrarle, extraído de una gran biblioteca de contenidos, almacenada en los sitios de las redes sociales.

En la actualidad, dichos algoritmos funcionan manera extremadamente eficaz. Probablemente esta es una de las razones por la que algunos países restringen el acceso a la redes sociales a menores de edad.

Lo más preocupante de los Algoritmos Adictivos, es que son capaces de cautivar al usuario usando únicamente el material existente en Internet. Una biblioteca que, si bien es grande, es finita.

¿Qué sucede cuando, dichos algoritmos tienen acceso a una cantidad infinita de contenido, generada por los Modelos Imaginativos?

Tomemos, por ejemplo, los Modelos de Difusión, ampliamente utilizados para crear imágenes y videos irreales a partir de texto. Un usuario digita una frase y el modelo construye una o varias imágenes sintéticas que, por lo general, están muy alineadas con el texto suministrado.

Combinados con estos modelos, los Algoritmos Adictivos no solo tienen acceso a una biblioteca infinita de contenidos, sino que el proceso de "selección" del material para un usuario se potencia fuertemente por las capacidades de traducción de texto a imagenes de los Modelos de Difusión.

Imaginemos el siguiente ejemplo: a un usuario le gustan los gatos. En una red social siempre busca imágenes de gatos. Esto lo sabe la red social y sus Algoritmos Adictivos favorecen mostrar material alineado con sus gustos.

Supongamos ahora que la red social puede generar automáticamente imágenes de gatos. No solo las podrá sintetizar y presentar al usuario en infinitas variaciones, sino que también podrá personalizarlas aún más de acuerdo a sus gustos más específicos.

¿Le gustan los gatos siameses?
- La red social le mostrará todas las posibles imágenes de gatos de esa raza.

¿Le gusta verlos comiendo catnip?
- La red social generará gatos siameses borrachos haciendo payasadas.

¿Le interesa saber qué sucede cuando lanzan rayos láser por los ojos, mientras montan sobre un oso pardo y chapotean sobre los ríos de chocolate de la luna que, por supuesto, debe estar hecha de queso?
- Pídalo y se le concederá.

Un Algoritmo Adictivo, potenciado por Modelos Imaginativos, tiene el potencial de generar un nivel de adicción nunca antes visto.

Otro problema preocupante es si la imaginación de las personas se vería atrofiada o no. Evidentemente no es un tema nuevo. Muchos tenían preocupaciones similares cuando la radio, las películas, o la televisión debutaron para las masas, o cuando los efectos especiales generados por computador se hicieron ubicuos en el cine.

Mi percepción es que dichas formas de mostrar la información, no necesariamente afectan la capacidad de imaginar.

Con los medios audiovisuales tradicionales, la imaginación persiste. La razón es simple.

Por ejemplo, al ver una película, en lugar de leer el libro en el que se basa, no tenemos que imaginarnos cómo lucen sus personajes. Los vemos directamente en la pantalla. Sin embargo, después de terminar la película, volvemos al mundo real. En ese momento dejamos de ser consumidores pasivos y, cada vez que recordamos la película, estamos imaginando y podemos, a partir de ello, crear cosas nuevas en nuestra mente. Tambien podemos discutir sobre la película con otras personas y construir un mundo imaginario en torno a su trama.

Los consumidores de las nuevas tecnologías tampoco necesitan imaginar los personajes de un libro. Probablemente, puede que ni siquiera exista un libro en el cual basarse, ni una historia mínimamente coherente que conecte los contenidos que consuma. Peor aún, el usuario no va a volver al mundo real a imaginar por su cuenta, ya que nunca dejará de consumir contenidos. Puede que no necesite, ni pueda, formar parte de un grupo con el cual construir una "realidad" colectiva intangible, ya que su interfaz de comunicación será, principalmente, material "imaginado" por una máquina y un botón de like.

El usuario tendrá su propia Biblioteca de Babel, personalizada a sus gustos y preferencias y no tendrá ganas de salir de állí.

¿Qué sucederá cuando la mayoría de las personas estén en esa situación?

No quiero imaginarlo.


martes, 5 de septiembre de 2023

El Ruido, los Simpsons y buscando a Wally en un mar de doppelgangers

Hagamos un pequeño experimento.

Supongan que queremos ver todos los episodios de Los Simpsons, pero tenemos poco tiempo, así que vamos a verlos todos al unísono.

Una locura, ¿no?

Hay personas que lo han hecho. Por ejemplo, este video muestra un montón de episodios de la serie simultáneamente.

Más allá de cuestionar la sabiduría de una persona, o prescribir a qué debe dedicar su tiempo libre, lo cierto es que este ejercicio nos entrega lecciones interesantes sobre el tema de hoy: el ruido y la IA.

Enfoquémonos, por ahora, únicamente en el audio del video anterior.

Noten que los primeros minutos son razonablemente inteligibles. Se escucha a lo lejos la música del intro de la serie.

Las razones son evidentes. La mayoría de los capítulos empiezan más o menos igual.

Sin embargo, pongan atención a lo que sucede luego que el intro termina en la mayoría de los capítulos:

Ruido.


Definiremos Ruido, de manera simplista. 

Ruido, como una señal aleatoria e ininteligible. Es muy difícil encontrarle pies y cabeza al audio del video una vez el intro termina.

Ruido, como algo que se crea a partir del exceso de información. Mientras más capítulos combinamos en un solo audio, más "ruidoso" es. 

Ruido, como algo que, en grandes cantidades, nos limita el acceso a la información, al mensaje que otra persona quisiera que recibamos. A modo de prueba, traten de discernir el diálogo del capítulo que realmente quisieran ver... 

Buena suerte con ello. 

En la vida diaria encontramos ruido en todas partes: cuando estamos conversando con otra persona en una calle muy transitada y nuestras voces se opacan con los sonidos de decenas de vehículos. Cuando intentamos entender lo que nos dice el mesero en un restaurante con muchas personas hablando al tiempo. Incluso, cuando estamos al pie de una cascada y lo único que se escucha es el sonido de millones de gotas golpeando las rocas al tiempo. 

Sin embargo, el ruido no se limita únicamente a sonidos. El concepto es bastante más amplio. Poremos generalizarlo, informalmente, como cualquier cosa que nos dificulte discernir información útil a partir de lo que percibimos.


Hablemos del ruido en Internet. 

No me refiero al ruido eléctrico en las redes que transmiten los datos de Internet, sino a una definición de ruido que, aunque informal, es más cercana al usuario final. 

Aquel que encontramos cuando buscamos activamente información en Internet. 

Para eso hay que recordar, como siempre, un poco de historia. 

Cuando Internet comenzó a popularizarse, a principios de la década de los 90, no habían mecanismos eficientes para buscar información. No existía Google ni nada similar. Era difícil discernir información útil de manera rápida. En otras palabras, había mucho "ruido". 

La única forma de buscar información era abrir, uno por uno, los sitios web que uno conociera, leer sus contenidos hasta encontrar lo que se necesitara. 

Recuerdo, en aquella época, la única ayuda que tenía a mi disposición, era un libro físico, un catálogo que referenciaba los principales sitios de Internet que uno podía visitar, junto con una descripción general de sus contenidos. 

Posteriormente, se hizo popular la primera versión de Yahoo, sitio web que, en sus comienzos, no era más que un directorio de sitios de Internet, categorizados en una estructura jerárquica, pero sin capacidades de búsqueda por términos, como estamos acostumbrados en la actualidad. 

En esencia, la búsqueda en Internet no era muy diferente a jugar "buscando a Wally". Navegar en un mar de personas hasta encontrar al sujeto de rayas rojas.

Al poco tiempo, la funcionalidad de búsqueda por palabras empezó a tomar forma en Yahoo. Le siguieron otros sitios que le hicieron la competencia: Lycos y Altavista, entre otros. 

Finalmente, Google, en 1998, introdujo un algoritmo de búsqueda significativamente más efectivo que los existentes. Rápidamente se extendió su uso y consiguió el monopolio de las búsquedas por Internet. 

La principal característica de un buscador es que reduce el "ruido", haciendo más fácil discernir la información que necesitamos del resto de los contenidos en Internet. 

Más específicamente, a partir de los términos de búsqueda, un buscador ordena por relevancia todos los sitios que tiene indexados. 

Haciendo la analogía con Wally, sería como reducir la saturación de color a todos los personajes que no son Wally, para que sus rayas rojas resalten sobre la multitud.

Durante muchos años hemos tenido la fortuna de acceder fácilmente a información específica gracias a los buscadores que filtran solo los sitios relevantes y descartan el resto. 

Sin embargo, en los últimos años percibo que la calidad de las búsquedas se ha deteriorado. 

Antiguamente, la primera página de resultados de Google contenía los sitios más relevantes para resolver mis problemas. Hoy ese lugar lo ocupan sitios de dudosa reputación y que no siempre responden adecuadamente a lo que necesito. 

Una de las posibles causas es el uso intensivo de "Optimización de Motores de Búsqueda" (SEO). 

SEO es un conjunto de técnicas para hacerle creer a un buscador que un sitio tiene mayor relevancia que otros cuando se usan ciertos términos de búsqueda. 

Volviendo a Wally, el análogo sería agregar a la ilustración muchísimos personajes con diferente fisionomía que Wally, pero vestidos con ropa de rayas rojas más gruesas y saturadas. Aunque nos demore unas fracciones de segundo descartarlos, al ser tan numerosos, encontrar al verdadero nos tomaría más tiempo. 

En la práctica, el SEO disminuye la capacidad de un buscador de reducir el "ruido". Encontrar lo que buscamos se hace nuevamente más difícil, ya que debemos esforzarnos más en discernir la información relevante de la que no lo es.

¿Qué tiene esto que ver con Inteligencia Artificial? 

Recordemos nuevamente el tema de mis dos últimas publicaciones: Los LLM

Los LLM permiten a un computador sintetizar fácilmente textos sobre cualquier tema, con una redacción similar a cómo lo haría un ser humano. En mis publicaciones previas discutí algunas implicaciones de esto. 

La que nos concierne en este post es su potencial como fuente de ruido

Con los LLM corremos el riesgo que la búsqueda de información se torne aún mas difícil. 

Imaginen un usuario malicioso que quiera esparcir desinformación (Fake News) por Internet. Una forma sencilla de hacerlo sería crear múltiples sitios nuevos, o hacer muchas publicaciones en sitios existentes, que contengan texto generado por un LLM. 

Si para un humano normal es difícil detectar la autoría artificial de estos textos, para un computador también es complejo. Hasta la fecha no he encontrado evidencia de formas razonablemente efectivas de discriminar entre textos escritos por humanos y textos generados por un LLM. 

Un ejemplo real de este problema es la aparición de libros electrónicos escritos por LLM. En algunos casos la dificultad de distinguir un libro "real" de uno generado puede ser un peligro serio.

Si bien es posible que ese problema se resuelva en el futuro, lo cierto es que, en el intertanto, un LLM utilizado maliciosamente tiene el potencial de deteriorar las búsquedas de información en Internet. 

Colocando a Wally en una situación análoga, sería como agregar un sinnúmero de Doppelgangers, vestidos igual que nuestro personaje. 

En la superficie, estas imitaciones serían casi indistinguibles. Solo al acercarse a una de ellas se notarían las diferencias. Una oreja en una posición ligeramente incorrecta, un dedo de sobra en una de sus manos, un ojo de un color ligeramente incorrecto... 

Bajo esas condiciones, el tiempo perdido en la búsqueda pasa a ser excesivo. 

Pero eso no es lo peor. 

Si la capacidad de síntesis de los LLM sigue mejorando, la dificultad para discriminar textos humanos de textos sintéticos se haría cada vez más difícil. Podríamos llegar a un punto en que los doppelgangers sean tan similares a Wally que, en el momento que encontremos al auténtico, podríamos no tener la suficiente certeza de si es el real o una imitación. 

Tendríamos a Wally en frente de nosotros y lo pasaríamos por alto...

...y quedaría perdido en un mar de doppelgangers.

lunes, 1 de mayo de 2023

El Culto de la Singularidad y la Personificación del Verbo Artificial

En las semanas posteriores a mi publicación anterior, ChatGPT sufrió fuertes cambios.

Recordemos que ChatGPT es un Modelo Grande de Lenguaje (LLM). Los LLM son modelos de inteligencia artificial que capaces de "adivinar" qué palabras son las más probables que continuen un texto arbitrario. Gracias a la gran cantidad de textos usados para entrenarlas, combinado con un "fine tuning" cuidadoso, son capaces de responder a preguntas hechas en lenguaje natural, de manera notablemente similar a un ser humano.

Las últimas iteraciones de ChatGPT demuestran un potencial para resolver tareas que, históricamente, solo los humanos han podido realizar satisfactoriamente: redacción compleja de textos, programación de aplicaciones, entre otras.

Es bastante llamativo cómo estas mejoras hacen que la máquina de las respuestas se parezca cada vez más a un ser humano.

No obstante, debemos tener cuidado. Sin desmejorar la potencial utilidad de estos modelos, hay que tener siempre presente que los LLM son solo algoritmos que emulan ciertas capacidades de los humanos.

En la práctica, un LLM "regurgita" y recombina cosas que ya han sido escritas previamente por otras personas.

Si perdemos de vista esto, la humanidad corre el riesgo de tener problemas serios.

No estoy diciendo que ChatGPT se vaya a convertir en un futuro Skynet

El riesgo no deriva de lo que una IA, por sí sola, sea capaz de hacer en el futuro, sino en el uso y la dependencia que los humanos tengamos hacia dicha tecnología.

-- ¿Pero acaso la tecnología no es para ser usada y depender de ella?

Sí, pero con precaución.

Para entender mejor esta idea, nada mejor que revisar un poco de historia.

Tomemos por ejempo, el caso ELIZA, un chatbot creado en la década de los 60s por Joseph Weizenbaum.

Comparado con ChatGPT, ELIZA era muchísimo más primitivo. Utilizaba reglas muy sencillas para crear la ilusión de un humano al otro lado de la pantalla conversando con el usuario.

Si bien las conversaciones que podía simular ELIZA eran muy simplistas, para estándares modernos, eso no impidió que muchos usuarios le atribuyeran características humanas a dicho programa.

La propia secretaria de Weizenbaum fue un claro ejemplo. Weizenbaum le pidió que probara el programa. La secretaria se enfrascó en una larga "conversación" con la máquina, durante la cual le reveló múltiples detalles personales. Al final, quedó convencida que estaba interactuando con una entidad de características humanas. Otros usuarios tendieron a interactuar de manera similar.

Fue tan generalizada esta respuesta de los usuarios que terminó acuñándose el término Efecto ELIZA para denotar la tendencia de muchas personas a atribuirle características humanas a los computadores.

-- ¿Por qué revisar eventos que sucedieron hace tanto tiempo?

La razón es absolutamente trillada, pero no deja de ser relevante: Quienes no conocen la historia están condenados a repetirla.

Recordemos una noticia del año pasado, donde un ingeniero de Google declaró públicamente que LaMDA, una IA de la empresa basada en un Modelo Grande de Lenguaje (LLM), se había vuelto consciente de sí misma y que había desarrollado sentimientos.

Por supuesto, esto no era así y rápidamente los representantes de Google salieron a desmentir la situación.

Si una persona, aparentemente experta en IA, malinterpreta el comportamiento de una máquina, imagínense lo que puede suceder con personas no expertas.

Para profundizar en la idea, consideremos lo que subyace a todo esto: la tendencia de los humanos a antropomorfizar las máquinas.

Usaré el término "antropomorfizar" de manera un poco laxa: atribuir características típicamente humanas (pero no exclusivamente humanas) a las máquinas.

En muchas situaciones la antropomorfización no es un tema serio. Por ejemplo, cuando un fanático de autos dice que su vehículo favorito tiene "temperamento" o cuando los marinos (especialmente en países angloparlantes), se refieren a su barco como "ella".

En estos casos, las personas le atribuyen una "personalidad" a objetos inanimados como una forma de comunicar ciertos conceptos a otras personas: las características técnicas de un vehículo, en el primer caso, o el sentido de pertenencia a un grupo, en el segundo.

Sin embargo, bajo otras circunstancias, la antropomorfización puede ser problemática.

Tomemos como ejemplo los Tamagotchi, dispositivos que simulaban ser mascotas electrónicas, muy famosos a fines de la década de los 90. Para mantenerlos "vivos" era necesario "atenderlos" y "alimentarlos". Cuando un usuario no cumplía con sus "responsabilidades", el Tamagotchi podía morirse.

Un aspecto no tan positivo fue el fuerte apego emocional que generó en algunos de sus usuarios. Mucha gente se tomó demasiado en serio el "cuidado" de estas mascotas, tratándolas de una forma más cercana a un bebé humano y dejando de lado las responsabilidades reales del trabajo y el colegio, entre otras.

Otro caso más reciente fueron las novias virtuales que causaron algo de revuelo en Japón hace unos años atrás.

Algunos de los usuarios de este sistema incluso tuvieron problemas personales cuando la empresa que las fabricaba, cerró sus puertas y no pudieron seguir conversando con sus novias.

-- Pero estos casos son muy particulares, no todo el mundo se comporta de esa manera

De acuerdo, los casos anteriores involucran grupos poblacionales específicos, ya sea niños que aún están aprendiendo y no distinguen correctamente lo real de lo imaginario, o adultos con formas peculiares de percibir el mundo.

Sin embargo, hay casos más sutiles que, sin involucrar antropomorfización de manera tan explícita, requieren de atención cuidadosa.

Hablemos del "Culto de la Singularidad".

En mis publicaciones más antiguas explico el concepto de Singularidad, aquella idea de que, si las máquinas y el software siguen mejorando a un paso notable, el progreso llegará a un punto donde una inteligencia artificial sería capaz de automejorarse exponencialmente. Con ello, podría rápidamente superar las capacidades de los seres humanos y aumentar significativamente el progreso tecnológico de la humanidad.

Si bien, en mis publicaciones la idea de la Singularidad la presento meramente como un ejercicio mental, hay personas que se lo toman más en serio.

Definiremos el "Culto de la Singularidad" como la creencia de que la Singularidad es un hecho altamente probable (o incluso inevitable). Consecuentemente, en un futuro relativamente cercano, el desarrollo tecnológico derivado de la Singularidad traería una época de prosperidad y mejoras significativas a la calidad de vida.

La palabra "culto" la uso en el contexto de que dichas creencias rayan con lo religioso. Algunas personas creen, por ejemplo, que gracias a la Singularidad, se podría fácilmente transferir la mente de una persona a un computador y, por consiguiente, lograr la vida eterna en el silicio en lugar del carbono.

-- Eso suena familiar...

Por supuesto! No es sustancialmente distinto a las religiones que hablan del Día del Juicio, el Apocalipsis, o el Retorno del Mesías.

A diferencia de una religión "normal", el "Culto de la Singularidad" puede ser, conceptualmente, más atractivo para algunas personas, dado su aire de verosimilitud. La creencia de una inminente singularidad deriva de hechos observables: el progreso tecnológico, aparentemente más vertiginoso cada día, reforzado por los últimos avances en IA.

-- Suena bonito, me gustaría estar presente cuando ocurra...

Es triste derrumbar expectativas, pero esta es una idea que no sobrevive un escrutinio profundo.

Es fácil caer en esa falacia si se tiene una fe ciega en el progreso tecnológico.

Es fácil asumir como cierto el que un evento futuro cercano mejore significativamente el mundo, ya que es una idea reconfortante.

Es fácil creer en un futuro así, si uno solo se enfoca en las promesas de la IA y no en su factibilidad técnica

Lamentablemente, las leyes de la física dicen algo distinto. La Ley de Moore hace varios años que ya no es "tan exponencial" como solía ser. La miniaturización de componentes electrónicos es cada vez más difícil, ya que, siendo simplista, no se pueden hacer más pequeños que unos pocos átomos. Los chips no se pueden compactar más allá de un cierto límite, ya que las leyes de la termodinámica hay que obedecerlas.

-- Es triste pero cierto... la Singularidad es muy improbable

Lo anterior no impide que algunas personas estén fuertemente convencidas que la Singularidad va a ocurrir. Se transforma en un asunto más de fe que de pensamiento crítico.

A nivel cotidiano, esto no es un problema serio. En términos prácticos, no es significativamente diferente a cualquier religión convencional.

El problema es cuando personas con poder toman decisiones basadas en esta idea.

Si bien este "culto", en su forma literal, no es, aparentemente, una creencia generalizada, una versión más diluida de este concepto puede ser causa de preocupación.

En términos relativos, son pocas personas las que entienden el funcionamiento interno de una IA o, en general, de los computadores. Las que no, tienden a atribuirle más capacidades de las que realmente tienen.

Llamaremos a esto la "personificación del verbo artificial".

Usaremos "personificación", como como una forma exagerada de antropomorfización y "verbo artificial", como sinónimo de "Modelos Grandes de Lenguaje (LLM)". En otras palabras, el "Efecto ELIZA" en su máxima expresión, aplicado a los LLM o cualquier tecnología derivada de éstos.

Tomemos como ejemplo, el caso de este episodio de un noticiario de USA. Pongan atención a la reacción del periodista a la interacción con un LLM desde el minuto 3:58. Al principio parece estar convencido que el texto escrito por la máquina es "humano", argumento que los ingenieros rápidamente le refutan.

-- Pero si suena tan real, ¿de verdad que no hay algo humano gestándose dentro de esa máquina?

No olvidemos el hecho de fondo. Los LLM no son más que un algoritmo que repite y recombina textos escritos por humanos siguiendo reglas probabilísticas.

Si a eso le llamamos humano... mucha filosofía se podría discutir al respecto, pero prefiero centrarme en aspectos más pragmáticos.

El principal problema de esta "personificación", es que muchas personas pueden decidir usar el "verbo artificial" como sustituto a los seres humanos.

Sustitutos en tareas que, tradicionalmente, han sido exclusivas de las personas.

Este problema se exacerba cuando las personas a cargo de decisiones importantes (en una empresa, en un país, etc.) sobreestiman las capacidades de la la tecnología y creen ciegamente que ésta seguirá mejorando exponencialmente.

Inevitablemente, estas personas tratarán de resolver todos sus problemas usando IA, incluyendo aquellos para los cuales no son la solución más adecuada

Desde los chatbots de atención al cliente (muy deficientes al momento de escribir este post), hasta el uso de IBM Watson para apoyar a los médicos, existen muchos casos donde la IA ha sido incapaz de satisfacer las expectativas, a menudo altas, de las personas.

En resumen, el "verbo artificial", si es usado sin un buen juicio, podría hacer que muchas personas sean sustituidas por una tecnología que no entrega mejores resultados

Tomemos como ejemplo la idea de usar los LLM en educación.

Algunas empresas están adaptando ChatGPT para que actúen como tutores de estudiantes online. Los resultados son, aparentemente, alentadores. Los LLM pueden entregar información útil a los estudiantes para que mejoren su aprendizaje.

Sin embargo, el problema de las "alucinaciones", un LLM inventando información falsa al responder algunas preguntas, aún no ha sido resuelto (Recuerden mi publicación anterior: "La Máquina de las Respuestas aún no sabe cuándo callarse").

Si un sistema con este tipo de fallos se adoptara como principal tecnología en la enseñanza, corremos el riesgo de entregar información tergiversada a generaciones de estudiantes.

Así como ese, hay muchos otros ejemplos que, por razones de espacio, no mencionaré en esta publicación.


-- ¿Qué se puede hacer al respecto?

Si queremos hacer que la humanidad progrese adecuadamente, esta tecnología hay que tratarla como tal, una herramienta más que podemos usar en nuestro beneficio, un artefacto imperfecto que requiere de supervisión humana para usarse en su máximo potencial.

La IA no una deidad capaz de resolver, por sí misma, todos los problemas del mundo.

En suma, es esencial no llegar a la situación explicada, metafóricamente, en el cuento corto Answer, escrito por Frederic Brown:

En un futuro lejano, la humanidad crea un computador órdenes de magnitud más grande que los actuales.

Al momento de encenderlo, la primera pregunta que le hacen es: "¿Existe Dios?"

El computador responde "Sí, ahora sí hay un Dios".

martes, 7 de marzo de 2023

La Máquina de las Respuestas

Años atrás, haciendo una tarea para el colegio, encontré una cita, atribuida a un artista famoso, la cual decía que los computadores eran inútiles porque solo podían dar respuestas.

Mis recuerdos al respecto se difuminaron con el tiempo y, por muchos años, cuando recordaba dicha frase, la atribuía erróneamente a algún escritor latinoamericano, de esos que le hacen leer a uno en el colegio.

Hace unos días, cuando empecé a reunir información para este nuevo post, me di cuenta que la frase se le atribuye a Pablo Picasso. Creo que dicha autoría es aún más pertinente para el tema que revisaremos hoy (aunque la razón la trataremos en un post futuro).



Sin lugar a dudas, los computadores, junto con el software que los hace funcionar, son de bastante utilidad. La sociedad actual sería imposible sin aquello que llamaremos la "Máquina de las Respuestas".

Para guiar mejor la discusión, es bueno definir qué es exactamente una "respuesta".

En términos muy simples, entenderemos por "respuesta" a la información que nos entrega el computador para satisfacer una petición que se le hace. Dicha petición no necesariamente tiene el formato de una pregunta. Puede ser texto, un par de clicks en la pantalla del computador, imágenes, etc.

Asimismo, la respuesta puede ser en diferentes formatos. Cuando buscamos en Internet alguna información, estamos enviando una pregunta a un computador en otro lugar del mundo y éste nos entrega una respuesta en forma de texto, imágenes, multimedia o de algunas maneras menos ortodoxas.

-- La Máquina de las Respuestas entrega información útil.


 

Antaño, los computadores eran más difíciles de usar. La forma de hacerle preguntas requería un fuerte entrenamiento en matemáticas, electrónica y otras disciplinas afines. Los formatos de las respuestas también eran complejos de entender.

Pasaron las décadas y los computadores pasaron de ser un aparato de laboratorio a un objeto de uso diario, no muy distinto a un electrodoméstico. La mayoría de los avances que lo permitieron, consistieron en formas de preguntar y responder de manera análoga a como los humanos interactuamos entre nosotros y con objetos de uso cotidiano.

Un hito muy importante fue el primer intento de emular, en un computador, el uso de lápiz y cuaderno. El Sketchpad, creado en 1961, permitía realizar tareas en un computador usando un "lápiz de luz" y una pantalla donde se podía dibujar y señalar.

Otro evento importante fue la madre de todos los demos, en 1968. En aquella ocasión se presentaron  tecnologías que son la base de las oficinas modernas: computadores de uso personal, con pantalla, teclado y mouse, procesadores de texto, conexiones de red y videoconferencia.

Por supuesto, no hay que olvidar el Internet, cuyos orígenes se remontan a 1969. Su principal utilidad, en un principio, era crear una conexión resiltente entre computadores a través de múltiples rutas. Con la creación de la Web, en 1989, se hizo más fácil para usuarios no expertos, navegar a través de la información.

-- La Máquina de las Respuestas se volvió más amigable y conocedora


 

Con algunas excepciones, la mayoría de los avances de las siguientes décadas fueron mejoras incrementales de lo anterior. La reducción en el precio de los computadores y redes facilitó su masificación. De manera similar, cada vez más personas y organizaciones pudieron conectarse a través de Internet.

Un hito más reciente fue la creación del primer iPhone. El paradigma de interacción, basado en usar uno o varios dedos para manipular una pantalla se sigue usando, sin cambios sustantivos, en la actualidad.

El resto de la historia la mayoría lo conoce: buscadores, mensajería instantánea, redes sociales, su masificación global gracias a bajos costos, facilidad de uso y conectividad en todo lugar.

En la actualidad la "máquina" se puede guardar en el bolsillo. Cuando tenemos una duda, podemos sacarla y preguntarle.

-- La Máquina de las Respuestas responderá diligentemente.


 

Todas estas tecnologías eran argumento de ciencia ficción hace algunas décadas. Basta con mirar series de los 60s a los 90s para corroborarlo.

Probablemente la más representativa es Star Trek. Ya en su versión original de los 60s se veían aparatos no muy distintos a computadores portátiles, tabletas y celulares.

Sin embargo, entre todos esos ingenios, hay uno que aún no se ha hecho del todo realidad:

La interacción verbal con un computador usando lenguaje natural.

Muy probablemente, al lector se le vendrá a la mente Alexa, Google Assistant, Siri y un sinnúmero de otros asistentes personales, como razones suficientes para refutar lo anterior.

Si bien estos servicios hacen un trabajo bastante bueno de reconocer la voz del usuario, sus respuestas aún dejan mucho que desear.

-- La Máquina de las Respuestas, cuando le preguntamos verbalmente, aún no entiende bien lo que le decimos.

 

Sin embargo, hemos llegado a un punto de inflexión en el desarrollo tecnológico. Una nueva tecnología que puede generar cambios grandes en la forma de interactuar con los computadores:

Los Modelos Grandes de Lenguaje (Large Language Models o LLM).

En términos simples, un LLM es un software. A dicho software se le puede suministrar un texto escrito en lenguaje natural. El LLM es capaz de completarlo, "adivinando" qué palabras, frases o párrafos serían los más probables que le sucedan, de tal forma que el texto completo parezca "coherente" o sea similar a algún texto existente.

Por ejemplo, si a un LLM le damos el texto "Un elefante se balanceaba", el LLM es muy probable que responda "sobre la tela de una araña".

¿Cómo se logra esto?

La creación de un LLM requiere "entrenarlo". Dicho entrenamiento consiste en tomar muchos textos, remover palabras de ellos aleatoriamente y pedirle al LLM que intente adivinar cuál es el texto que se removió. El resultado de dicho entrenamiento, las "entrañas" del LLM, se almacena en algo denominado los "parámetros", concepto análogo a las neuronas y sus conexiones entre sí.

Mientras más parámetros tenga un LLM, mientras más textos se hayan usado en su entrenamiento, mejor debería ser su desempeño.

Esta tecnología no es particularmente nueva. La razón por la cual se popularizó en los últimos meses fue por los resultados exitosos de crear un LLM muy grande y, posteriormente, hacer un trabajo intensivo de fine tuning para mejorar sus respuestas:

ChatGPT.

Dado que ChatGPT fue entrenado con textos de muchos tipos, tiene en sus "entrañas" información de muchos dominios. Cuando le formulamos una pregunta sobre un tema, su respuesta consiste en "adivinar" cuáles serían las frases más probables que habría que escribir a continuación para responder a esa pregunta.

Si dentro de los textos que se usaron para entrenarlo hay alguno pertinente, esto se reflejará en las respuesta que entregue.

Debido a las características de este LLM, dichas respuestas tienden a estar muy bien redactadas y son particularmente convincentes.

-- La Máquina de las Respuestas, puede entender lo que le decimos verbalmente y es capaz de entregar una respuesta adecuada...

Un momento!, no lleguemos a conclusiones apresuradas!

Confieso que, cuando tuve acceso por primera vez a ChatGPT, estuve horas "conversando" con la "máquina". La experiencia se sentía muy similar a hablar con la "computadora" de Star Trek.

Mis interacciones fueron, de dos tipos: preguntas técnicas especializadas y creación interactiva de argumentos para novelas.

Para el primer tipo, me sorprendió la calidad de muchas respuestas. Cuando la pregunta es directa, no excesivamente compleja y el LLM ha sido entrenado con suficientes textos sobre el tema, las respuestas tienden a ser casi indistinguibles de las que entregaría un experto humano.

Para el segundo tipo, si bien tiende a generar historias relativamente genéricas, con un diálogo adecuado, se pueden crear argumentos bastante interesantes.

A pesar de lo anterior, ChatGPT aún tiene limitaciones importantes.

En general, no es capaz de retener información de los diálogos como lo haría un humano medianamente inteligente.

Por ejemplo, en las conversaciones técnicas, a veces no tiene en cuenta elementos de sus propias respuestas, en la elaboración de las siguientes. Para la generación de historias, tiende a olvidar detalles argumentales importantes que se han dialogado previamente, a confundir personajes o cambiarle los nombres y sus características.

Pero, por sobre todo, ChatGPT tiene todavía un gran defecto que lo diferencia de la "computadora" de Star Trek.

Cuando uno le pregunta sobre algo que no existe, o para lo cual no conoce una respuesta, ChatGPT tiende a fantasear, inventar respuestas, decir cosas claramente no veraces.

En esas situaciones, ChatGPT no es capaz de decir:

"Unable to comply".

-- La Máquina de las Respuestas aún no sabe cuándo callarse.



lunes, 12 de diciembre de 2016

Sistemas adaptativos y libre albedrío

La divagación que les contaré hoy nació de recordar mis primeros pasos en Internet, en el remoto año 1995. 

En aquella época tuve la suerte de acceder a un computador con conexión a Internet en la universidad donde estudiaba, un lujo al cual pocos tenían acceso. Desde allí pude visitar los pocos sitios web que existían en esa época, como por ejemplo la página más antigua de la Web

También tuve acceso a una cuenta en un servidor que, a través de Telnet, podía revisar correo electrónico y, a través de FTP, publicar páginas web. 

Con estas herramientas creé uno de los sitios web más antiguos del norte de Chile, el cual tenía información sobre astronomía. Su versión original se puede acceder a través de archive.org

Ciertamente, la calidad del sitio distaba mucho de lo que uno acostumbra a ver en la actualidad. Esto se explica, en parte, por los escasos conocimientos que tenía de diseño gráfico (sí, pueden reírse a mis expensas). Sin embargo, la principal razón era la limitada capacidad de los computadores y el software de la época. 

Uno de los principales inconvenientes de dicho sitio es que era estático, es decir, siempre mostraba el mismo contenido a los usuarios. Si quería hacer un cambio, como por ejemplo actualizar la página de noticias, tenía que modificar manualmente un archivo para agregar la noticia.

Pasaron los años, la tecnología mejoró y también mis conocimientos de diseño gráfico y programación. A principios del año 2000, con un grupo de amigos, armamos un sitio para poner información de nuestro pasatiempo de aquella época. Visualmente, la página era un poquito mejor que la página de astronomía (sí, pueden seguir riéndose a mis expensas). Sin embargo, la principal ventaja es que la página era dinámica.

Cada vez que uno quería agregar una nueva noticia, bastaba con ingresar a la página con las credenciales de usuario y publicar a través de un formulario (suena familiar?). Versiones posteriores de dicha página proveían funcionalidad similar al muro de Facebook, el cual podía ser actualizado por todos los usuarios suscritos a la página y cada usuario podía filtrar las noticias del "muro", de acuerdo a sus preferencias.

Actualmente, ese dinamismo ha aumentado sustancialmente. Los sitios actuales pueden ser creados dinámicamente y de manera colaborativa. Al acceder a un sitio, cada usuario voluntaria o involuntariamente manifiesta qué cosas quiere ver y qué cosas no. Los sitios web, de manera "inteligente" le muestran información más adecuada a cada uno dependiendo de sus gustos y preferencias.

Un ejemplo clásico es Nexflix. Este sitio permite ver películas y series directamente en el navegador o el celular. Además de su funcionalidad primaria, Netflix tiene una característica muy interesante. Cada vez que vemos un video, Netflix aprende qué nos gusta y qué no y luego sugiere qué series o películas nos interesaría ver e, incluso, estima el rating que le daríamos a un video particular a partir de nuestro historial de uso del sitio.

Otro ejemplo muy conocido es Amazon. De manera similar a Netflix, Amazon aprende de sus usuarios y sugiere otros productos para comprar a partir su historial de compras. Si alguien compra un saco de dormir, el sitio le sugerirá comprar colchones inflables, carpas y linternas. Si alguien compra una cámara fotográfica, el sitio le sugerirá comprar trípodes, bolsos y tarjetas de memoria.


Lo anterior nos lleva al tema de hoy, los sistemas adaptativos. En términos simples, un sistema adaptativo es aquel que modifica su comportamiento dependiendo de la información que reciba del exterior. 

Netflix y Amazon pueden considerarse sistemas adaptativos, ya que se comportan de manera diferente dependiendo de la información que reciben de cada usuario. Netflix sugiere diferentes películas a cada persona, dependiendo de los gustos y preferencias que infiera de cada una. Amazon recomienda diferentes productos dependiendo de lo que el usuario haya comprado previamente.

Netflix y Amazon son la punta del iceberg en el área de sistemas adaptativos. En los últimos años se han masificado otras aplicaciones adaptativas, cuyas capacidades son cada vez más interesantes.

Consideremos, por ejemplo, Google Now. Esta aplicación se instala en el celular y le recomienda al usuario diferentes cosas dependiendo de su localización, hora del día y otros elementos, particularmente los correos de su cuenta de Gmail.

Recuerdo que cuando lo activé en mi celular, Google Now se dio cuenta rápidamente cuál era la dirección de mi trabajo y de mi casa, a partir de la localización reportada por el celular a diferentes horas del día. Más aún, en las mañanas me indicaba cuánto me iba a demorar en llegar al trabajo y, en las tardes, cuánto me iba a demorar en llegar a mi casa.

La cosa se puso un poco más tenebrosa impresionante cuando empezó a capturar la información de mis itinerarios de vuelo que llegaban a mi correo electrónico, luego de comprar pasajes de avión. 

Al principio, me avisaba unos días antes del vuelo para que no me olvidara de hacer el check-in. Sin embargo, lo que me hizo tomar el tema en serio fue un día que iba a viajar en avión y la aplicación me dice:

Debes salir dentro de 10 minutos si quieres llegar a tiempo al aeropuerto.

Si bien en términos tecnológicos, lo anterior no es particularmente complejo. Lo realmente preocupante son las proyecciones de esta tecnología en un futuro cercano. 

Si los sistemas adaptativos siguen mejorando a la tasa actual, cabría esperar dentro de unas décadas, sistemas que nos hagan recomendaciones sobre casi cualquier aspecto de nuestras vidas, inclusive, que pudieran tomar las decisiones en lugar de nosotros.

Las motivaciones para hacer sistemas adaptativos que tomen decisiones son muchas, ya que en varios escenarios podrían ser muy beneficiosas. Por ejemplo, las tecnologías asociadas a Quantified Self permitirían a una persona saber con mucho detalle su estado se salud. Un sistema adaptativo combinado con lo anterior podría, por ejemplo, despachar medicamentos automáticamente para tratar ciertas condiciones de salud del usuario o llamar automáticamente a un médico o un servicio de urgencia si estima que el usuario podría tener un problema de salud dentro de unas horas o días.

Además del ámbito médico, otras aplicaciones de los sistemas adaptativos serían aquellas enfocadas a la satisfacción de los deseos de un usuario. Este es un escenario inquietante, precisamente por la capacidad potencial de dichos sistemas de anticipar y satisfacer dichos deseos.

A primera vista podría no parecer tan preocupante. Sería como tener un sirviente que siempre está preocupado de mantenernos contentos. Dicho sirviente sería, además, un psicólogo, médico, psiquiatra altamente competente que nos conocería mejor que nosotros mismos. Si la persona quisiera tomar una limonada, no tendría que decirlo; el sistema adaptativo ya lo habría anticipado y tendría la limonada ya preparada y heladita. Si la persona empezara a pensar en un par de zapatos nuevos, el sistema ya los habría comprado en una tienda online. 

El principal problema son las implicaciones que tendría para el libre albedrío. El libre albedrío es el poder que tiene uno de tomar decisiones, las cuales requieren acciones de parte nuestra. Cuando dejamos que un sistema adaptativo satisfaga nuestros deseos, estamos removiendo las acciones que deberíamos ejecutar producto de nuestras decisiones.

En otras palabras: Si en respuesta a nuestras decisiones, las acciones las realiza un sistema adaptativo, el libre albedrío perdería su razón de ser.

Más aún, si un sistema adaptativo fuera capaz de medir mucha información sobre nosotros y tomar decisiones a partir de esa información, también estaría sustituyéndonos en el proceso de toma de decisiones.

En el momento en que un sistema adaptativo decidiera por nosotros, estaríamos renunciando al libre albedrío.

Para la mayoría de la gente que valora la posibilidad de decidir sobre sus propias vidas, este escenario sería un futuro horrible. 

Las consecuencias ya ha sido exploradas por autores de ciencia ficción. Un ejemplo emblemático es La Raza Feliz, donde las máquinas se encargan de satisfacer todas las necesidades de los seres humanos.

Sin ánimo de incluir spoilers, les cuento que el final no es feliz.

Sólo queda preguntarse, ¿cómo evitar semejante distopia?

Difícil respuesta, considerando que Google Now me está diciendo que hay menos tráfico que hace un rato y sólo demoraría 20 minutos en llegar a mi casa. 

Creo que terminaré aquí mi divagación.

sábado, 13 de febrero de 2016

Sinestesia e interfaces cerebro-computador: ¿Hasta donde se asimilan las percepciones de lo físico y lo digital?

Hace dos navidades me regalaron un Theremin, un instrumento musical muy poco convencional. El Theremin es un instrumento electrónico que genera los sonidos dependiendo de la distancia de la persona hacia dos antenas que salen del instrumento. Una de las antenas controla la frecuencia y la otra el volumen. Esto produce un efecto escénico interesante, ya que el intérprete en ningún momento entra en contacto físico con el instrumento y parece estar tocando "en el aire".

Si bien aún no soy capaz de usarlo con la precisión de una persona experta, poco a poco estoy aprendiendo a tocar notas sin desafinar.

Al margen de mis propias habilidades musicales, un efecto lateral de aquel regalo fue el renacimiento de mi interés por la música electrónica, particularmente por la síntesis de sonido.

Los instrumentos tradicionales difieren sustancialmente de los instrumentos electrónicos. Los primeros utilizan fenómenos físicos más "mundanos" para generar sonido (corrientes de aire, oscilación de cuerdas, percusión). Los segundos, en cambio, utilizan circuitos electrónicos, los cuales generan y procesan señales eléctricas que son, finalmente, traducidas a sonidos.

Uno de los instrumentos electrónicos más populares de las últimas décadas es el sintetizador. Lo interesante de este artefacto es la cantidad enorme de combinaciones y modificaciones que permite hacerle a una señal de sonido. Mientras los instrumentos tradicionales generan sonidos con timbres relativamente restringidos, los sintetizadores tienen una variedad que depende, principalmente de la habilidad del músico y su imaginación. No en vano, un sintetizador profesional puede ser bastante difícil de configurar y utilizar.

Cuando se trata de sonidos, sintéticos o naturales, hay un aspecto que tiene mucha relación y es la forma en que el cerebro humano procesa los estímulos externos y los combina con experiencias propias. Un fenómeno particularmente interesante es la Sinestesia, aquella capacidad del cerebro de mezclar las percepciones de diferentes sentidos.

En lo personal, "sufro" de un grado muy alto de Sinestesia, particularmente en la asociación entre sensaciones auditivas y otros sentidos. Al igual que muchas personas que tienen esta característica, mi actitud hacia la música y, en especial, al sonido de los instrumentos, es particularmente favorable.

La Sinestesia es difícil de explicar a personas que no la tienen. En mi caso particular, los sonidos pueden tener color, forma, sabor, olor, textura y, en algunos casos, posición en un espacio abstracto. Por ejemplo, el sonido de un violín lo percibo con la forma y textura de una cinta de regalo desenrollada, con colores desde el rojo hasta el café, dependiendo de la frecuencia. El sonido de un estornudo lo asocio a una forma semejante a una concha de ostión de color calipso, mientras que el de la tos es como una mancha de tinta negra irregular. Algunos sonidos de sintetizadores me hacen evocar el sabor de una alcachofa untada en vinagreta, mientras que los instrumentos y voces usadas en rock pesado me saben a frutas ácidas liofilizadas.

La sinestesia es, sin lugar a dudas, una experiencia sumamente interesante.

Lo anterior tiene implicaciones importantes en la música y los sonidos de los instrumentos. Muchas personas, a menudo basadas en este concepto, exploran formas alternativas de hacer música, por ejemplo la Música Policromática. Otras van más allá de lo musical, explorando la esencia de los sonidos, a menudo en formas interpretadas como cacofonía por la gente más conservadora. En esos casos, cobra más importancia la experiencia sinestésica del sonido, por sobre la armonía, la estética y el ritmo.

En otras palabras, estas ramas esotéricas de la síntesis de sonido son el equivalente auditivo de la cocina molecular.

Todo lo anterior nos lleva al tema principal de esta publicación: las implicaciones que tendría la Sinestesia en el futuro.

Hace unos años atrás hable en este blog sobre una interfaz cerebro-computador, un artefacto que, en un futuro relativamente cercano, podría conectar en forma directa las neuronas de una persona con un computador. Tal conexión sería órdenes de magnitud más veloz y completa que las actuales interfaces, como el teclado, ratón, monitor o, incluso, la realidad virtual. En aquella publicación analicé los escenario de uso de estas interfaces por los "nativos cyborg", niños que desde pequeños estarían conectados a un computador a través de este mecanismo.

Si una persona creciera, desde su niñez, con un computador conectado a su cerebro, cabría esperar que la integración entre la parte orgánica de la persona y el hardware fuera muy alta. En otras palabras, si en una persona normal, el desarrollo del cerebro estaría asociado a una mayor conexión, coordinación e integración entre sus neuronas orgánicas, en un "nativo cyborg", dicho fenómeno se daría en forma similar, con los componentes de hardware del computador.

¿Qué relación tiene lo anterior con la Sinestesia?

Podemos asumir, en forma razonable, que el fenómeno de Sinestesia se produce por una integración inusual entre las partes del cerebro que procesan diferentes percepciones sensoriales. En una persona normal, la Sinestesia estaría asociada a los sentidos más comúnmente utilizados: vista, oído, gusto, olfato, tacto. Un "nativo cyborg", en cambio, no estaría limitado a esos sentidos, sino a cualquier sensor que se pueda conectar a un computador. Un "nativo cyborg" podría ver en otras longitudes de onda, escuchar ultrasonidos o infrasonidos, "sentir" la información proveída por otros sensores de hardware: giróscopos, interruptores, etc. Podría, incluso, percibir la información de sensores de software, los cuales miden elementos muchos más abstractos: la velocidad de una conexión, la latencia de una señal, el tamaño de un paquete de información en la red, etc.

Bajo esa premisa, surge una pregunta sumamente interesante.


¿Cómo se manifestaría la Sinestesia en los "nativos cyborg"?


En este punto cualquier cosa que diga sería como un ciego tratando de entender una pintura de Monet. Dado que nuestros sentidos actuales son tan limitados, lo único que queda es hacerse más preguntas.

¿Qué sabor tendría un número entero de 32 bits? Cuál sería la textura de una operación aritmética sobre datos de punto flotante? Cuáles serían las imágenes que evocaría una archivo MP3 muestreado a 48kHz?

Por sobre todo, ¿qué otras sensaciones que desconocemos generarían las percepciones de todos los posible sentidos que tendría a su disposición un "nativo cyborg"? Probablemente ninguno de nosotros será capaz de contestar a esas preguntas.

Por el momento solo puedo decir que el sonido del Theremin me sabe a spaguetti con salsa de tomate.




miércoles, 29 de julio de 2015

Cuando la palabra "Robot" sea políticamente incorrecta: Implicaciones de un futuro sin Singularidad Tecnológica.

En varias publicaciones previas he discutido la posibilidad de un futuro donde ocurra una Singularidad Tecnológica, aquel momento en el cual una Inteligencia Artificial (IA) Fuerte sea capaz de automejorarse exponencialmente. Este escenario tiene diversas implicaciones, algunas buenas y otras no tanto, las cuales espero seguir discutiendo en publicaciones futuras.

Un tema recurrente en algunas personas que tratan este tema es suponer que la Singularidad Tecnológica es inevitable, algo que tarde o temprano sucederá. Muchos consideran la ocurrencia de la Singularidad Tecnológica casi un dogma, algo que va a ocurrir en el futuro en forma similar al retorno del Mesías.

Sin embargo, es muy importante tener en cuenta que la Singularidad Tecnológica no es una certeza, sino una posibilidad, un escenario potencial. 

En la práctica, la Singularidad Tecnológica depende de varias condiciones, principalmente relacionadas con la velocidad del desarrollo tecnológico y las leyes naturales. 

Por un lado está la Ley de Moore, la cual postula que la densidad de componentes electrónicos en los circuitos integrados se duplica cada 18 meses. En términos burdos, se puede entender como que la capacidad de los computadores se duplica al transcurrir cada intervalo. Una condición para propiciar la Singularidad es que la Ley de Moore se cumpla durante el suficiente tiempo para producir un hardware capaz de soportar una IA Fuerte.

Por supuesto, lo anterior no es suficiente para asegurar el surgimiento de una Singularidad. Otro factor importante es el desarrollo científico y tecnológico en torno a Inteligencia Artificial, el cual debería progresar sin contratiempos para, en algún momento futuro, crear el software de una IA Fuerte.

Las dos condiciones anteriores, mejoramiento del Hardware y del Software, son los elementos básicos para asegurar el surgimiento de la Singularidad Tecnológica en el futuro.

Como corolario a lo anterior habría que agregar la siguiente condición: una vez surja una IA Fuerte, las leyes físicas deberían permitir, efectivamente, la automejora exponencial requerida para producir una Singularidad.

Cualquiera de las tres condiciones anteriores podrían no cumplirse. Particularmente la primera y tercera están fuertemente restringidas a parámetros físicos de nuestro universo. Por ejemplo, la ley de Moore podría dejar de funcionar una vez se llegue a los límites físicos impuestos por el tamaño partículas subatómicas y la velocidad de la luz. Los primeros restringen el nivel máximo de miniaturización de los componentes electrónicos, mientras que el segundo limita la velocidad de transmisión de información entre ellos.

La segunda condición es aún más incierta, dada la dificultad de predecir con precisión el rumbo que puede tomar la generación de nuevo conocimiento.

Independiente de la factibilidad de una Singularidad Tecnológica, hay algo sobre lo cual podemos tener una certeza razonable: Es posible crear una inteligencia del nivel de la humana.

La prueba somos nosotros mismos.

El escenario que quiero discutir hoy es uno donde sí sería posible crear una Inteligencia Artificial Fuerte, pero ésta no sería capaz de automejorarse de manera sustancial. En otras palabras, la Singularidad Tecnológica no se produciría, pero sí existirían entidades con una inteligencia similar a la nuestra.

Este tema ha sido ampliamente tratado en la Ciencia Ficción, donde podemos encontrar varias posibles alternativas: desde entidades inteligentes incorpóreas viviendo en Internet, hasta seres físicos conscientes. A estos dos tipos de entes los llamaremos, por el momento, "Robots Inteligentes".

La existencia de los Robots Inteligentes produciría cambios sustanciales a la sociedad. En algunos casos se transformarían en competidores de los seres humanos; en otros, no llegarían a ser más que esclavos.

Quizás la situación más probable sea una que mezcle las dos anteriores.

En sus inicios, el surgimiento de los Robots Inteligentes derivaría de un fin utilitario. En otras palabras, serían inicialmente concebidos por los seres humanos para resolver nuestros propios problemas.

Sin embargo, en la medida que dichas entidades sean más y más conscientes de su lugar en el universo, podrían adquirir motivaciones similares a los seres humanos. El problema es cuando dichas motivaciones dejaren de estar alineadas con los fines utilitarios para los cuales fueron inicialmente concebidas.

En otras palabras, el problema es la posibilidad de emancipación y conflicto con los seres humanos.

Lo anterior también ha sido ampliamente tratado en la literatura, desde Frankenstein a Terminator y a la trilogía de Calibán. Dicha emancipación puede producir efectos similares a algunas revoluciones pasadas, cuando grupos grandes de personas han intentado obtener su independencia o su libertad.

Es aquí cuando retomo la palabra "Robot". Dicho término se utiliza por primera vez para referirse a entidades inteligentes en la obra de teatro Checa Rossum’s Universal Robots. La palabra Checa "Robot" puede traducirse como "siervo" o "esclavo". Si bien esta historia usa el término "Robot" para referirse a una suerte de clones humanos hechos de materia orgánica, obras literarias posteriores lo utilizan para referirse a entidades mecánicas inteligentes.

Volviendo al tema de la emancipación, si los Robots Inteligentes logran su independencia y la humanidad no es exterminada o subyugada en el proceso, pueden ocurrir dos situaciones: que los Robots terminen formando su propia nación o se integren a la sociedad humana.

En ambos casos, los Robots y los humanos tendrían que seguir interactuando. 

Si la inteligencia que subyace a los Robots fuera similar a la nuestra, cabría esperar que compartan nuestra sensibilidad. En ese sentido, la palabra "Robot", cuyo significado original es "esclavo", podría resultar siendo ofensiva para entidades que recién hayan obtenido su libertad.

Si este escenario ocurriera, en el futuro la palabra "Robot" sería políticamente incorrecta. 


¿Qué palabra tendremos que usar en su lugar?


La palabra "Androide" no es muy adecuada, ya que su raíz etimológica significa algo similar a un hombre. Si los ex-robots fueran asexuados, esta palabra no tendría mucho sentido.

La palabra "Autómata" también tiene algunos inconvenientes, ya que se puede interpretar como algo que funciona por sus propios medios, sin tener, necesariamente, pensamientos de orden superior.

La palabra "Replicante" podría ser aún más inadecuada, ya que seguiría manteniendo la idea de entidades creadas "a imagen y semejanza" de los humanos. En forma similar, la palabra "Sintético" tiene la connotación de algo que no es real.

En fin, al terminar el conflicto, la emancipación y la posible integración entre la sociedad humana y los ex-robots, es difícil saber cómo querrán ser denominados.

Quien sabe, probablemente la palabra más adecuada sea, simplemente, "Persona".

viernes, 19 de junio de 2015

Realidad sintética e implicaciones de una Inteligencia Artificial Fuerte

Hace un tiempo atrás vi la segunda película del Planeta de los Simios (el último remake). Algo que me sorprendió fue la calidad de las gráficas 3D que utilizaron para simular los simios.

Es la primera película donde no pude diferenciar entre los personajes sintéticos y los personajes reales. Los renderizados de los simios me parecieron prácticamente indistinguibles de las imágenes captadas por la cámara. Basta recordar la última escena, donde sale un close-up de la cara del protagonista, para constatar que dicha tecnología está muy avanzada. 

Lo anterior tiene una serie de implicaciones importantes.

Desde sus comienzos, el cine se ha usado como una forma de presentar una realidad alternativa a la del espectador, para situarlo en universos paralelos donde pueden ocurrir cosas plausibles y otras no tanto. El éxito de la industria cinematográfica se debe, principalmente, al deseo del público de trasladarse temporalmente a esos mundos paralelos.

Esta necesidad de alienación ha impulsado el desarrollo de otras tecnologías similares: videojuegos ultrarrealistas y realidad virtual (RV). En forma similar al cine, los videojuegos y la realidad virtual deben parte de su éxito al deseo de las personas de experimentar situaciones que de otra forma no podrían conocer, ya sea debido a su alto riesgo o, simplemente, porque las leyes de la física o el azar no lo permiten.

Llamemos a esto, Realidad Sintética.

Sería razonable pensar que, dentro de unos años, las tecnologías de realidad sintética permitan engañar totalmente al espectador, en forma similar a como, durante 2 horas de película, los simios me parecieron de carne y hueso.

En otras palabras, supongamos que en el futuro exista un dispositivo capaz de engañar nuestros sentidos con una Realidad Sintética Total, la cual sea indistinguible del mundo real para el usuario no experto.

Con una tecnología así, pueden pasar muchas cosas. 

La que muchos se imaginan es una una distopía estilo Matrix, donde toda la humanidad estaría sumergida en una realidad sintética compartida. Ese escenario es algo que podría pasar, aunque por motivos un poco más plausibles que el utilizar a los seres humanos como fuente de energía.

El escenario que quiero discutir es similar: uno que involucraría una Inteligencia Artificial Fuerte y motivos bastante diferentes a los de Matrix.

Para comenzar,  voy a hacer una aseveración polémica: La mayoría de los problemas del mundo se deben a que las personas quieren satisfacer sus deseos a costa del resto.

Pensemos, por ejemplo, el caso de las guerras. Una nación quiere algo que tiene la otra: territorio, recursos, etc. y la invade para obtenerlos. La nación atacante quiere satisfacer sus deseos de poder y riqueza a costa de otra nación.

Existen otros ejemplos más mundanos: El delincuente que le roba a otra persona quiere satisfacer sus deseos de riqueza a costa de los recursos de otra persona. En una empresa, un mal gerente se vale de sus subordinados para satisfacer sus ansias de poder y autoestima. Un empleado perezoso se vale del trabajo de otros para satisfacer sus deseos de hacer nada.

Sin querer argumentar mucho más, considero evidente que muchos problemas del mundo surgen de este tipo de situaciones.

Consecuentemente, uno se pregunta: ¿Cómo satisfacer los deseos de cada persona sin que los demás se vean afectados negativamente?

A primera vista, la Realidad Sintética Total podría ayudar a resolver ese problema. ¿Alguien quiere viajar a París de vacaciones y no tiene plata? No necesita robarle plata a nadie. Conéctese al computador y simule un viaje a París. ¿Quiere salir con una actriz/actor famoso pero no
tiene posibilidades? Simúlelo con su dispositivo de realidad sintética.

A muchos esto les parecería insuficiente o inadecuado, por el simple hecho que vivir la "verdadera realidad" es un aliciente bastante fuerte. Esta situación podría limitar severamente la aplicabilidad de esta tecnología para resolver los problemas del mundo.

Sin embargo, hay que tener en cuenta otro elemento importante. Estamos asumiendo que la Realidad Sintética Total es indistinguible de la "verdadera realidad". Luego, sería relativamente fácil engañar a una persona para que no note que ha sido trasladada a dicha realidad. Supongan, por ejemplo, que una persona se sumerge en una realidad sintética y, dentro de ella, le hacemos creer que se ha desconectado y vuelto al mundo real. La persona seguiría en el mundo simulado creyendo que está experimentando la "verdadera realidad".

Las implicaciones de esto son muy interesantes. ¿Qué hacer con un sicópata sediento de sangre? Engáñelo para que se conecte a una realidad sintética y dejará de molestar. ¿Que hacer si hay un país gobernado por corruptos que lo único que quieren es enriquecerse a costa de los que pagan impuestos? Enchúfelos al computador y serán felices teniendo un país completo de entes digitales a los cuales explotar.

Por supuesto, la factibilidad de conseguir lo anterior depende de algunos factores: (a) Determinar que una solución de ese estilo sea éticamente viable, (b) poner de acuerdo a mucha gente para engañar a un sujeto con una realidad sintética y (c) que el dispositivo para generar la realidad sintética sea fácil de implantar en muchos individuos de manera imperceptible.

El factor (a), por obvias razones, requeriría una larguísima discusión que estaría fuera del alcance de este artículo. Junto con el factor (b), hacen poco probable que la Realidad Sintética se use en el mediano plazo para los propósitos planteados.

Sin embargo, lo anterior parte del supuesto que serían los seres humanos los cuales tengan la potestad exclusiva para crear esta tecnología y decidir a quiénes sumergir en una realidad sintética.

En el caso que una Inteligencia Artificial Fuerte (llamémosle IA de ahora en adelante) surja dentro de los próximos años, entraría en juego una entidad con dos características importantes. Primero, debido a la Singularidad Tecnológica, podría desarrollar rápidamente la tecnología requerida para una Realidad Sintética Total. Segundo, al ser una entidad no humana, podría no estar restringida a los cánones éticos de nuestra sociedad.

Aunque los objetivos y motivación de dicha IA son difíciles de predecir, es muy probable que el Complejo Frankenstein afecte de manera importante sus acciones. El Complejo Frankenstein hace referencia al miedo y odio de los humanos hacia una creación de esa naturaleza, lo cual generaría deseos de destruir la IA. Consecuentemente, la IA intentaría protegerse de los seres humanos, ya sea ocultándose de ellos, destruyéndolos o neutralizándolos. 

En otras palabras, la IA estaría alineada con la idea de controlar, directa o indirectamente, los deseos de los seres humanos, no para mejorar el mundo, sino para su propia sobrevivencia. 

Para una IA, la Realidad Sintética Total sería un arma increíblemente efectiva. Esto se debe a que, en muchos casos, ni siquiera sería necesario sumergir a todos los seres humanos en dicha realidad. Sólo bastaría manipular de forma sutil aspectos de la "realidad verdadera", en forma más refinada a como lo hacen actualmente los medios de comunicación.

La humanidad podría ser engañada de varias maneras. Una forma sutil sería ocultando información clave para hacernos creer que la IA, simplemente, no existe. Otro menos sutil sería hacernos creer de ciertos hechos que desencadenen hostilidades progresivas, hasta que los humanos se exterminen totalmente en una guerra. 

Desafortunadamente, la primera opción tiene el inconveniente que, sin una acción que neutralice efectivamente a los seres humanos, la IA estaría siempre en riesgo de ser descubierta. La segunda tampoco sería una buena idea, ya que la propia IA podría ser destruida como daño colateral. 

Si yo estuviera en el lugar de la IA, la opción que considero más efectiva es la de "migrar" a todos los seres humanos a una realidad sintética total. Sólo a través del control total de los deseos y las acciones de los seres humanos, una IA podría asegurar su propia sobrevivencia.

La forma de hacerlo ya la discutí previamente. Aunque, logísticamente, es un poco complicado hacerlo para tanta gente, no es imposible. Quien sabe si todo lo que cuento en este artículo ya ha sucedido y nos encontramos inmersos en una realidad sintética... 

¿Cómo saberlo? 

Tocaría tomar la píldora roja.



jueves, 21 de agosto de 2014

Patrones, Algoritmos y el ocaso de Hollywood

En Ingeniería de Sistemas la palabra "algoritmo" es parte del pan de cada día.

En términos muy simples, un algoritmo es una secuencia de acciones que se realizan para conseguir un objetivo. Cuando nos centramos en Ingeniería de Sistemas, los algoritmos normalmente son ejecutados por computadores para resolver un problema, desde calcular los sueldos de empleados en una empresa hasta dibujar los personajes de un videojuego.

Otra palabra muy común en nuestra disciplina es "patrón".

Un patrón es algo que se repite de manera similar en muchas situaciones. En Ingeniería de Sistemas, un patrón es un grupo de problemas similares, los cuales pueden resolverse de una misma forma, normalmente a través de un algoritmo. Como buen ingeniero, uno está permanentemente identificando patrones en todos lados y buscando algoritmos que permitan resolverlos.

Inevitablemente uno termina encontrando patrones en lugares inesperados. Uno muy peculiar es el caso de las películas Hollywoodenses.

¿Se han dado cuenta que los trailers de películas, particularmente las de acción, siguen más o menos la misma estructura?

0. Logos de las compañías que crearon la película
1. Secuencias cortas, a menudo con sonido de timbales de fondo, intercaladas con diálogos que introducen la historia de la película con un tono de intriga.
2. (Opcional) Escena sin música de fondo, donde los protagonistas realizan un diálogo que describe el tema de la película
3. Música que empieza a subir de tono progresivamente, mostrando la pelea entre protagonistas y antagonistas
4. Boom!... Silencio...
5. Secuencia sin música con frases cortas de los protagonistas
6 Repita pasos 3-5 si se quiere hacer más "intrigante" el trailer
7. Logo de la película con música rimbombante, indicando la fecha del estreno

Después de ver tantos trailers similares, uno empieza a aburrirse. Al menos se espera que la película sea novedosa e inesperada.

Sin embargo... desilusión...

Las películas también siguen patrones similares. Más aún, estos patrones son ampliamente conocidos y difundidos.

La "biblia" de los guionistas es el libro Save the Cat!. Este libro describe, paso a paso, las escenas que deben realizarse, cuánto deben durar y qué cosas deben narrar. Más aún, los mismos autores del libro venden un software que permite organizar el guión basado en el "algoritmo" propuesto por el libro.

Si uno quisiera escribir un guión taquillero, bastaría con seguir los siguientes pasos:
1. Leer el libro
2. Comprar el software
3. Estructurar el guión siguiendo el "algoritmo" de Save the Cat!
4. Escribir en detalle los diálogos y situaciones que ocurren en cada escena
5. Ganar dinero!

Ciertamente, el paso 4 sigue siendo el más complicado y es la razón por la cual no cualquier persona o computador puede ser guionista o escritor.

Sin embargo, hay dos variables que pueden cambiar esa situación: (a) la velocidad de "estupidización" del espectador promedio y (b) la capacidad creciente de los computadores para automatizar tareas complejas a través de algoritmos.

Respecto a la variable (a), es razonable pensar que, con una educación que reduce progresivamente la capacidad de pensamiento crítico, las masas terminen tarde o temprano aceptando cualquier película que se les ponga por delante. Sólo basta que tenga muchas explosiones, efectos especiales y sexo.

Respecto a la variable (b), estamos viendo progresos incipientes en la capacidad narrativa de los computadores. Un caso emblemático es la aplicación SCIgen, la cual fue capaz de engañar a un comité de programa de una conferencia, para publicar un artículo generado de manera aleatoria.

Si bien, SCIgen crea artículos "científicos" en lugar de narraciones Hollywoodenses, esta situación de todas formas es relevante para nuestro tema de discusión.

El hecho de que dicho comité haya sido lo suficientemente "descuidado" para aceptar un artículo de ese estilo, reafirma el hecho que, para crear un "buen" guión Hollywoodense, sólo basta con que las variables (a) y (b) converjan. En otras palabras, no es necesario que los algoritmos para crear historias mejoren mucho si la velocidad de estupidización del espectador promedio es lo suficientemente alta.

Bajo esos supuestos, sería razonable pensar que en un futuro no muy lejano sean computadores los que escriban los guiones de las películas, sin importar que dichos guiones sean una porquería.

Sin embargo, hay una tercera variable en juego.

Si tenemos un programa de computador que escribe la historia y describe proceduralmente todas las escenas y los diálogos, sería razonable utilizar ese guión como entrada para otro programa. Uno que dibuje las escenas usando gráficos 3d y sintetice sonidos ambientales y las voces de los actores.

Los gráficos 3D son lo suficientemente realistas como para engañar a la mayoría de las personas. La síntesis de sonidos y voces aún está en pañales, pero podría mejorar si se invierte suficiente esfuerzo investigativo.

En consecuencia, es razonable pensar que dentro de unas décadas las películas puedan ser completamente generadas por computador. Puede llegar un momento en que un programa, a un precio razonable, pueda crear historias divertidas y narrarlas con imágenes y sonido.

La historia Someday de Asimov podría hacerse realidad.

Cuando tal programa aparezca, ¿Qué será de Hollywood sin las hordas de espectadores que preferirán quedarse en su casa viendo una historia igualmente entretenida, generada por un computador?

Se vienen tiempos difíciles para la industria del cine.