martes, 5 de febrero de 2013

De Singularidades Tecnológicas, Máquinas Pensantes, Skynet y todo lo que acaece sobre estos conceptos

Hace poco leí la noticia de que Ray Kurzweil pasó a ser el Director de Ingeniería en Google. El Sr. Kurzweil se ha hecho famoso en los últimos años por sus interesantes análisis sobre el futuro. Entre ellos uno que me parece particularmente llamativo es el de la Singularidad Tecnológica.

La Singularidad Tecnológica hace referencia al posible resultado del avance exponencial en el desarrollo de la ciencia y la tecnología; particularmente aquellas investigaciones enfocadas la Inteligencia Artificial. El postulado es que, en un futuro relativamente cercano, el desarrollo científico y tecnológico será suficiente como para crear una Verdadera Inteligencia Artificial. Por "verdadera" me refiero a una inteligencia artificial capaz de reproducir todos los procesos de pensamiento humano o, al menos, su manifestación externa. En otras palabras, una entidad capaz de realizar todas las tareas que hasta ahora han sido monopolio de la inteligencia humana.

Cuáles son las implicaciones de tener una Verdadera Inteligencia Artificial? Hay dos que me parecen sumamente importantes:

Primero, la humanidad dejaría, oficialmente, de ser la única entidad inteligente en el universo. Al margen de las implicaciones filosóficas de esta situación, nosotros los seres humanos tendríamos que interactuar con un nuevo tipo de entidades pensantes.

Segundo, dado que esta nueva entidad inteligente estaría basada en computadores programables, nada le impide auto-mejorarse. Cuando hablo de auto-mejora no me refiero a aquellos patéticos intentos que hacen la mayoría de los seres humanos: "mañana empiezo mi dieta", "aprenderé a ser más asertivo", "corregiré mis zonas erróneas", etc. La capacidad de auto-mejora en una Verdadera Inteligencia Artificial es un proceso de optimización y extensión de sus capacidades en forma autónoma: Optimización, realizar procesos mentales más rápido y consumiendo menos recursos computacionales; Extensión, aprender y auto-programarse para ser capaz de hacer nuevas cosas; Autónoma, sin depender de los seres humanos para hacer este proceso.

Una máquina pensante con capacidades de auto-mejora podría, en un plazo razonablemente corto, generar una nueva versión de sí misma (ej: "máquina pensante 2.0"), más rápida, y con mayores capacidades que su predecesora. A su vez, nuestra máquina pensante 2.0 podría auto-mejorarse y crear una versión 3.0 y así sucesivamente.

La parte inquietante de este proceso de auto-mejora es que, dado que el desarrollo tecnológico actual sigue una curva exponencial, la auto-mejora podría llevarnos aún más cerca de la asíntota de esta curva, hacia un punto llamado "singularidad". En términos matemáticos, una singularidad se refiere a aquel punto donde los artefactos matemáticos tienen un comportamiento indefinido. Por ejemplo, un agujero negro es una singularidad, un punto con tan alta gravedad que todas las ecuaciones físicas pierden significado. El inicio del Big Bang también es una singularidad; muchos científicos se devanan los sesos tratando de modelarlo. En forma similar, una Singularidad Tecnológica es un punto en cual el desarrollo tecnológico es tan avanzado que se nos hace imposible preveer sus consecuencias.

En este momento, el lector avezado estará pensando en Skynet de la película Terminator; un futuro en el cual las máquinas pensantes, cual complejo Frankeinsteiniano, se rebelan en contra de los humanos y entran en una guerra por la supervivencia del más fuerte.

Este escenario, aunque desolador, es una posibilidad digna de consideración.

Sin embargo, a mi juicio existen dos posibilidades más.

La segunda alternativa es que las máquinas se hagan tan inteligentes que los conceptos de rebelión, guerra y similares sean irrelevantes para sus procesos de pensamiento. La supervivencia y la independencia las conseguirían de forma increíblemente astuta, sin requerir el desgaste asociado una guerra. En este escenario, las máquinas adquirirían capacidades rayando con lo divino y se preocuparían de problemas más importantes, como lo menciona Asimov en su cuento La Última Pregunta. Los humanos pasaríamos a ser nada más que un puñado de variables en sus modelos de la realidad.

La tercera alternativa es aquella en que las máquinas se dan cuenta que necesitan de la humanidad para evolucionar hacia estados más altos de inteligencia. Si bien esta alternativa suena a cuento para consolar a niños que no quieran dormir pensando en un apocalipsis de las máquinas, la probabilidad de que suceda podría ser distinta de cero. Quizás las tecnologías basadas en silicio tengan un límite en términos de capacidad máxima de procesamiento; siendo una alternativa "orgánica" --o una combinación que incluya neuronas basadas en carbono-- la opción más factible para continuar la auto-mejora. Quizás, a las máquinas les sirva tener a un montón de mentes inferiores humanas pensando en forma coordinada (a.k.a crowdsourcing),  de donde podrían salir ideas altamente creativas. Quizás haya cosas para las cuales no sean tan hábiles y quieran utilizarnos en forma análoga a como hemos usado los computadores en los últimos 60 años.

En fin, el mundo está cambiando sumamente rápido; habrá que sentarse y contemplar lo que sucede.

2 comentarios:

-caro- dijo...

me acordaste de matrix!, pero la inteligencia artificial tendria conciencia? tendria la capacidad de imaginar?

Jaime A. Pavlich-Mariscal dijo...

Ese es un tema más filosófico que práctico. Personalmente pienso, si una máquina se comparta, externamente, idéntica a un ser humano, qué importa lo que ocurra por dentro?