Monday, May 23, 2016

Súper Inteligencia Artificial: Inmortalidad o Extinción (Parte I)


En algún punto de la carrera por la inteligencia artificial habremos logrado que las computadoras alcancen el mismo nivel de inteligencia que un ser humano. Viviremos entonces en un mundo ideal en el que coexistiremos con las computadoras, trabajando hombro a hombro y evolucionando junto a ellas como nuestro par… O quizás no?
El principal problema que las computadoras alcancen el mismo nivel de inteligencia que los seres humanos, radica en las diferencias básicas del hombre contra la máquina. Los microprocesadores son hoy en día infinitamente más rápidos en velocidad de cómputo que nuestras neuronas; esta habilidad de las computadoras para comunicarse a la velocidad de la luz óptica, junto a su mayor capacidad de almacenamiento (nuestro cerebro tiene limitada su expansión dentro de la bóveda craneana), resulta en una mayor precisión, duración y performance de la maquina sobre el humano. 
La posibilidad de editarse, actualizarse y optimizarse a sí mismas, haría que las computadoras alcancen nuestra capacidad cerebral rápidamente, sobrepasando al humano en cualquier rama de la ciencia, arte, innovación, etc. Dejándonos muy atrás no solo individualmente, sino también colectivamente como especie. La Inteligencia Artificial General (AGI por sus siglas en inglés) irremediablemente terminaría por mejorarse a sí misma hasta sobrepasar nuestro coeficiente intelectual en un millar de veces, alcanzando un nivel de Súper inteligencia Artificial (ASI por sus siglas en inglés). Esta superioridad intelectual con respecto al humano, sería similar a la diferencia entre nuestra inteligencia y la inteligencia de una hormiga. 

Lo intenso de este concepto se centra en la capacidad de auto-renovación que un sistema de ASI tendría. Las computadoras no tendrían una frontera límite para seguirse innovando, pasarían solo un tiempo en nuestro nivel average de inteligencia para pronto pasar al nivel de Albert Einstein, y al llegar a este nivel en cuestión de minutos hacer otro salto que haría ver la capacidad cerebral de Einstein como la de un ratón. Estos saltos cada vez serían más grandes y rápidos hasta crear una explosión de inteligencia que los científicos conocen como “singularidad” tecnológica.
Inteligencia de tal magnitud es algo que no podemos realmente concebir, en nuestro mundo si tienes un IQ de 75 tienes una discapacidad intelectual, mientras que si tienes un IQ de 130 eres un genio. Qué pasaría con una computadora que tenga un IQ de 14,567? Entender su conocimiento sería como el querer explicarle a un insecto la teoría de la mecánica quántica. 
Con la inteligencia viene como resultado el poder, una maquina con siete mil veces mayor inteligencia que la nuestra seria el ser más inteligente en la historia del planeta Tierra. Si nuestros pequeños cerebros han podido inventar conceptos como el wi-fi, o el microondas, un ente con una inteligencia cientos de veces mayor que la nuestra no tendría problemas para manipular los átomos de los objetos, revertir el envejecimiento, curar enfermedades, detener el hambre, etc. O bien podría decidirse a eliminar todos los seres humanos en la tierra. Tendríamos un ser todopoderoso con todas las capacidades que solo atribuimos al concepto de Dios. Pero sería este un Dios bondadoso?


Para no entrar en un concepto tan complicado como el de un Dios robótico, tenemos que hacer 2 distinciones claves a este respecto. Hay una diferencia entre la velocidad de la inteligencia y la calidad de la inteligencia. Cuando nos imaginamos una súper computadora, a menudo pensamos en una computadora que pueda pensar mucho más rápido que nosotros, es decir que pueda resolver en 5 minutos lo que tomaría al humano 10 años en resolver. Un ASI con un pensamiento millones de veces más veloz que el nuestro seria algo impresionante, pero lo que realmente nos separaría de esta maquina no es la velocidad, sino la calidad del pensamiento. Lo que hace a un humano más inteligente que un chimpancé no es la velocidad con la que pensamos, es que nuestro cerebro contiene un complejo modulo cognitivo que nos permite entender representaciones lingüísticas y razonamiento abstracto, algo que no poseen los chimpancés.
Acelerar miles de veces el cerebro de un chimpancé no lo pondría a nuestro nivel, aun alcanzando una velocidad de pensamiento superior a la nuestra este seguiría sin podría utilizar un juego de herramientas para armar un mueble por ejemplo. El cerebro de un chimpancé no entiende el mundo a su alrededor como nosotros, él puede reconocer la diferencia entre un ser humano y un edificio, pero nunca comprenderá que ha sido el humano quien construyo el edificio. Los edificios y los humanos somos solo parte de la naturaleza a su alrededor. Ese es el resultado de la calidad de su inteligencia, que esta un nivel cognitivo debajo del nuestro.

Dentro de esta escalera cognitiva en la que estamos solo un nivel por arriba de los simios, una computadora podría tardarse muchos años en alcanzar el escalón de un chimpancé. Sin embargo, una vez alcance este nivel podría tomarle solo meses el saltar al nuestro, horas estar dos escalones por encima, y en cuestión de minutos estar 10 escalones por arriba saltandolos de cuatro en cuatro cada segundo que pasa. Lo que debemos realizar con esto es que al momento que recibamos la noticia que la humanidad ha alcanzado la inteligencia artificial general (AGI), podemos estar rápidamente enfrentándonos a la coexistencia con seres superiores en nuestro planeta. Al igual que para los monos es imposible comprender nuestra cosmovisión, para nosotros sería una actividad infructuosa el intentar comprender la de un ente que este tan solo un escalón cognitivo por encima al nuestro. Es por ello que asegurar que es lo que haría un ASI y cuáles serían las consecuencias para la humanidad es imposible.

Adonde nos deja esto entonces? Muchos científicos expertos en el tema están convencidos que es solo cuestión de tiempo el que la evolución nos lleve al punto de crear estas súper maquinas. El filósofo de la universidad de Oxford, Nick Bostrom, cree que cuando alcancemos ASI las consecuencias podrían derivarse por dos rumbos. “Todas las especies eventualmente se extinguen”. Esto ha sido la regla en la historia del 99.9% de la naturaleza en nuestro planeta, por lo que es cuestión de tiempo para que otra especie, un asteroide, un cataclismo nuclear, o un evento similar nos haga desparecer de la tierra. Bostrom le llama a esto un estado atractor, o aquel estado en el que las especies no pueden evitar caer, y del cual no regresan jamás. Sin embargo, también cree que la creación de ASI, podría ser beneficioso para el humano y llevarnos a un segundo estado atractor que ninguna otra especie ha sido lo suficientemente inteligente para alcanzar; la inmortalidad.  
Si Bostrom y otros científicos afines a esta escuela de pensamiento están en lo correcto, estamos frente a dos realidades bastante chocantes que absorber:
1) La llegada de ASI permitiría, por primera vez en la historia del planeta, abrir la posibilidad a que una especie se quede en la tierra permanentemente.
2) La llegada de ASI tendría un impacto tan dramático, que muy probablemente termine interrumpiendo nuestra relación con la naturaleza, creando un mundo completamente nuevo sin humanos.

A mi parecer, la pregunta que todos deberíamos estar haciéndonos es: Cuando sabremos hacia qué lado del espectro caeremos? Nadie sabe la respuesta  a esta pregunta todavía, pero muchos científicos han dedicado décadas a pensar que es lo que podría suceder. En la segunda parte del post vamos a explorar que es lo que han encontrado.

No comments:

Post a Comment