Tuesday, June 14, 2016

Súper Inteligencia Artificial: Inmortalidad o Extinción (Parte II)


Para tratar de resolver la pregunta: Una vez alcancemos la Súper Inteligencia Artificial (ASI por sus siglas en inglés), hacia qué lado del espectro -extinción o inmortalidad- caeremos? Debemos dividir la pregunta en sus interrogantes principales: Cuando alcanzaremos ASI? y, que pasara cuando hayamos alcanzado ASI?
La primera interrogante: En cuento tiempo alcanzaremos ASI, ha creado un intenso debate en la comunidad científica. Muchos de ellos como el profesor de la Universidad de San Diego Vernor Vinge, el científico Ben Goertzel, el cofundador de Sun Microsystems Bill Joy, y el inventor/futurista Raymond Kurzweil, apoyan la noción que esto llegara más pronto de lo que imaginamos. Estos y otros científicos de la misma talla son de la opinión que el crecimiento exponencial tecnológico ya está puesto en marcha, y que sin darnos cuenta estaremos enfrentando este dilema en tan solo unas décadas.
Sin embargo, otros como el cofundador de Microsoft Paul Allen, el psicólogo Gary Marcus, el científico de la Universidad de Nueva York Ernest Davis, y el empresario digital Mitch Kapor, creen que pensadores como Kursweil están sobrestimando la magnitud de la tarea que es crear Súper Inteligencia Artificial. Estos argumentan que mientras el progreso avanza de forma exponencial, los obstáculos para dar el siguiente paso también crecen exponencialmente.
Nick Bostrom, mientras tanto, cree que ninguno de los dos grupos de pensamiento tiene las bases suficientes para estas aseveraciones y que cualquier de los dos casos podría darse. Bostrom, profesor de la universidad de Oxford y director del Future of Humanity Institute, condujo en el 2013 una encuesta a cientos de expertos en inteligencia artificial (AI), realizando una simple pregunta: Si asumimos que no habrá interrupción negativa en el progreso de la tecnología, indique tres años (uno siendo optimista, uno siendo realista, y otro siendo pesimista) en el que piensa se alcanzara la Inteligencia Artificial General (AGI por sus siglas en inglés) o inteligencia igual a la del ser humano. Estos fueron los datos resultantes:
-Media optimista (o 10% de probabilidades que suceda): año 2022
-Media realista (o 50% de probabilidades suceda): año 2040
-Media pesimista (o 90% de probabilidades que suceda): año 2075
La encuesta arrojo entonces una media de tiempo bastante corta en la que tendremos computadoras igual de inteligentes que nosotros. Pero la clave de la interrogante no es cuando obtendremos AGI, sino cuando alcanzaremos ASI a partir de este AGI? por lo que esta pregunta también fue realizada durante la misma encuesta. La mayoría de expertos encuestados estimo su respuesta en una media de 2 a 30 años de transición hacia Súper Inteligencia Artificial una vez alcancemos Inteligencia Artificial General.
Por supuesto que todas estas estadísticas son meramente especulativas, y representan diversas opiniones dentro de la comunidad de expertos en AI. Pero lo que si podemos concluir, es que de las personas que más saben de la materia en el planeta, la mayoría están de acuerdo en que para alrededor del año 2060 (en tan solo 45 años) estaremos experimentando la llegada de ASI.


Ahora, para responder la segunda interrogante: Hacia qué lado del espectro caeremos? Debemos analizar varios aspectos. Alcanzar la súper inteligencia traerá implícito un tremendo poder. Pero quien estará en control de ese poder? Y cuales serán las motivaciones para manejar ese poder? De acuerdo a como se vayan respondiendo estas preguntas con el devenir del tiempo sabremos si el desarrollo de ASI será un paso increíble para la humanidad o sera el final de la misma.
Por supuesto que los científicos también tienen opiniones diversas en cuanto a este tópico. La encuesta de Bostrom pidió a los participantes asignar una probabilidad sobre el posible impacto que el AGI tendrá sobre la humanidad, encontrando un 52% de los encuestados que piensan que el impacto será bueno o extremadamente bueno, un 31% que opinan que el impacto será malo o extremadamente malo, y un 17% que piensan que el impacto sera neutral. En otras palabras, alcanzar Inteligencia Artificial General será de gran impacto (sea este bueno o malo) para la humanidad de acuerdo con los que más saben sobre el tema. En el caso de Súper Inteligencia Artificial me imagino que el porcentaje de científicos que piensan en un impacto neutral disminuiría considerablemente.
Nick Bostrom describe 3 formas en las que la súper inteligencia podría funcionar:
a) Como un oráculo, contestando cualquier pregunta con precisión (Google es una especie de oráculo primitivo), incluyendo aquellas preguntas que el humano no ha podido aun resolver – Como puedo manufacturar un motor que funcione a base de oxigeno?
b) Como una especie de genio de la lámpara, que ejecutaría cualquier comando que le demos – Constrúyeme un motor que funcione en base a moléculas de oxígeno.
c) Como un ente soberano, a quien se le asigna una tarea y se le permita interactuar en el mundo libremente, tomando las decisiones que le parezcan mejor en su proceder – Sal e inventa un medio de transporte más rápido y económico para que los humanos podamos transportarnos.

Que haría la Super Inteligencia Artificial por nosotros
Armado con la tecnología que solo la súper inteligencia podría crear, un ASI podría solucionar absolutamente todos los problemas que enfrentamos como humanidad: Calentamiento Global? Un ASI podría parar las emisiones de CO2 creando una forma más efectiva de generar energía y otra más para remover el CO2 de la atmosfera. Cáncer, HIV, Alzheimers? Un ASI podría revolucionar los medicamentos y los procedimientos médicos más allá de lo que podemos imaginarnos, curando todas las enfermedades y condiciones. Hambre? Un ASI podría utilizar nanotecnología para construir alimentos genéticamente desde la nada y luego distribuirlos eficientemente en el planeta con un súper avanzado medio de transporte. Economía? Los más complejos debates y problemas políticos, filosóficos, y éticos serian pan comido de resolver para un ASI con teorías comerciales y tratados que aún no podemos concebir. Medio ambiente? Un ASI podría fácilmente replicar el ADN de especies en peligro de extinción, replicar moléculas de agua donde no las hay, convertir la basura en alimento, etc. etc... Pero hay algo en específico que la Súper Inteligencia Artificial podría hacer por nosotros, y que mientras más me adentro en el tema más perplejo me deja: Un ASI podría hacer que los humanos conquistemos nuestra propia mortalidad.
Siempre he pensado en la existencia de civilizaciones de otros planetas con potencial tan avanzado que pueden dominar su propia mortalidad, pero nunca considere que es el algo que el propio ser humano podría lograr, y mucho menos aún en tan solo unas cuantas décadas. Pero el leer sobre Inteligencia Artificial te hace replantearte muchos conceptos, incluyendo el de la vida y la muerte.
La evolución de nuestra especie no tiene por qué extender nuestras vidas más allá de lo que vivimos actualmente, el humano tiene el suficiente tiempo para reproducirse y criar su progenie. 
Entendemos entonces como proceso natural que un ser humano que nace debe morir algún día, pero esa asunción puede ser incorrecta. Dentro de las ciencias físicas hemos descubierto que no existen absolutos, sin embargo esto no se ha transferido a las ciencias biológicas. El envejecimiento está ligado al tiempo, sin embargo el tiempo se mantiene continuo, y si un automóvil por ejemplo que también sufre las inclemencias del pasar de los años, puede repararse y persistir con cambio de sus piezas. Por qué el humano no puede persistir si la única diferencia es la complejidad de sus partes? Un ASI bien podría revertir el proceso de envejecimiento usando nanotecnología y regeneración celular, además de crear múltiples oportunidades para el incremento intelectual y emocional que permita una mejor experiencia del mundo sin interrupción de tiempo.


Estamos así entrando en un tema mucho mas complejo que involucra el concepto de “vida eterna”, el cual ha sido notablemente usado por la mayoría de religiones para referirse a Dios. Quedaríamos entonces a expensas de comprobar si este Dios que hemos creado sería un Dios bueno que prolongue nuestras vidas y nos permita alcanzar la inmortalidad; o como Ellon Musk lo refiere, estaríamos “Invocando a un demonio” que acabe con todos nosotros.
Muchas de las mentes más brillantes de nuestra época y otros tantos expertos en ASI le consideran al desarrollo de esta tecnología la amenaza más grande a nuestra existencia. Stephen Hawking piensa que el desarrollo de ASI “podría significar el fin de la raza humana”, mientras Bill Gates dice que “no entiende porque no hay más personas preocupadas por esto”. Ellos se enfocan en la revolución que pueda generar el nacimiento de tecnología con Inteligencia Artificial, viendo un futuro terrible del que no podremos escapar. El libro “Singularity is Near” de Raymond Kursweil, es un fascinante texto de 700 páginas dedicado a explorar la unión hombre-máquina, y a pesar de ser muy optimista en su visión del futuro, el autor también dedica 20 de estas páginas a describir los peligros potenciales que podría traer a la humanidad el surgimiento de ASI

Al principio del post había planteado que el destino de nuestra raza parece ligado al desarrollo de la Inteligencia Artificial, y cuales sean las motivaciones de quien desarrolle el poder de esta tecnología. Kurzweil responde de excelente forma al cuestionamiento de la siguiente manera: “El surgimiento de la Súper Inteligencia Artificial será el resultado de múltiples y diversos esfuerzos, por lo que estará profundamente integrado a la infraestructura de nuestra civilización. De hecho, estará íntimamente ligado a nuestros cuerpos y cerebros, siendo el fiel reflejo de nuestros principios y valores ya que será nosotros mismos”

No comments:

Post a Comment