En algún punto de la carrera por la inteligencia artificial habremos logrado que las computadoras alcancen el mismo nivel de inteligencia que un ser humano. Viviremos entonces en un mundo ideal en el que coexistiremos con las computadoras, trabajando hombro a hombro y evolucionando junto a ellas como nuestro par… O quizás no?
El principal problema que las computadoras
alcancen el mismo nivel de inteligencia que los seres humanos, radica en las
diferencias básicas del hombre contra la máquina. Los microprocesadores son hoy
en día infinitamente más rápidos en velocidad de cómputo que nuestras neuronas;
esta habilidad de las computadoras para comunicarse a la velocidad de la luz
óptica, junto a su mayor capacidad de almacenamiento (nuestro cerebro tiene
limitada su expansión dentro de la bóveda craneana), resulta en una mayor precisión, duración y performance
de la maquina sobre el humano.
La posibilidad de editarse, actualizarse y
optimizarse a sí mismas, haría que las computadoras alcancen nuestra capacidad
cerebral rápidamente, sobrepasando al humano en cualquier rama de la ciencia,
arte, innovación, etc. Dejándonos muy atrás no solo individualmente, sino también
colectivamente como especie. La Inteligencia Artificial General
(AGI por sus siglas en inglés) irremediablemente terminaría por mejorarse a sí
misma hasta sobrepasar nuestro coeficiente intelectual en un millar de veces, alcanzando
un nivel de Súper inteligencia Artificial (ASI por sus siglas en inglés). Esta
superioridad intelectual con respecto al humano, sería similar a la diferencia entre nuestra
inteligencia y la inteligencia de una hormiga.
Lo intenso de este concepto se centra en
la capacidad de auto-renovación que un sistema de ASI tendría. Las computadoras
no tendrían una frontera límite para seguirse innovando, pasarían solo un tiempo en
nuestro nivel average de inteligencia para pronto pasar al nivel de Albert
Einstein, y al llegar a este nivel en cuestión de minutos hacer otro salto que
haría ver la capacidad cerebral de Einstein como la de un ratón. Estos saltos
cada vez serían más grandes y rápidos hasta crear una explosión de inteligencia
que los científicos conocen como “singularidad” tecnológica.
Inteligencia de tal magnitud es algo que
no podemos realmente concebir, en nuestro mundo si tienes un IQ de 75 tienes una
discapacidad intelectual, mientras que si tienes un IQ de 130 eres un genio. Qué
pasaría con una computadora que tenga un IQ de 14,567? Entender su conocimiento
sería como el querer explicarle a un insecto la teoría de la mecánica quántica.
Con la inteligencia viene como resultado el poder, una maquina con siete mil veces mayor
inteligencia que la nuestra seria el ser más inteligente en la historia del
planeta Tierra. Si nuestros pequeños cerebros han podido inventar conceptos como el wi-fi, o el microondas, un ente con una inteligencia cientos de veces mayor que la nuestra no tendría problemas para manipular los átomos de los objetos, revertir el envejecimiento, curar
enfermedades, detener el hambre, etc. O bien podría decidirse a eliminar todos
los seres humanos en la tierra. Tendríamos un ser todopoderoso con todas las capacidades
que solo atribuimos al concepto de Dios. Pero sería este un Dios bondadoso?
Para no entrar en un concepto tan complicado como el de un Dios robótico,
tenemos que hacer 2 distinciones claves a este respecto. Hay una diferencia entre la velocidad de la inteligencia y la calidad
de la inteligencia. Cuando nos imaginamos una súper computadora, a menudo
pensamos en una computadora que pueda pensar mucho más rápido que nosotros, es
decir que pueda resolver en 5 minutos lo que tomaría al humano 10 años en
resolver. Un ASI con un pensamiento millones de veces más veloz que el nuestro seria algo impresionante, pero lo que realmente nos separaría de esta maquina no es la velocidad, sino
la calidad del pensamiento. Lo que hace a un humano más inteligente que un chimpancé
no es la velocidad con la que pensamos, es que nuestro cerebro contiene un
complejo modulo cognitivo que nos permite entender representaciones lingüísticas
y razonamiento abstracto, algo que no poseen los chimpancés.
Acelerar miles de veces el cerebro de un chimpancé
no lo pondría a nuestro nivel, aun alcanzando una velocidad de pensamiento
superior a la nuestra este seguiría sin podría utilizar un juego de herramientas para armar
un mueble por ejemplo. El cerebro de un chimpancé no entiende el mundo a su
alrededor como nosotros, él puede reconocer la diferencia entre un ser humano y
un edificio, pero nunca comprenderá que ha sido el humano quien construyo el
edificio. Los edificios y los humanos somos solo parte de la naturaleza a su alrededor. Ese es el resultado de
la calidad de su inteligencia, que esta un nivel cognitivo debajo del nuestro.
Dentro de esta escalera cognitiva en la que estamos solo un
nivel por arriba de los simios, una computadora podría tardarse muchos años en
alcanzar el escalón de un chimpancé. Sin embargo, una vez alcance este nivel podría tomarle solo meses el
saltar al nuestro, horas estar dos escalones por encima, y en cuestión de
minutos estar 10 escalones por arriba saltandolos de cuatro en cuatro cada
segundo que pasa. Lo que debemos realizar con esto es que al momento que
recibamos la noticia que la humanidad ha alcanzado la inteligencia artificial
general (AGI), podemos estar rápidamente enfrentándonos a la coexistencia con
seres superiores en nuestro planeta. Al igual que para los monos es imposible
comprender nuestra cosmovisión, para nosotros sería una actividad infructuosa
el intentar comprender la de un ente que este tan solo un escalón cognitivo por encima
al nuestro. Es por ello que asegurar que es lo que haría un ASI y cuáles serían las
consecuencias para la humanidad es imposible.
Adonde nos deja esto entonces? Muchos científicos
expertos en el tema están convencidos que es solo cuestión de tiempo el que la evolución
nos lleve al punto de crear estas súper maquinas. El filósofo de la universidad de Oxford, Nick
Bostrom, cree que cuando alcancemos ASI las consecuencias podrían derivarse por dos rumbos. “Todas las especies eventualmente se extinguen”.
Esto ha sido la regla en la historia del 99.9% de la naturaleza en nuestro
planeta, por lo que es cuestión de tiempo para que otra especie, un asteroide,
un cataclismo nuclear, o un evento similar nos haga desparecer de la tierra.
Bostrom le llama a esto un estado atractor, o aquel estado en el que las
especies no pueden evitar caer, y del cual no regresan jamás. Sin embargo, también
cree que la creación de ASI, podría ser beneficioso para el humano y llevarnos
a un segundo estado atractor que ninguna otra especie ha sido lo suficientemente
inteligente para alcanzar; la inmortalidad.
Si Bostrom y otros científicos afines a esta escuela de pensamiento están en
lo correcto, estamos frente a dos realidades bastante chocantes que absorber:
1) La llegada de ASI permitiría, por primera vez en la historia del
planeta, abrir la posibilidad a que una especie se quede en la tierra
permanentemente.
2) La llegada de ASI tendría un impacto tan dramático, que muy
probablemente termine interrumpiendo nuestra relación con la naturaleza, creando un
mundo completamente nuevo sin humanos.
A mi parecer, la pregunta que todos deberíamos estar haciéndonos es: Cuando
sabremos hacia qué lado del espectro caeremos? Nadie sabe la respuesta a esta pregunta todavía, pero muchos científicos han
dedicado décadas a pensar que es lo que podría suceder. En la segunda parte del
post vamos a explorar que es lo que han encontrado.
No comments:
Post a Comment