Para tratar de resolver la
pregunta: Una vez alcancemos la Súper Inteligencia Artificial (ASI por sus siglas en inglés), hacia qué lado del espectro -extinción
o inmortalidad- caeremos? Debemos dividir la pregunta en sus interrogantes
principales: Cuando alcanzaremos ASI? y, que pasara cuando hayamos alcanzado ASI?
La primera
interrogante: En cuento tiempo alcanzaremos ASI,
ha creado un intenso debate en la comunidad científica. Muchos de ellos como el profesor de la Universidad de
San Diego Vernor Vinge, el científico Ben Goertzel, el cofundador de Sun
Microsystems Bill Joy, y el inventor/futurista Raymond Kurzweil, apoyan la
noción que esto llegara más pronto de lo que imaginamos. Estos y otros científicos
de la misma talla son de la opinión que el crecimiento exponencial tecnológico
ya está puesto en marcha, y que sin darnos cuenta estaremos enfrentando este
dilema en tan solo unas décadas.
Sin embargo, otros como
el cofundador de Microsoft Paul Allen, el psicólogo Gary Marcus, el científico
de la Universidad de Nueva York Ernest Davis, y el empresario digital Mitch Kapor,
creen que pensadores como Kursweil están sobrestimando la magnitud de la tarea
que es crear Súper Inteligencia Artificial. Estos argumentan que mientras el
progreso avanza de forma exponencial, los obstáculos para dar el siguiente
paso también crecen exponencialmente.
Nick Bostrom, mientras
tanto, cree que ninguno de los dos grupos de pensamiento tiene las bases
suficientes para estas aseveraciones y que cualquier de los dos casos podría
darse. Bostrom, profesor de la universidad de Oxford y director del Future of
Humanity Institute, condujo en el 2013 una encuesta a cientos de expertos en
inteligencia artificial (AI),
realizando una simple pregunta: Si asumimos que no habrá interrupción negativa
en el progreso de la tecnología, indique tres años (uno siendo optimista, uno
siendo realista, y otro siendo pesimista) en el que piensa se alcanzara la Inteligencia
Artificial General (AGI por sus
siglas en inglés) o inteligencia igual a la del ser humano. Estos fueron los
datos resultantes:
-Media optimista (o 10% de probabilidades que suceda): año
2022
-Media realista (o 50% de probabilidades suceda): año
2040
-Media pesimista (o 90% de probabilidades que suceda): año
2075
La encuesta arrojo entonces una media de tiempo bastante corta en la que tendremos computadoras igual de inteligentes que nosotros. Pero la clave de la interrogante no es
cuando obtendremos AGI, sino cuando
alcanzaremos ASI a partir de este AGI? por lo que esta pregunta también
fue realizada durante la misma encuesta. La mayoría de expertos encuestados estimo su respuesta en una
media de 2 a 30 años de transición hacia Súper Inteligencia Artificial una vez
alcancemos Inteligencia Artificial General.
Por supuesto que todas estas
estadísticas son meramente especulativas, y representan diversas opiniones
dentro de la comunidad de expertos en AI.
Pero lo que si podemos concluir, es que de las personas que más saben de
la materia en el planeta, la mayoría están de acuerdo en que para alrededor del año 2060
(en tan solo 45 años) estaremos experimentando la llegada de ASI.
Ahora, para responder la
segunda interrogante: Hacia qué lado del espectro caeremos? Debemos analizar
varios aspectos. Alcanzar la súper inteligencia traerá implícito un tremendo
poder. Pero quien estará en control de ese poder? Y cuales serán las motivaciones
para manejar ese poder? De acuerdo a como se vayan respondiendo estas preguntas con el
devenir del tiempo sabremos si el desarrollo de ASI será un paso increíble para la humanidad o sera el final de la
misma.
Por supuesto que los
científicos también tienen opiniones diversas en cuanto a este tópico. La encuesta de
Bostrom pidió a los participantes asignar una probabilidad sobre el
posible impacto que el AGI tendrá
sobre la humanidad, encontrando un 52% de los encuestados que piensan que el impacto será bueno o
extremadamente bueno, un 31% que opinan que el impacto será malo o extremadamente malo,
y un 17% que piensan que el impacto sera neutral. En otras palabras, alcanzar Inteligencia
Artificial General será de gran impacto (sea este bueno o malo) para la
humanidad de acuerdo con los que más saben sobre el tema. En el caso de Súper
Inteligencia Artificial me imagino que el porcentaje de científicos que piensan
en un impacto neutral disminuiría considerablemente.
Nick Bostrom describe 3
formas en las que la súper inteligencia podría funcionar:
a) Como un oráculo,
contestando cualquier pregunta con precisión (Google es una especie de oráculo
primitivo), incluyendo aquellas preguntas que el humano no ha podido aun
resolver – Como puedo manufacturar un motor que funcione a base de oxigeno?
b) Como una especie de genio
de la lámpara, que ejecutaría cualquier comando que le demos – Constrúyeme un
motor que funcione en base a moléculas de oxígeno.
c) Como un ente soberano, a
quien se le asigna una tarea y se le permita interactuar en el mundo libremente,
tomando las decisiones que le parezcan mejor en su proceder – Sal e inventa un
medio de transporte más rápido y económico para que los humanos podamos
transportarnos.
Que haría la Super Inteligencia Artificial por nosotros
Armado con la tecnología que
solo la súper inteligencia podría crear, un ASI
podría solucionar absolutamente todos los problemas que enfrentamos como
humanidad: Calentamiento Global? Un ASI
podría parar las emisiones de CO2 creando una forma más efectiva de generar
energía y otra más para remover el CO2 de la atmosfera. Cáncer, HIV, Alzheimers?
Un ASI podría revolucionar los
medicamentos y los procedimientos médicos más allá de lo que podemos
imaginarnos, curando todas las enfermedades y condiciones. Hambre? Un ASI podría utilizar nanotecnología para
construir alimentos genéticamente desde la nada y luego distribuirlos
eficientemente en el planeta con un súper avanzado medio de transporte. Economía?
Los más complejos debates y problemas políticos, filosóficos, y éticos serian pan comido
de resolver para un ASI con teorías comerciales y tratados que aún no podemos concebir. Medio
ambiente? Un ASI podría fácilmente replicar
el ADN de especies en peligro de extinción, replicar moléculas de agua
donde no las hay, convertir la basura en alimento, etc. etc... Pero hay algo en específico que la Súper Inteligencia Artificial podría hacer
por nosotros, y que mientras más me adentro en el tema más perplejo me deja: Un
ASI podría hacer que los humanos conquistemos nuestra propia mortalidad.
Siempre he pensado en la existencia de civilizaciones de otros planetas con potencial tan avanzado que pueden dominar su
propia mortalidad, pero nunca considere que es el algo que el propio ser humano podría lograr, y mucho menos aún en tan solo unas cuantas décadas. Pero el leer sobre Inteligencia
Artificial te hace replantearte muchos conceptos, incluyendo el de la vida y la muerte.
La evolución de nuestra especie no tiene por
qué extender nuestras vidas más allá de lo que vivimos actualmente, el humano tiene
el suficiente tiempo para reproducirse y criar su progenie.
Entendemos entonces como proceso natural que un ser humano que nace debe morir algún día, pero esa asunción puede ser incorrecta. Dentro de las ciencias físicas hemos descubierto que no existen absolutos, sin embargo esto no se ha transferido a las ciencias biológicas. El envejecimiento está ligado al tiempo, sin embargo el tiempo se mantiene continuo, y si un automóvil por ejemplo que también sufre las inclemencias del pasar de los años, puede repararse y persistir con cambio de sus piezas. Por qué el humano no puede persistir si la única diferencia es la complejidad de sus partes? Un ASI bien podría revertir el proceso de envejecimiento usando nanotecnología y regeneración celular, además de crear múltiples oportunidades para el incremento intelectual y emocional que permita una mejor experiencia del mundo sin interrupción de tiempo.
Entendemos entonces como proceso natural que un ser humano que nace debe morir algún día, pero esa asunción puede ser incorrecta. Dentro de las ciencias físicas hemos descubierto que no existen absolutos, sin embargo esto no se ha transferido a las ciencias biológicas. El envejecimiento está ligado al tiempo, sin embargo el tiempo se mantiene continuo, y si un automóvil por ejemplo que también sufre las inclemencias del pasar de los años, puede repararse y persistir con cambio de sus piezas. Por qué el humano no puede persistir si la única diferencia es la complejidad de sus partes? Un ASI bien podría revertir el proceso de envejecimiento usando nanotecnología y regeneración celular, además de crear múltiples oportunidades para el incremento intelectual y emocional que permita una mejor experiencia del mundo sin interrupción de tiempo.
Estamos así entrando en un tema mucho mas complejo que involucra el concepto de “vida eterna”, el cual ha sido notablemente usado por la mayoría de religiones para referirse a Dios. Quedaríamos entonces a expensas de comprobar si este Dios que hemos creado sería un Dios bueno que prolongue nuestras vidas y nos permita alcanzar la inmortalidad; o como Ellon Musk lo refiere, estaríamos “Invocando a un demonio” que acabe con todos nosotros.
Muchas de las mentes más
brillantes de nuestra época y otros tantos expertos en ASI le
consideran al desarrollo de esta tecnología la amenaza más grande a nuestra existencia. Stephen Hawking piensa que el desarrollo de ASI “podría significar el fin de la raza humana”, mientras Bill
Gates dice que “no entiende porque no hay más personas preocupadas por esto”.
Ellos se enfocan en la revolución que pueda generar el nacimiento de tecnología con Inteligencia
Artificial, viendo un futuro terrible del que no podremos escapar. El libro “Singularity is
Near” de Raymond Kursweil, es un fascinante texto de 700 páginas dedicado a explorar la unión
hombre-máquina, y a pesar de ser muy optimista en su visión del futuro, el
autor también dedica 20 de estas páginas a describir los peligros potenciales que podría traer a
la humanidad el surgimiento de ASI.
Al principio del post había planteado que el destino de nuestra raza parece ligado al desarrollo de la Inteligencia Artificial, y cuales sean las motivaciones de quien desarrolle el poder de esta tecnología. Kurzweil responde de excelente forma al cuestionamiento de la siguiente manera: “El surgimiento de la Súper Inteligencia Artificial será el resultado de múltiples y diversos esfuerzos, por lo que estará profundamente integrado a la infraestructura de nuestra civilización. De hecho, estará íntimamente ligado a nuestros cuerpos y cerebros, siendo el fiel reflejo de nuestros principios y valores ya que será nosotros mismos”
Al principio del post había planteado que el destino de nuestra raza parece ligado al desarrollo de la Inteligencia Artificial, y cuales sean las motivaciones de quien desarrolle el poder de esta tecnología. Kurzweil responde de excelente forma al cuestionamiento de la siguiente manera: “El surgimiento de la Súper Inteligencia Artificial será el resultado de múltiples y diversos esfuerzos, por lo que estará profundamente integrado a la infraestructura de nuestra civilización. De hecho, estará íntimamente ligado a nuestros cuerpos y cerebros, siendo el fiel reflejo de nuestros principios y valores ya que será nosotros mismos”
No comments:
Post a Comment