En busca de la Superinteligencia Artificial

Escribir sobre el futuro que nos depara ha sido siempre una idea atrayente para muchos. Según hacia donde mires, te encontrarás distintos escenarios: habrá quien se preocupe por la comida que deberá comprar la próxima semana, a otro le preocupa si conseguirá un trabajo estable y otro estará pensando en qué regalarle a sus seres queridos por estas fechas. Por otro lado, si hablamos del futuro tampoco faltará aquel sector empeñado en describir los modos más creativos que tiene la naturaleza para acabar con la vida, como por ejemplo el Falso Vacío o el Gran Filtro. Ahora, sin embargo, no hablaré de esa clase de futuros. Si os guiáis por el título, sabréis por dónde van a ir los tiros, pero antes que nada necesitaremos perspectiva para así ponernos en situación.

Viajemos al pasado

Supongamos que tenemos una máquina del tiempo y vamos al año 1750, una edad en la que el mundo se estaba preparando para la Revolución Industrial, los métodos de transporte se basaban en carros y la comunicación con personas lejanas consistía en gritar muy fuertemente. Una vez ahí, secuestramos convencemos a un honrado habitante y regresamos con él a nuestro tiempo. A buen seguro, para alguien completamente ajeno a la cultura tecnológica en la que nos movemos, le será muy difícil procesar ideas como la existencia de los mismos automóviles, la telefonía móvil, los televisores o escuchar una actuación musical que ocurrió hace 50 años. Y eso que todavía no le hemos contado acerca de Internet y de todas las posibilidades que alberga, tanto cándidas como retorcidas; así como otros conceptos tales como la astronomía o la ingeniería aerospacial. Por supuesto, no nos podríamos olvidar detallarle de los encomiables esfuerzos que ha hecho la humanidad para diseñar armas con capacidad para hacer saltar por los aires un país entero (como mínimo). Lo mismo este hombre del 1750 se nos muere de la impresión.

Ahora bien, supongamos que esta persona no se nos muere, regresa a su año y quiere recrear esta misma experiencia con alguien del pasado. Coge nuestra máquina del tiempo, viaja al año 1500 y secuestra convence a un habitante de ese tiempo para que regrese al 1750, repitiendo lo que le hicimos nosotros a él pero en su época. El tipo del año 1500 ciertamente estaría sorprendido por un par de cosillas que se han desarrollado y aprendería algo sobre esa moda del colonialismo que se impuso en Europa, además de la experiencia del viaje a través del espacio-tiempo. Sin embargo, al contrario de lo que esperaría el hombre del 1750, el del 1500 probablemente no se moriría de la impresión. Es decir, la experiencia sería algo más que sorprendente, pero no llegaría al mismo grado ni de lejos porque el mundo ha cambiado mucho más del 1750 al 2015, que del 1500 al 1750.

No, si el hombre del 1750 quisiera ser cruel como lo fuimos nosotros con él, debería retroceder hasta aproximadamente el año 12.000 a.C, poco antes de la Revolución Agraria, cuando la sociedad se basaba fundamentalmente en un estilo de vida nómada. Y si, siguiendo con la tónica, este individuo del 12.000 a.C retrocediera hasta el 25.000 a.C, la reacción de este último sería algo del estilo: “Hum… no está mal, ¿pero qué me quieres decir con esto?”. Si quisiera perpetuar la costumbre de viajes hacia el pasado para traumatizar a nuestros ancestros debería ir hasta el año 100.000 a.C, cuando los humanos apenas tenían nociones sobre la manipulación del fuego o del lenguaje.

¿Qué quiere decir esto? El tecnólogo de sistemas y de Inteligencia Artificial, Raymond Kurzweil, lo denomina Ley de rendimientos acelerados. En esencia, cada salto tecnológico se produce en un periodo de tiempo cada vez más corto. La sociedad actual es capaz de avanzar más rápidamente porque dispone de más conocimientos, y por ende es más avanzada, que no la sociedad de la Prerevolución Industrial. Esto igualmente funciona a escalas de tiempo más pequeñas. Podríamos echar la mirada atrás y ver cómo Internet ha transformado el mundo de tal modo que las diferencias entre ambas eras son más que sensibles. Según Kurzweil, estos saltos deberían ir sucediéndose cada vez más rápidamente en un tiempo futuro hasta llegar a la culminación en el año 2045, momento en el que se produciría la singularidad tecnológica (los saltos son tan rápidos que representarían una ruptura en la estructura de la historia humana). Eso querría decir que si viajáramos al futuro hasta el 2045, nos encontraríamos con un mundo apenas reconocible e incluso podríamos experimentar lo que le pasó al tipo del 1750 al llegar a nuestro tiempo. Pero, ¿qué pensaríais si os dijeran que en 30 años el mundo cambiará completamente, sin parecerse en nada al de hoy en día? Probablemente la respuesta se acercaría a un “Menudo flipado” seguido de un juicio sobre la salud mental del individuo.

Ocurre que se nos suele dar fatal esto de predecir el futuro, precisamente porque no contamos con la perspectiva adecuada. Haré uso de mis increíbles habilidades artísticas para dotar de mayor capacidad de inmersión en este ejemplo.

Progreso vs tiempo

Supongamos que nos encontramos en el punto negro del gráfico. Observamos cómo el progreso hasta el momento no ha sido demasiado sustancial, al menos comparado con lo que tiene que llegar por la derecha. Resulta emocionante, ¿cierto? El problema es que si somos entes con capacidad para ponernos encima de un gráfico, deberíamos saber que no somos capaces de ver lo que hay a la derecha, de modo que en realidad estaríamos así:

Progreso vs tiempo real

Lo que ya no resulta tan emocionante como parecía al principio.

predicciones

En azul, la predicción lineal se aleja del progreso que haríamos realmente (rojo)

Cuando tratamos de pensar en el futuro, normalmente lo hacemos linealmente; es decir, cogemos lo que sucedió hace 50 años y lo proyectamos en el futuro sin que haya perturbaciones de ningún tipo. Esto es lo que le sucedió al hombre del 1750, cuando quiso regresar al 1500 para traumatizar al personal de entonces. . En lugar de pensar en linealidades, deberíamos pensar exponencialmente, aunque sea difícil de concebir. Además, dentro de este crecimiento exponencial no hay una uniformidad completa, sino que se van formando “curvas en forma de S” como Kurzweil las denomina. En la primera parte (1 en la imagen. La forma de la S está más deformada a fin de proporcionar más claridad) se da un crecimiento pausado, momento en el que nace la nueva tecnología y debe calar en la población. En la segunda (2) se produce un rápido y vertiginoso crecimiento, que segráfico S produce cuando toda la sociedad hace un pleno uso de las características pertenecientes a esta tecnología y finalmente llegamos a la última fase (3), que se estabiliza porque el uso de la tecnología ya ha madurado y quedan pocas alternativas que encontrarle. En último lugar, tragamos mal los puntos de vista que chocan frontalmente con nuestras creencias y trataremos de buscar todos los argumentos que apoyen nuestra visión para desacreditar esta versión que nos cuentan. Si te dijeran que en la próxima década llegaremos a los 100 años nos lo creeríamos porque la esperanza de vida aumenta paulatinamente debido a las mejoras en medicina. Si te dijeran que en la próxima década llegaremos a los 500 ya no nos lo creeremos. Y con razón, porque si algo sabemos de la vida es que tampoco dura tanto y la muerte aguarda al final. O al menos hasta el momento. Recordemos que nadie viajaba al espacio antes de que los cohetes estuvieron inventados. Nadie conducía coches hasta que los turismos fueron inventados.

Si somos lógicos, veríamos que hay antecedentes, que el patrón que se ha ido llevando a cabo sigue vigente y con él, nuevos acontecimientos. Si miramos las noticias científicas y tecnológicas, observaríamos que está cociendo algo mucho muy gordo para lo que la humanidad actualmente no está preparada.

¿Inteligencia Artificial?

Cuando empecé a buscar información sobre este tema, tenía una visión muy simplista de lo que era la Inteligencia Artificial (IA). A medida que iba leyendo, fui comprendiendo la magnitud de este campo y me di cuenta de lo desenfocado que estaba inicialmente. Actualmente se ha generado una nube un tanto confusa en torno a la terminología de IA, principalmente debido a tres motivos:

  • Películas y videojuegos. Ya sea en Star Wars, Star Trek, Terminator o Matrix para el apartado cinematográfico; Portal y SOMA para los juegos, nos presentan una visión de IA muy particular y a todas luces, ficticia. Puede ser que la idea sea verídica, pero si pensamos en IA no es demasiado difícil asociarlo con la ficción.
  • Es muy amplio. La IA hace referencia a algo más que máquinas simpáticas con voces graciosas. Desde una calculadora hasta coches que se conducen solos, todo eso puede ser una IA. No podemos discriminar tipos diferentes por su funcionamiento porque la IA está muy diversificada.
  • Están por todas partes. A tu alrededor hay muchas más IA de las que pueda haber en un principio, solo que no las categorizamos como tales porque entendemos el concepto de Inteligencia Artificial como algo muy desarrollado. Para empezar, deberíamos olvidarnos de que la IA es un robot. Si acaso, la IA sería el cerebro del contenedor que puede ser más o menos antropomorfo. Pero eso no implica que todas las IA sean robots. De hecho, tomemos por ejemplo la aplicación de Siri para móvil. Se trata de una aplicación que hace las veces de asistente personal para llevar a cabo unas funciones muy concretas. El software que hay detrás de esta aplicación es IA.

Al haber una gran cantidad de tipos distintos de Inteligencias Artificiales, cada una con una función determinada, los criterios para clasificarlas se basan en su calibre más que su funcionalidad. Tenemos por lo tanto tres principales:

  • Tipo 1. Inteligencia Artificial Limitada (IAL). También conocida como Inteligencia Artificial Débil, consiste en un tipo de IA  que hace muy bien una cosa, pero hasta ahí llegan sus capacidades. El mejor jugador de ajedrez del mundo es una IAL, pero pregúntale cuál será la mejor ruta de llegar a tu destino y se empeñará en mover el caballo a F3.
  • Tipo 2. Inteligencia Artificial General (IAG). Se refiere a la IA con inteligencia humana en todos los campos, siendo capaz de hacer lo que podría llevar a cabo una persona en sus plenas facultades. Sería capaz de razonar, planificar, solucionar problemas, comprender ideas complejas, tener pensamientos abstractos y aprender de la experiencia.
  • Tipo 3. Superinteligencia Artificial (SIA). El filósofo de la Universidad de Oxford, Nick Bostrom, la define como “un intelecto mucho más listo que los mejores cerebros humanos de cada campo, incluyendo el científico, conocimiento general y habilidades sociales”. Se trata de una IA que supera los conocimientos humanos en todos los aspectos posibles y puede ser desde un ordenador un poco más inteligente que un humano hasta uno que lo es billones de veces más. La implicación de la existencia de la SIA genera verdaderos quebraderos de cabeza y es el motivo por el que personalidades como Bill Gates, Elon Musk o Stephen Hawking advierten de que este desarrollo tecnológico se haga de forma juiciosa. Y no es extrañar, puesto que la SIA estará estrechamente ligado a la inmortalidad y la extinción, dos caras de una misma moneda. Para ellos, prefieren llegar a este punto sin jugarse nada al azar.

Ahora bien, ¿en qué punto estamos nosotros?

Mundo de IAL

La humanidad tiene dominada el nivel de inteligencia artificial más básico, la limitada o IAL. Se trata de una inteligencia especializada en un único campo; sin embargo, capaz de desempeñar esa tarea excepcionalmente bien, fácilmente superando la mente humana. Y como he comentado antes, las podemos encontrar por todas partes, incluso en lo más cotidiano.

  • Los coches llevan implementados varias IAL. De hecho, Google tiene un turismo con toda una amalgama de IAL coordinados entre sí que aseguran la conducción sin conductor: sistema de frenos y aceleración, cambio de marchas, ignición de motor, localización del vehículo entre otros.
  • Móviles. Desde la calculadora hasta los mapas, pasando por cualquier aplicación que uses, ya sea para mirar el tiempo que va a hacer, la música que escuchas, todo eso implica la IAL.
  • En los correos electrónicos, el filtro de spam es una IAL que se encarga de distinguir los correos deseables de la basura en función de los parámetros que le vayas asignando.
  • En tiendas on-line, ¿sabéis la pestaña de objetos recomendados o “que podrían interesar al consumidor”? ¿Y las recomendaciones de Youtube? IAL.
  • El traductor de Google es una IAL más que hace un trabajo impecable a la hora de traducir palabras -independientemente del sentido que luego tenga-. También están otros traductores más sofisticados que reconoce una frase que pronuncies y la traduce. En este caso, son dos IAL que trabajan coordinadamente.
  • Los mejores jugadores del mundo de juegos de mesa -exceptuando tal vez los de rol- son IAL.

Hay muchos más a nivel del día a día habitual, como el motor de búsqueda de Google o el sistema que usa Facebook para ofrecerte las noticias acorde a tu interés (motivo por el que a veces no aparecerán algunas entradas). Si nos vamos a otros ámbitos, encontraremos multitud de IAL cada una desempeñando una función en particular. Así, los encontraremos en el mundo científico experimental, militar, industrial o incluso en economía.

Tal y como funcionan actualmente, las IAL no suponen un riesgo existencial para la supervivencia de la humanidad. Lo peor que podría pasar es que si una IAL se estropeara una ciudad se quedara sin luz o los sistemas de seguridad de un edificio se desactivaran. Un evento a remarcar en este aspecto fue el Flash Crash en Mayo del 2010, cuando una IAL tuvo un fallo que provocó un desplome en la bolsa de Dow Jones de 1000 puntos aproximadamente, solo para estar solventada a los pocos minutos. Cada vez que se desarrollan IAL más eficaces y más avanzadas, estamos más cerca de poder conseguir desarrollar IAG, aunque los pasos que demos sean diminutos.

Construyamos una IAG

La idea consiste en construir un ordenador dotado de inteligencia humana. Dicho así, parece sencillo, pero en realidad es increíblemente complicado. Debemos reconocer que la naturaleza ha hecho un buen trabajo a la hora de desarrollar  y optimizar el cerebro en sus millones de años de evolución. Mientras que un ordenador puede llevar a cabo complicadas tareas de cálculo a gran velocidad, es incapaz de entender un concepto sencillo que para nosotros no suponga ningún problema. Por ejemplo, mostramos la imagen siguiente a una persona y a un ordenador:

Dibujo de piedra 3D Fuente: http://firdausashari.deviantart.com/art/3d-drawing-stone-519008259

Dibujo en 3D de una piedra  Fuente: http://firdausashari.deviantart.com/art/3d-drawing-stone-519008259

La persona será capaz de decirte que está viendo el dibujo 3D de una piedra, detallándote la profundidad, anchura, posición de la roca, cómo parece que se sostenga en un solo punto, la iluminación… El ordenador no sería capaz de ello. Podría decirte las distintas tonalidades de gris presentes en la imagen, pero no podría interpretarla en la medida que podemos hacer nosotros. Por ponerlo en términos simples, mientras que un ordenador es capaz de desempeñar fácilmente tareas para las que tenemos que pensar, se le hace imposible hacer algo que nosotros hacemos sin pensar. El cerebro humano es posiblemente el objeto más complejo que exista en el universo conocido y por el momento es tremendamente complicado tratar de recrear una máquina con la misma funcionalidad que este órgano, que piense y tenga consciencia de sí misma.

Ahora bien, hemos dicho que queremos construir una Inteligencia Artificial General y para ello necesitamos que se cumplan dos premisas:

Necesitamos potencia computacional

Si queremos una IA con el mismo nivel que la inteligencia humana, para empezar, necesitaremos que la máquina tenga la misma potencia que un cerebro humano. Haremos uso de un parámetro característico en computadores, el número de cálculos por segundo (cps) que, como su nombre indica, es el número de cálculos que puede efectuar una máquina por cada unidad de tiempo. Ray Kurzweil se las apañó para determinar los cps del cerebro humano de media y llegó a la conclusión que llegaba a 1016 ( 10 mil billones). Que suelte este dato así sin más es un poco turbio, pero por lo visto es el número consenso al que se ha llegado tras varias réplicas. Lo gracioso es que ya existe una máquina que supera esta cantidad de cps. Se trata de Tianhe-2, un superordenador de China cuyos cps son de unos 4,6 ·1016 (46 mil billones). Claro que también se trata de un bicho de 720 m2 , consume alrededor de 24 Megavatios (24.000.000, como referencia el cerebro humano usa 20 vatios) y su coste asciende hasta los 390 millones de dólares. Por el momento no es muy portátil ni demasiado accesible para la gran mayoría de sectores.

PPTExponentialGrowthof_Computing

«PPTExponentialGrowthof Computing» de Coutesy of Ray Kurzweil and Kurzweil Technologies, Inc. – en:PPTExponentialGrowthof_Computing.jpg. Disponible bajo la licencia CC BY 1.0 vía Wikimedia Commons – https://commons.wikimedia.org/wiki/File:PPTExponentialGrowthof_Computing.jpg#/media/File:PPTExponentialGrowthof_Computing.jpg

Kurzweil sugiere que en lugar de mirar el número de cps totales que puede conseguir una máquina miremos el número de cps que se pueden obtener por 1.000 $. Cuando ese número llegue a los cps del cerebro humano, la IAG será algo más tangible.

Para ello tiene en cuenta la ley de Moore, una observación física en la que el número de transistores en un circuito integrado se duplica cada 18 meses aproximadamente. Fundada en el año 1965, ha resultado ser acertada hasta la fecha y, si sigue esta tendencia, hacia el año 2025 conseguiríamos la potencia computacional necesaria para poder construir una IAG. Hay pegas para esta ley, como por ejemplo que no se puede mantener este crecimiento indefinidamente debido a las limitaciones espaciales de los circuitos. Si bien estas objeciones son más que razonables y que resulta un poco complicado tratar de extrapolar la ley de Moore en situaciones futuras, no debemos olvidar que el desarrollo tecnológico sigue subiendo con fuerza, y más ahora que estamos empezando a explorar las posibilidades de la nanotecnología. Esto quiere decir que quizás no se cumplan las predicciones de Kurzweil a tiempo; sin embargo, incluso los que acusan al futurista de ser demasiado optimista no deshechan la idea de poder alcanzar esta potencia. No discuten si es posible, sino cuándo lo será. Que luego avancemos al siguiente paso ya es otra historia, pero el consenso está ahí al menos.

Porque con potencia por sí sola no es suficiente para poder desarrollar una IAG. Necesitamos que aprenda a pensar, necesitamos…

Hacerla inteligente

Es la parte complicada. Nadie sabe a ciencia cierta como hacer algo verdaderamente inteligente. Aunque hay distintas propuestas para poder llevarlo a cabo, hay tres que son las más populares y a las que les prestaremos más atención:

¡Copiemos el cerebro!

Imaginemos que estemos haciendo un examen particularmente difícil y está la típica persona que lo hace extremadamente bien, escribiendo cada respuesta con una gran calidad y precisión. Nosotros, pese a que estudiamos diligentemente todos los días con nuestro plan de estudios no llegamos ni de lejos a los resultados que obtiene esa persona, por mucho que lo intentemos. Al final, mandamos nuestro sentido de la ética y moral y decidimos copiar descaradamente las respuestas de esta persona y así obtener el mismo resultado que esta.

Realmente esta estrategia se podría resumir así. Por mucho que nos esforcemos, por el momento no somos capaces de fabricar una máquina dotada de una inteligencia similar a la humana. Por eso, en lugar de intentar adivinar cuál sería la mejor forma de construir una y luego compararla, copiamos directamente el modelo del cerebro humano, con todas y cada una de sus conexiones neuronales, y lo trasladamos a una máquina para que sea capaz de efectuar una simulación correspondiente a la mente humana. Evidentemente, esto no lo podemos hacer con los medios de los que disponemos por ahora, pero Kurzweil predice que para el 2030 deberíamos ser capaces de conseguir semejante hito.

Una vez tenemos el ordenador con el modelo integrado, tendría una red de transistores interconectados unos con otros, como si fueran neuronas. Al principio no sabría hacer nada, como si fuera un recién nacido. Supongamos que le mandamos hacer algo, como por ejemplo reconocer los caracteres de la página de un libro. Los primeros resultados que arrojará serán completamente al azar, pero cuando le digamos que ha acertado una letra, la ruta que ha empleado para descifrar esa letra se verá reforzada, mientras que las otras se debilitarán. Si lo hacemos multitud de veces, la máquina sabrá reconocer todos los caracteres escritos de cualquier página con un sistema cada vez más optimizado. Así es como aprendería nuestra máquina.

Si los ingenieros que elaboran el modelo del cerebro humano lo hacen bien de verdad, captando cada pequeño matiz de la red neuronal, serán capaces de desarrollar una simulación de un cerebro con su propia personalidad, sus propios pensamientos y recuerdos. Es decir, si el cerebro original perteneciese a una persona llamada X, el ordenador que tiene implementado el modelo despertaría llamándose X [De hecho, el videojuego SOMA gira en torno a esta idea]. Esto crearía una serie de conflictos filosóficos, empezando por la definición de lo que somos nosotros mismos, si nuestros recuerdos, nuestra mente, un poco de todo o si ese ordenador que se autodenomina X es realmente ese X que vivió en un cuerpo de carne y hueso.

Hasta ahora, lo que sería un cerebro humano no lo hemos logrado. Sin embargo, un grupo de científicos consiguió implementar el modelo 3D de un cerebro de gusano (C. elegans) en un pequeño robot. Dicho cerebro contaba con 302 neuronas, mientras que el cerebro humano consta de 100 mil millones (100.000.000.000.000). Parece poco, pero por algún lugar se empieza.

Selección artificial

La persona a la que le queríamos copiar el examen se niega a cooperar con nosotros y no nos deja copiar su examen. De acuerdo. Si no podemos copiar sus respuestas, lo mismo podríamos copiar su método de estudio.

Resulta que desarrollar un modelo de un cerebro lo mismo no funciona tan bien. Estaríamos usando un enfoque demasiado biológico con algo que no lo es en absoluto. Al fin y al cabo, queremos una inteligencia del mismo nivel que la humana, no exactamente humana. Por el momento sabemos que contamos con la potencia computacional para poder simular un cerebro humano pero no contamos con los medios para llegar hasta una simulación al 100% precisa. Así que emplearemos el método que usó la selección natural para dar lugar a nuestro cerebro.

Para empezar, tendríamos un grupo de ordenadores más o menos extenso con un código correspondiente a la simulación del cerebro. Este grupo estaría sometido a un proceso que determinaría si este código es apto o no. Si lo fuera, entonces el ordenador en cuestión seguiría adelante, mientras que en caso contrario sería destruido (o en su defecto solamente el código si no queremos dejarnos la integridad en ordenadores). Para la siguiente generación, mezclaríamos el código antiguo con uno nuevo y volveríamos a someterlos bajo el proceso. La idea final sería conseguir que este ciclo fuera completamente automatizado y obtener la simulación perfecta tras un número suficientemente grande de iteraciones, siempre dirigido a aumentar el grado de inteligencia.

Eso ya es asunto de la máquina. Que se las apañe ella.

Esta estrategia equivaldría a programar el examen para que se hiciera a sí mismo.

La idea subyacente consiste en construir un ordenador con dos habilidades: que busque información sobre inteligencia artificial y que se pueda reprogramar para aplicarse cambios que encuentre. De este modo, el ordenador contaría con capacidad para buscar cómo podría ser mejorarse a sí misma y aplicándose esos cambios, optimizando este proceso al máximo. Pese a que parezca la solución más perezosa posible, es la que más resultados prometedores ofrece.

Mundo de la IAG

De un modo u otro, hemos conseguido crear una máquina con una inteligencia semejante a la humana. Cuando consigamos construir una, fabricar más no debe resultar demasiado complicado, de modo que viviríamos en una sociedad en la que coexisten robots y humanos, ambos con la misma inteligencia. Todos siendo felices.

Hasta que nos damos cuenta que una Inteligencia Artificial General hace todo lo que podría hacer un humano pero mejor, porque no se ve limitado a nivel tanto de hardware como de software. Si lo analizamos detenidamente, entenderemos el motivo.

Hardware

  • Velocidad. Las neuronas funcionan a unos 200 Hz, mientras que los microprocesadores actuales van a 2 GHz, 10 millones de veces más rápidos. Y lo más probable es que para cuando hayamos desarrollado las IAG, esta velocidad será todavía mayor. La velocidad de transmisión neuronal, unos 120 metros/segundo se ve superada ampliamente por la capacidad de los ordenadores para comunicarse prácticamente a la velocidad de la luz.
  • Tamaño. Aquí sí importa. El tamaño de nuestro cerebro se ve limitado por el tamaño de nuestra cabeza. Aunque tampoco podría crecer demasiado, ya no solo por cuestiones de estética y proporciones, sino porque la velocidad de neurotransmisión seguiría siendo la misma y para un cerebro demasiado grande se tardaría más de la cuenta para transmitir información de una parte del cerebro a otra. Los ordenadores cuentan con la ventaja de que se les puede añadir más memoria sin las limitaciones que nos podemos encontrar en nuestros propios cuerpos.
  • Durabilidad. Además de que la memoria de un ordenador es mucho más precisa, los transistores son menos dados a deteriorarse y, en todo caso, se pueden sustituir fácilmente. Además, el cerebro humano es susceptible a la fatiga, término que no conocen las máquinas, que pueden trabajar a máximo rendimiento todo el tiempo que sea necesario.

Software

  • Actualizaciones. Este es un punto especialmente importante. La IA puede permitirse el lujo de hacer pruebas consigo misma, modificar los parámetros que le venga en gana y comprobar si eso la mejora en algún aspecto. En este sentido, el ser humano lo tiene más difícil porque ya de por sí es complicado realizar modificaciones en un cerebro y garantizar que no le ocurre nada al individuo al que se le está sometiendo la operación. Al menos, por el momento. Pongamos por ejemplo el sentido auditivo. Un oído humano joven y sano puede captar, de media, sonidos de una frecuencia entre 20 Hz y 20 KHz (20.000 Hz). Una IAG podría, al principio y con el dispositivo pertinente, captar este mismo espectro audible. Sin embargo, la diferencia vendría cuando se aplicara actualizaciones que le permitieran ensanchar este intervalo e incluso mejorarlo para hacerlo más sensible. No sólo se reduciría a este aspecto, sino que esto mismo se aplicaría en cualquier situación.
  • Inteligencia colectiva. Seamos honestos, si en algo nos destacamos como especie aparte de nuestra extraordinaria habilidad de exterminio es nuestra inteligencia colectiva. Si no hubiéramos logrado el desarrollo y extensión elementos clave como el lenguaje o la formación de comunidades, probablemente no habríamos llegado tan lejos, ya sea para bien o para mal. Compartir los conocimientos entre nosotros nos ha garantizado nuestra supervivencia como especie y nos ha permitido avanzar con paso arrollador sobre el resto de formas de vida de este planeta. Mediante la escritura se ha facilitado mucho más este proceso y la creación de Internet no ha hecho sino intensificarlo. Hoy en día es extraordinariamente sencillo conocer los descubrimientos que han tenido lugar en la otra punta del mundo y aplicarlos en nuestra vida cotidiana. Una red global de IA puede hacer esto con mucha más facilidad puesto que la conexión entre cada unidad es prácticamente instantánea. Lo que es más, podrían trabajar como una unidad indisoluble si se plantearan un objetivo porque los sentimientos y emociones como la codicia o el deseo de fama personal no existen para estas.

Llegamos a la Superinteligencia Artificial

Ha sido un largo camino para llegar hasta aquí, pero por fin nos estamos acercando a la superinteligencia artificial (SIA). Realmente, una vez la IA llegue al nivel de IAG, será cuestión de tiempo (entre minutos y horas, según a quien le preguntes) que sobrepase el nivel de inteligencia humana y se adentre en los dominios de la superinteligencia. Una vez más, todo se trata de una cuestión de perspectiva. Para nosotros supone un gran hito que una máquina alcance el nivel de inteligencia humano, ya que en principio estamos en el pináculo de la sabiduría respecto al resto de especies. Que algo nos superara nos dejaría en una posición incómoda al perder la posición de poder. Y aquí es donde entra en juego nuestra visión de la inteligencia respecto a otras especies y entre nosotros mismos. Si cogemos a una persona con un nivel de inteligencia medio, veríamos a alguien como Stephen Hawking mucho más listo que ese individuo. Del mismo modo, si cogemos a un idiota, lo veríamos mucho menos inteligente que la persona con un nivel de inteligencia medio. Más o menos así:

inteligencia ficticia

En rojo, el nivel de la IA

En la parte inferior del gráfico está la IA, que va haciendo progresos muy poco a poco y la veríamos como una máquinita simpática que ha aprendido a hacer trucos de ratoncito. Sin embargo, hemos de tener presentes que una IA con capacidad para automejorarse podrá hacerlo sin detenerse necesariamente a nuestro nivel. Es más, a medida que vaya consiguiendo más inteligencia, eso le permitirá poder dar pasos más grandes porque dispone de los conocimientos para ello, de una forma muy parecida a la que nuestra civilización necesita menos tiempo para dar el siguiente paso en nuestro desarrollo, porque contamos con el conocimiento para ello. Esta sería una representación acertada de lo que estaría ocurriendo:

calculos por segundo

Fuente: http://www.motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-automation

Además, la franja de inteligencias que nosotros vemos tan ancha entre el humano idiota y Stephen Hawking es mucho más estrecha de lo que creíamos inicialmente. De modo que en realidad nos encontraríamos con un panorama como este:

inteligencia real

En rojo, el nivel de la IA

Esto ya es otra cosa, ¿verdad?

En principio, las IA llegarían al calibre 2 mediante una mejora automatizada de sí mismas y, aunque no fuera por ese método, ya serían lo suficientemente inteligentes como para poder apañárselas ellas mismas. Lo que ocurre es el ejemplo definitivo de la Ley de Rendimientos Acelerados que comenté unos párrafos más arriba. Una IA programada para mejorarse se halla en el nivel de humano idiota. Cuando lo hace, de repente se encuentra en el nivel de Stephen Hawking. Una vez está ahí, con el conocimiento que ha adquirido, seguirá ascendiendo llegando a niveles muy superiores sin necesidad de detenerse.

Una vez surja la SIA, no estaremos en condiciones de saber y mucho menos comprender como actúa precisamente porque es cuenta con una inteligencia desde 10 veces mayor hasta 10 millones de veces más como poco. Soy consciente que los test que determinan el coeficiente intelectual no son un buen indicativo para establecer el nivel de inteligencia de una persona, pero por el fin del artículo supongamos que es así. Sabemos que una persona con 80 de CI no es demasiado lista. Por otro lado, sabemos que una persona con 140 de CI es superdotada. Ahora bien, ¿qué nombre le damos a algo que tiene 15.000 puntos de CI? ¿Y 15.000.000? No tenemos ni idea.

Pero lo que sí sabemos es que la inteligencia otorga poder. La especie humana cuenta con la capacidad de decidir el destino de las vidas de muchas otras especies, pese a que no se esté luciendo mucho en ello. Una superinteligencia artificial tiene la respuesta a muchas incógnitas que se nos plantean en la actualidad. ¿Una forma de obtención de energía limpia y eficiente? ¿Eliminar los problemas de contaminación? ¿Dar con la solución a enfermedades incurables? ¿Hallar la llave para vivir indefinidamente? ¿Desvelar los misterios que esconde el universo? Una SIA lo tendría muy fácil.

Claro que una superinteligencia artificial no dudaría en acabar con la vida en nuestro planeta si con ello se garantiza su existencia. Recordemos que se trata de una máquina, no tiene sistema de morales e implementarle uno dista de ser sencillo. Nick Bostrom lo plantea así:

Supongamos que construimos una superinteligencia artificial que en su proceso no acabe con nuestra existencia. Supongamos que la programamos para que haga sonreír a los humanos. Lo que haría sería paralizar los músculos faciales para mantener dicha expresión. Supongamos entonces que en lugar de hacernos sonreír le pedimos que nos haga felices. Lo que haría entonces sería estimular los centros de placer de nuestro cerebro y desactivar el resto de áreas de nuestro cerebro porque eso es más eficiente energéticamente hablando.

Una SIA, en definitiva, en el momento de su nacimiento será el ser más poderoso de la existencia, de la que todos los seres vivos que habitan en la Tierra dependerán exclusivamente de ella. Por ese mismo motivo, el desarrollo de una superinteligencia artificial bien podría ser el último invento que llevarían a cabo los seres humanos.

 

Referencias

Bibliografía consultada hasta el día 14/12/2015

http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

https://hfg-resources.googlecode.com/files/SingularityIsNear.pdf   Singularity is Near por Raymond Kurzweil

https://vk.com/doc39114_362400985?hash=7d0c47d8edc7cdbbc8&dl=97d3156b2c299cd323 Superintelligence: Paths, Dangers, Strategies por Nick Bostrom

http://www.wired.com/2010/08/reverse-engineering-brain-kurzweil/

https://cosmosmagazine.com/physical-sciences/vacuum-decay-ultimate-catastrophe

http://www.motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-automation

http://www.wired.com/2014/01/google-buying-way-making-brain-irrelevant/

http://www.smithsonianmag.com/smart-news/weve-put-worms-mind-lego-robot-body-180953399/?no-ist

http://goertzel.org/TenYearsToTheSingularity.pdf

http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/

http://www.technologyreview.com/view/425818/kurzweil-responds-dont-underestimate-the-singularity/

http://cacm.acm.org/magazines/2012/1/144824-artificial-intelligence-past-and-future/fulltext

http://www.nickbostrom.com/superintelligence.html

 

The following two tabs change content below.

Albert Sabater

Escritor amateur de múltiples relatos inacabados. Dejo que mis ideas fluyan a la par que les voy dando forma. A veces queda bien.

Latest posts by Albert Sabater (see all)

Sobre Albert Sabater

Escritor amateur de múltiples relatos inacabados. Dejo que mis ideas fluyan a la par que les voy dando forma. A veces queda bien.
Añadir a favoritos el permalink.