En busca de la singularidad En busca de la singularidad

Por Froilán Fernández (@froilan) (*)

 

Con datos tomados desde 1958 hasta 1965, Gordon Moore estableció una sencilla ley: “El número de transistores dentro de un chip se duplica cada 18 meses”. Casi medio siglo después, la ley de Moore sigue teniendo vigencia y ya se están encapsulando miles de millones de transistores en un chip procesador, mientras que la distancia mínima entre los elementos del chip se mide en nanómetros.

 

El calor generado ha sido el mayor enemigo de chips más potentes; tanto, que Intel y AMD, los principales fabricantes de chips para PCs, se vieron obligados a abandonar la carrera de los Gigaherzios –nunca pudieron superar la barrera de los 3 GHz– y producen ahora chips de velocidad moderada, pero con varios núcleos procesadores. El resultado de esta estrategia multi-núcleo: más rendimiento y menos consumo de energía.

 

Los smartphones y tabletas actuales han aprovechado esta mejora exponencial en el rendimiento, pero la gran pregunta es: ¿podrá este crecimiento exponencial del poder de cómputo de los chips llevarnos a una máquina realmente inteligente?

 

Neuronas binarias

Guardando las distancias, una neurona se comporta como un transistor, de forma binaria. Del mismo modo que el transistor es una puerta lógica, la neurona se activa o no se activa. El estímulo puede ser analógico, pero la respuesta es digital.

 

La cantidad no lo es todo, pero en el caso del cerebro humano, el número de neuronas todavía supera en varios órdenes de magnitud a los transistores de un procesador convencional, pero estamos a menos de una década para que un supercomputador iguale en poder de cómputo al cerebro. Y a menos de 20 años para que un PC adquiera esa capacidad intelectual que hoy nos negamos a conceder a una máquina.

 

Es extraño que la humanidad acepte sin chistar todas las prótesis mecánicas y electrónicas, como autos super-veloces, aviones supersónicos o celulares de alcance planetario, pero no acepta de buen grado que unos circuitos de silicio puedan tomar decisiones autónomas.

 

La singularidad, como ha denominado Ray Kurzweil al hito en el que las máquinas nos alcanzan en el orden intelectual, puede ser enormemente beneficiosa. Piense solamente en la posibilidad de hacerle un backup a su cerebro y poder restituir la información en caso de una contingencia o en la valiosa sinergia entre máquinas y humanos que permitiría buscar y recopilar información en un proceso asistido por un asistente digital inteligente.

 

Mentes digitales

En su más reciente libro, Cómo crear una mente, el futurista Ray Kurzweil afirma que la historia de la inteligencia humana comienza con un universo que es capaz de codificar información, lo que permitió que la evolución se produjera.

 

“Los átomos –en especial los de carbono–, que pueden crear estructuras ricas en información combinádose en cuatro direcciones diferentes, formaron moléculas de complejidad creciente”, dice Kurzweil, para enfatizar que la física dio de ese modo origen a la química.

 

Mil millones de años después, la evolución llegó a una compleja molécula (ADN) que podía generar larguísimas cadenas de información y generar organismos descritos por esos “programas” o secuencias. De este modo, dice Kurzweil, la química dio paso a la biología.

 

Los centros de decisión y comunicación en los organismos evolucionaron –los cerebros y los sistemas nerviosos— y constituyeron el siguiente paso en esa evolución articulada, no por una mano divina, dice Kurzweil, sino por la información. En esa evolución, de átomos a moléculas, al ADN y a los cerebros, el próximo paso fue exclusivamente de los humanos: el pensamiento jerárquico.

 

El reconocimiento de patrones y el manejo de símbolos nos permite usar esos símbolos en la elaboración de estructuras más complejas. Todo esto ocurre en una estructura del cerebro, la neocorteza, que en los humanos ha alcanzado un umbral de sofisticación y capacidad tal que podemos elaborar ideas que generan otras ideas a través de un proceso recursivo que no tiene fin.

 

El cerebro dio origen a otro nivel de abstracción, ayudado por la existencia de los dedos pulgares, que permitieron manipular el entorno y la creación de herramientas. Así, la neurología permitió el florecimiento de la tecnología. El lenguaje y luego la escritura permitieron conservar y extender la base de conocimientos, que crece sin límites.

 

El computador Watson, de IBM, que le ganó en 2013 a los dos mayores expertos humanos en el juego Jeopardy (que requiere manejo de lenguaje natural y una inmensa base de conocimientos) y aplicaciones como Siri en el iPhone (asistentes digitales) son dos muestras de los avances en inteligencia artificial.

 

Todo esto unido a los avances en genética y al progreso exponencial de la capacidad de cómputo permitirán la creación de una neocorteza digital, el primer paso para que en menos de 15 años sea imposible distinguir entre una inteligencia natural y una artificial.

 

(*) Divulgador de temas de TI desde 1985, profesor universitario, asesor en medios sociales. Editor del site http://enbytes.com/site/