Stephen Hawking y el fin de la humanidad

Sabemos que los procesos de evolución aleatoria pueden producir una inteligencia de nivel humano porque ya lo han hecho antes al menos una vezNick Bostrom, filósofo sueco


 

Una advertencia de Stephen Hawking no es algo que uno pueda tomar con ligereza y menos aún cuando se trata de una alerta sobre el fin de la especie humana.

 

En días pasados, este reconocido astrofísico británico alertó al mundo sobre los peligros de la inteligencia artificial, tecnología que a su juicio eventualmente se volverá autoconsciente y terminará por eliminar y reemplazar a los seres humanos en el planeta. A pesar de que el mensaje de Hawking no es novedoso, la prominencia del mensajero ha producido que el tema ocupe las primeras planas de un buen número de medios alrededor del mundo.

 

Desde 1956 parte de la comunidad científica y filosófica ha venido pronosticando el inminente ascenso de la inteligencia artificial —creada en 1940— y debatiendo los alcances de ésta; pero hasta hace muy poco para el gran público este tipo de proyecciones parecían más producto de un arrebato demencial que un análisis serio. El tiempo le ha dado la razón a los científicos y a los filósofos. Con el correr de los años, muchas de las más aventuradas predicciones sobre la inteligencia artificial se han materializado. Pero un estallido aún más espectacular está por producirse; uno que hará palidecer las capacidades de los robots industriales, de los automóviles que se conducen solos y de los sistemas operativos más avanzados de nuestro tiempo.

 

Se estima que entre 2025 y 2040 las máquinas habrán alcanzado la misma capacidad y velocidad de procesamiento que el cerebro humano. Es evidente que la ficción ha alcanzado la realidad más rápido de lo esperado y que importantes amenazas y oportunidades se nos abren con su llegada. Una muy buena idea de sus alcances se configura en la respuesta a una interrogante que, como suele ocurrir con tantas otras, por básica ha sido dejada de lado: ¿por qué no nos dimos cuenta antes?

 

En su influyente libro “Race against the machine” (Carrera contra la máquina), Erik Brynjolfsson y Andrew McAfee ofrecen dos conceptos clave para responder a esta pregunta. El primero es la Ley de Moore —bautizada así en honor a Gordon Moore, cofundador de Intel— que originalmente postulaba que la capacidad de los microprocesadores se duplica cada 12 meses. En su versión actualizada y comprobada esta ley establece que la capacidad de las máquinas medida en términos de velocidad de procesadores y la mejora de los algoritmos se duplica cada 18 meses.

 

El segundo concepto ofrecido por Brynjolfsson y McAfee, estrechamente vinculado con el primero, puede ser llamado “sigilo de la multiplicación exponencial” —el término es propuesto por el autor de esta columna— y es explicado por Kevin Drum (“The Observer”, 13/05/2013) tomando como ejemplo un famoso y enorme lago norteamericano llamado Lago Michigan. Drum propone efectuar un experimento mental como caso análogo y proporcional al desarrollo de la Inteligencia Artificial. El experimento de Drum consiste en suponer, por principio de cuentas, que estamos en 1940 —año en que da inicio a la inteligencia artificial— y que podemos vaciar por completo el contenido del lago Michigan.

 

Después debemos imaginar que se nos pide llenar el espacio vaciado de nuevo, pero se nos impone para ello una regla: podemos empezar el día uno vertiendo en el lecho vacío el agua contenida en un vaso —aproximadamente 30 mililitros—. A partir de ese momento podemos regresar cada 18 meses a depositar el doble de la cantidad depositada la vez inmediata anterior; es decir, 60 ml la segunda vez, 120 ml la tercera y así sucesivamente.

 

En 1970, 30 años después de haber iniciado este proceso, habríamos depositado apenas el equivalente al agua de una piscina casera. En 2000, otros 30 años después, apenas habríamos logrado cubrir toda la superficie con una delgada capa de agua de apenas un par de centímetros de altura. Sin embargo, siguiendo la misma lógica, en el año 2020 ya habríamos logrado una profundidad de 12 metros, y para 2040 ya habríamos terminado de llenar el lecho vacío.

 

El punto de Drum es que, con base en la Ley de Moore, durante los primeros 70 años parecería que hay grandes avances; pero en los últimos 15 años, aparentemente de la nada, habríamos terminado el trabajo. De manera análoga al experimento mental del Lago Michigan, la capacidad de solución de problemas de las máquinas de 2040 será comparable a la de un ser humano y parecerá haber ocurrido de repente.

 

Las máquinas con inteligencia artificial sustituirán trabajos humanos que considerábamos irreemplazables y diversos sistemas autónomos —autorreparables y autoprogramables— comenzarán a convivir con nosotros. El problema es que, a diferencia de lo que ocurre con las personas, las máquinas continuarán duplicando su poder cada 18 meses. Si el ascenso de la inteligencia artificial nos tomará por sorpresa, es en buena medida porque éste ha sido tan silencioso como veloz y constante.

 

Stephen Hawking sabe que, como consecuencia natural de la Ley de Moore, la inteligencia artificial se encuentra a punto de entrar en la fase de crecimiento exponencial y que los seres humanos no estamos preparados para lidiar con las consecuencias de este acelerado proceso.

 

Su pronóstico, claramente fatalista, no es, empero, el único disponible. También hay quienes aseguran que a los seres humanos terminará por ocurrirles algo similar a lo que les ha ocurrido a los gorilas —las máquinas inteligentes no nos aniquilarán, pero tampoco nos necesitarán— y quienes consideran que por más inteligente que sea una máquina, ésta jamás podrá desarrollar una conciencia similar a la humana y que, por lo tanto, estará siempre subordinada a nuestras necesidades.

 

En este momento lo único seguro es que los seres humanos muy pronto tendremos entre nosotros nuevos e insospechados compañeros. Por ahora sigue en nuestras manos la determinación del papel que queremos que éstos jueguen en nuestra sociedad. De continuar produciendo más y mejores máquinas en automático, y sin encausar este proceso, en unos años quizás ya no tengamos la oportunidad de decidir o descubramos que los papeles se han invertido. En este sentido, sería una muy mala idea tirar la advertencia de Hawking en un saco roto.

 

*Maestro en Estudios Humanísticos con especialidad en Ética (ITESM).

 

 

@asalgadoborge

 

antoniosalgadoborge@gmail.com

 

 

– See more at: http://yucatan.com.mx/editoriales/opinion/el-fin-de-la-humanidad#sthash.R1x6vYDO.ooDBCdpA.dpuf

Stephen Hawking y el fin de la humanidad

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s