Una vez más el famoso astrofísico Stephen Hawking se pone fatalista y reafirma su sospecha de que sea sólo cuestión de tiempo hasta que la humanidad deba huir de la Tierra en busca de un nuevo hogar. Hawking está convencido de que la supervivencia de la humanidad depende de nuestra capacidad para convertirnos en una especie interplanetaria.
De acuerdo con una entrevista concedida a la revista Wired, peligramos como especie debido alaumento poblacional y a la inminente amenaza que representa el desarrollo de inteligencia artificial (IA). Hawking menciona que “El genio está fuera de la lámpara”.
Una desgracia tras otra.
No se trata de la primera ocasión en la que el físico hace una previsión fatalista sobre el destino de los humanos, o que advierte sobre los peligros de la IA, al punto que pueda llegar a sustituir a los humanos como especie dominante.
En una entrevista que ofreció en marzo pasado a The Times, el físico aseguró que un apocalipsis de IA estaba por suceder y sería necesaria la creación de “alguna especie de gobierno mundial” para hacer frente a esta tecnología.
Además, ha advertido sobre el gravísimo impacto que tendría la IA en los empleos de la clase media e incluso solicitó una prohibición definitiva sobre el desarrollo de agentes de IA para inteligencia militar.
¿Hawking se ha vuelto loco?
Sinceramente, no creemos que sea el caso. Con mucha razón, podemos argumentar que las máquinas inteligentes ya están poniendo fin a muchos empleos. No sólo hablamos de procesos automatizados en las grandes industrias – los robots ya llevan a cabo tareas especializadas en áreas tan importantes como los hospitales, o cosiendo ropa mucho más rápido que los humanos. Esto es tan grave, que en las próximas dos décadas desaparecerá el 47% de los empleos actuales, esto de acuerdo con las estimaciones de un estudio.
Como si no fuera suficiente, varias naciones – incluida Rusia y Estados Unidos, que en los últimos meses han tenido bastante fricción – se encuentran investigando y desarrollando armas de IA para aplicar en el área militar.
Finalmente, y lo que quizá resulte más aterrador, es que una IA – que automáticamente llegó a expresar la noción de destruir a la humanidad – ha recibido una ciudadanía, convirtiéndose en el primer robot del mundo en lograrlo.
Un temor totalmente justificado.
El tema del desarrollo de las IAs ha sido ampliamente debatido por otros especialistas además de Hawking, como Elon Musk y Bill Gates, el CEO de Tesla y el cofundador de Microsoft, respectivamente.
Tanto Gates como Musk están de acuerdo con el físico sobre el potencial que tiene una IA para destruir a la humanidad.
Aunque haya investigadores que consideran ridículo un escenario apocalíptico, incluso argumentando que estas preocupaciones son desgastantes y que distorsionan la percepción pública de la IA, Hawking asegura que su temor es válido.
“Si las personas diseñan virus de computadora, alguien diseñará una IA capaz de evolucionar y replicarse”, declaró a Wired. “Será una nueva forma de vida que superará a los humanos”.
Ciertamente, una IA lo suficientemente poderosa como para pensar mejor y más rápido que los humanos sería capaz de amenazar a nuestra especie – algo que conocemos como singularidad tecnológica.
Lo mejor es prepararnos.
Dado que diversos científicos trabajan con inteligencia artificial en diversas partes del mundo, resulta inevitable suponer que tarde o temprano una tragedia sucederá.
La corazonada de Stephen Hawking es que en algún punto del próximo milenio, la humanidad tendrá que salir de la Tierra de una forma u otra.
Sin embargo, quizá el físico esté equivocado. La verdad es que no sabemos como será (o si alguna vez sucederá) la singularidad tecnológica, y tal vez en lugar de provocar la destrucción de la humanidad, sea un nuevo punto de partida para la colaboración entre seres vivos y máquinas.
Sin embargo, en ambos casos, el potencial de la IA para ser empleada en hacer el bien o el mal exige que tomemos las debidas precauciones.