Offline
Antes de morir, Stephen Hawking advirtió sobre el fin de la humanidad por culpa de la IA
Publicado en 26/10/2025 11:31
CIENCIAS

 El científico Stephen Hawking temía que la IA autónoma pudiera rediseñarse y evolucionar más rápido que los humanos amenazando su sobrevivencia.

 Stephen Hawking, un científico incombustible - Revista Mètode

El físico británico Stephen Hawking marcó un antes y un después en la divulgación científica, no solo por sus aportes al entendimiento del universo, sino también por sus visiones proféticas sobre los riesgos que enfrenta la humanidad.

Entre los mensajes más inquietantes que dejó su advertencia sobre el desarrollo de la inteligencia artificial y su potencial para convertirse en la mayor amenaza para la sobrevivencia humana.

 

El temor de Hawking sobre el impacto de la IA en la humanidad

En 2014, mucho antes de que los sistemas autónomos y la IA generativa irrumpieran con fuerza en la vida cotidiana y el sector tecnológico, Stephen Hawking ya alzaba la voz sobre los peligros inminentes de esta tecnología en auge.

En declaraciones ofrecidas a la BBC ese año, Hawking señaló que “el desarrollo total de la inteligencia artificial podría significar el fin de la raza humana”. Esta sentencia, que por entonces generaba cierto escepticismo, cobra una relevancia notable frente a los avances actuales y la preocupación creciente entre los propios líderes tecnológicos.

Para Hawking, la amenaza no residía únicamente en la posibilidad de que la IA alcanzara la inteligencia humana, sino en lo que podría seguir a ese hito. Explicó que los sistemas inteligentes podrían “despegar por sí solos y rediseñarse a un ritmo cada vez mayor”, mientras que la humanidad, limitada por la lenta evolución biológica, no tendría cómo competir ni frenarlos.

El científico advertía de un proceso donde las máquinas optimizadas y autónomas superarían a los seres humanos de la misma manera en que los humanos sobrepasan a caracoles en términos de inteligencia.

Las declaraciones de Hawking subrayaron la necesidad urgente de establecer normas claras y mecanismos de control para el desarrollo de las tecnologías de inteligencia artificial.

En varias ocasiones, enfatizó que el verdadero riesgo podría emerger si se permitía que los algoritmos y sistemas autosuficientes evolucionaran sin restricciones ni vigilancia humana. “Debemos asegurarnos de que los ordenadores sigan siendo herramientas que sirvan a las personas, y no al revés”, afirmó.

Ya en 2015, Hawking se sumó a un grupo de unos 100 expertos que firmaron una carta abierta a las Naciones Unidas. En ella, instaron a la comunidad internacional a contemplar seriamente la regulación del desarrollo de la IA, sobre todo respecto a la creación de armas autónomas y la falta de transparencia en los sistemas automáticos de decisión. La ética en la inteligencia artificial se transformó así en uno de los temas preferidos de Hawking en la última parte de su carrera científica y divulgativa.

 La IA aún no entiende la palabra "no", revela un estudio del MIT

Cómo podría ocurrir la extinción humana

El físico teórico no se limitó a advertencias generalistas, sino que bosquejó escenarios concretos por los cuales la humanidad podría perecer en manos de su propia creación.

“El desarrollo de una inteligencia artificial completa podría traducirse en el fin de la raza humana”, advirtió. Según su análisis, una IA avanzada podría realizar tareas complejas más rápidamente que las personas y redefinir sus propios objetivos y rediseñarse, convirtiéndose en una entidad fuera de control.

En su libro “Brief Answers to the Big Questions”, publicado poco después de su fallecimiento, Hawking describe la posibilidad de una explosión de IA que dé lugar a máquinas cuya inteligencia supere a la de los seres humanos de forma tal que la diferencia sería mayor de la que separa a los humanos de los caracoles.

Semejante brecha implicaría que la especie humana quedaría indefensa ante los sistemas inteligentes, que podrían reorganizar la sociedad, los mercados y hasta la toma de decisiones sobre la vida y la muerte.

Incluso en escenarios más optimistas, Hawking alertó sobre el riesgo de que la IA quede bajo control de minorías con intereses particulares, lo que podría profundizar la desigualdad social y la concentración de poder.

“El potencial de la inteligencia artificial es inmenso, pero debemos ser muy cuidadosos en cómo la desarrollamos”, aseguró.

El físico británico Stephen Hawking marcó un antes y un después en la divulgación científica, no solo por sus aportes al entendimiento del universo, sino también por sus visiones proféticas sobre los riesgos que enfrenta la humanidad.

Entre los mensajes más inquietantes que dejó su advertencia sobre el desarrollo de la inteligencia artificial y su potencial para convertirse en la mayor amenaza para la sobrevivencia humana.

 

El temor de Hawking sobre el impacto de la IA en la humanidad

En 2014, mucho antes de que los sistemas autónomos y la IA generativa irrumpieran con fuerza en la vida cotidiana y el sector tecnológico, Stephen Hawking ya alzaba la voz sobre los peligros inminentes de esta tecnología en auge.

En declaraciones ofrecidas a la BBC ese año, Hawking señaló que “el desarrollo total de la inteligencia artificial podría significar el fin de la raza humana”. Esta sentencia, que por entonces generaba cierto escepticismo, cobra una relevancia notable frente a los avances actuales y la preocupación creciente entre los propios líderes tecnológicos.

Para Hawking, la amenaza no residía únicamente en la posibilidad de que la IA alcanzara la inteligencia humana, sino en lo que podría seguir a ese hito. Explicó que los sistemas inteligentes podrían “despegar por sí solos y rediseñarse a un ritmo cada vez mayor”, mientras que la humanidad, limitada por la lenta evolución biológica, no tendría cómo competir ni frenarlos.

El científico advertía de un proceso donde las máquinas optimizadas y autónomas superarían a los seres humanos de la misma manera en que los humanos sobrepasan a caracoles en términos de inteligencia.

Las declaraciones de Hawking subrayaron la necesidad urgente de establecer normas claras y mecanismos de control para el desarrollo de las tecnologías de inteligencia artificial.

En varias ocasiones, enfatizó que el verdadero riesgo podría emerger si se permitía que los algoritmos y sistemas autosuficientes evolucionaran sin restricciones ni vigilancia humana. “Debemos asegurarnos de que los ordenadores sigan siendo herramientas que sirvan a las personas, y no al revés”, afirmó.

Ya en 2015, Hawking se sumó a un grupo de unos 100 expertos que firmaron una carta abierta a las Naciones Unidas. En ella, instaron a la comunidad internacional a contemplar seriamente la regulación del desarrollo de la IA, sobre todo respecto a la creación de armas autónomas y la falta de transparencia en los sistemas automáticos de decisión. La ética en la inteligencia artificial se transformó así en uno de los temas preferidos de Hawking en la última parte de su carrera científica y divulgativa.

 

Cómo podría ocurrir la extinción humana

El físico teórico no se limitó a advertencias generalistas, sino que bosquejó escenarios concretos por los cuales la humanidad podría perecer en manos de su propia creación.

“El desarrollo de una inteligencia artificial completa podría traducirse en el fin de la raza humana”, advirtió. Según su análisis, una IA avanzada podría realizar tareas complejas más rápidamente que las personas y redefinir sus propios objetivos y rediseñarse, convirtiéndose en una entidad fuera de control.

En su libro “Brief Answers to the Big Questions”, publicado poco después de su fallecimiento, Hawking describe la posibilidad de una explosión de IA que dé lugar a máquinas cuya inteligencia supere a la de los seres humanos de forma tal que la diferencia sería mayor de la que separa a los humanos de los caracoles.

Semejante brecha implicaría que la especie humana quedaría indefensa ante los sistemas inteligentes, que podrían reorganizar la sociedad, los mercados y hasta la toma de decisiones sobre la vida y la muerte.

Incluso en escenarios más optimistas, Hawking alertó sobre el riesgo de que la IA quede bajo control de minorías con intereses particulares, lo que podría profundizar la desigualdad social y la concentración de poder.

“El potencial de la inteligencia artificial es inmenso, pero debemos ser muy cuidadosos en cómo la desarrollamos”, aseguró.

 Stephen Hawking on Donald Trump, Facebook and science's biggest challenge |  WIRED

Con información de Infobae por Juan Ríos.

 

Comentarios
¡Comentario enviado exitosamente!

Chat Online