If Anyone Builds It, Everyone Dies Audiolibro Por Eliezer Yudkowsky, Nate Soares arte de portada

If Anyone Builds It, Everyone Dies

Why AI Is on Track to Kill Us All—and How We Can Avert Extinction

Pre-ordena con la oferta. Preordena por $0.00
La oferta termina el 30 de abril, 2025 a las 11:59PM PT.
Prime logotipo Exclusivo para miembros Prime: ¿Nuevo en Audible?
Obtén 2 audiolibros gratis con tu prueba.
Elige 1 audiolibro al mes de nuestra colección inigualable
Escucha todo lo que quieras de entre miles de audiolibros, Originals y podcasts incluidos.
Accede a ofertas y descuentos exclusivos.
Premium Plus se renueva automáticamente por $14.95/mes después de 3 meses. Cancela en cualquier momento.
Elige 1 audiolibro al mes de nuestra inigualable colección.
Escucha todo lo que quieras de entre miles de audiolibros, Originals y podcasts incluidos.
Accede a ofertas y descuentos exclusivos.
Premium Plus se renueva automáticamente por $14.95 al mes después de 30 días. Cancela en cualquier momento.

If Anyone Builds It, Everyone Dies

De: Eliezer Yudkowsky, Nate Soares
Pre-ordena con la oferta. Preordena por $0.00

$14.95/mes despues de 3 meses. La oferta termina el 30 de abril, 2025 11:59PM PT. Cancela en cualquier momento.

$14.95 al mes después de 30 días. Cancela en cualquier momento.

Resérvalo en preventa por $19.49

Resérvalo en preventa por $19.49

Confirmar precompra
la tarjeta con terminación
Al confirmar tu compra, aceptas las Condiciones de Uso de Audible y el Aviso de Privacidad de Amazon. Impuestos a cobrar según aplique.
Cancelar

Acerca de esta escucha

An urgent warning from two artificial intelligence insiders on the reckless scramble to build superhuman AI—and how it will end humanity unless we change course.

In 2023, hundreds of machine-learning scientists signed an open letter warning about our risk of extinction from smarter-than-human AI. Yet today, the race to develop superhuman AI is only accelerating, as many tech CEOs throw caution to the wind, aggressively scaling up systems they don't understand—and won’t be able to restrain. There is a good chance that they will succeed in building an artificial superintelligence on a timescale of years or decades. And no one is prepared for what will happen next.

For over 20 years, two signatories of that letter—Eliezer Yudkowsky and Nate Soares—have been studying the potential of AI and warning about its consequences. As Yudkowsky and Soares argue, sufficiently intelligent AIs will develop persistent goals of their own: bleak goals that are only tangentially related to what the AI was trained for; lifeless goals that are at odds with our own survival. Worse yet, in the case of a near-inevitable conflict between humans and AI, superintelligences will be able to trivially crush us, as easily as modern algorithms crush the world’s best humans at chess, without allowing the conflict to be close or even especially interesting.

How could an AI kill every human alive, when it’s just a disembodied intelligence trapped in a computer? Yudkowsky and Soares walk through both argument and vivid extinction scenarios and, in so doing, leave no doubt that humanity is not ready to face this challenge—ultimately showing that, on our current path, If Anyone Builds It, Everyone Dies.

©2025 Eliezer Yudkowsky and Nate Soares (P)2025 Little, Brown & Company
Ciencia y Tecnología Historia y Cultura Informática Política Pública Política y Gobierno Tecnología y Sociedad

Lo que los oyentes dicen sobre If Anyone Builds It, Everyone Dies

Calificaciones medias de los clientes

Reseñas - Selecciona las pestañas a continuación para cambiar el origen de las reseñas.