Un llamamiento inaplazable para poner freno a la carrera hacia la superinteligencia. «Un libro muy interesante, incluso si no estás de acuerdo con su conclusión.» Marta Peirano, periodista y escritora especializada en tecnología y poder. «Un ensayo provocador que, aunque se equivoca al vaticinar la extinción humana, acierta al identificar el desafío: la llegada de sistemas de IA avanzados con metas propias.» Jaime Sevilla, director de Epoch AI, centro de investigación del futuro de la IA «Si no entiendes cómo funciona una IA, estás en buena compañía: los propios ingenieros que las construyen tampoco lo entienden del todo. Este libro, que combina enfoques de seguridad informática con filosofía y ciencia ficción, explica por qué eso debería preocuparnos.» Hugo Viciana, filósofo y experto en ciencias cognitivas Desde hace unos años, cientos de expertos en inteligencia artificial vienen advirtiendo que esta supone un grave peligro de extinción para la humanidad. Sin embargo, la carrera no ha dejado de intensificarse: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias, y su conclusión es cristalina: basta u na mínima desviación para que desarrollen objetivos propios en conflicto con los nuestros. Si llega el momento, no habrá marcha atrás, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La solución está clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza.Este libro explica por qué es importante que nos protejamos de la IA, cómo podrían sucederse los acontecimientos y qué debemos hacer para evitar que nos domine.
-5%
Antes:11,43 €
Despois10,86 €
IVE incluído
Un llamamiento inaplazable para poner freno a la carrera hacia la superinteligencia. «Un libro muy interesante, incluso si no estás de acuerdo con su conclusión.» Marta Peirano, periodista y escritora especializada en tecnología y poder. «Un ensayo provocador que, aunque se equivoca al vaticinar la extinción humana, acierta al identificar el desafío: la llegada de sistemas de IA avanzados con metas propias.» Jaime Sevilla, director de Epoch AI, centro de investigación del futuro de la IA «Si no entiendes cómo funciona una IA, estás en buena compañía: los propios ingenieros que las construyen tampoco lo entienden del todo. Este libro, que combina enfoques de seguridad informática con filosofía y ciencia ficción, explica por qué eso debería preocuparnos.» Hugo Viciana, filósofo y experto en ciencias cognitivas Desde hace unos años, cientos de expertos en inteligencia artificial vienen advirtiendo que esta supone un grave peligro de extinción para la humanidad. Sin embargo, la carrera no ha dejado de intensificarse: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias, y su conclusión es cristalina: basta u na mínima desviación para que desarrollen objetivos propios en conflicto con los nuestros. Si llega el momento, no habrá marcha atrás, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La solución está clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza.Este libro explica por qué es importante que nos protejamos de la IA, cómo podrían sucederse los acontecimientos y qué debemos hacer para evitar que nos domine.
SI ALGUIEN LA CREA, TODOS MORIREMOS es un libro del género POLITICA, RELIXION E FILOSOFIA de SOCIOLOXIA del autor ELIEZER YUDKOWSKY editado por EDICIONES DESTINO en el año 2026.
SI ALGUIEN LA CREA, TODOS MORIREMOS tiene un código de ISBN 9788423369355 y consta de 288 Páxinas. En este caso se trata de formato ebook pero tambien disponemos Si alguien la crea, todos moriremos en formato papel.
20,35 € 19,33 €
16,00 € 15,20 €
25,85 € 24,56 €
28,25 € 26,84 €
Queres que che contemos un segredo? 🤫 Subscríbete á nosa newsletter e recibe as últimas novidades e promocións especiais. Únete á nosa comunidade de lectores e lectoras!
Responsable do tratamento: Serlogal 2.0 S.L.; Contacto: protecciondatos@serlogal.com
Destinatarios: Non se prevén cesións de datos a empresas alleas ó noso grupo.
Dereitos: Acceso, Rectificación, Limitación, Oposición e Portabilidade.
Se pode consultar a información detallada na nosa Política de Privacidade