Entiende por qué la seguridad de la IA es importante
En este sitio web
Otros sitios web
El Compendio . Un conjunto exhaustivo de conocimientos sobre por qué la carrera actual de IA es tan peligrosa y qué podemos hacer al respecto.
Un camino estrecho . Un plan detallado sobre los pasos que debemos dar para aumentar nuestras posibilidades de sobrevivir en las próximas décadas.
Mantén el futuro humano . Un artículo de Anthony Aguirre de FLI sobre por qué y cómo podemos mantener el futuro humano. (revisa capítulo 8: Cómo no construir AGI )
AISafety.com y AISafety.info . Las páginas de aterrizaje para la seguridad de la IA. Aprende sobre los riesgos, comunidades, eventos, trabajos, cursos, ideas para mitigar los riesgos y más.
Seguridad existencial . Una lista completa de acciones que podemos tomar para aumentar nuestra seguridad existencial frente a la IA.
AISafety.dance . Una introducción divertida y accesible a los riesgos catastróficos de la IA.
AISafety.world . Un panorama completo de la seguridad de la IA con todas las organizaciones, medios de comunicación, foros, blogs y otros actores y recursos.
Base de datos de incidentes de IA . Base de datos de incidentes en los que los sistemas de IA causaron daño.
LethalIntelligence.ai . Una colección de recursos sobre riesgos de IA y alineación de IA.
Boletines
- PauseAI Substack : Nuestro boletín.
- TransformerNews Boletín semanal completo sobre seguridad y gobernanza de la IA.
- No te preocupes por el jarrón : Un boletín sobre seguridad de la IA, racionalidad y otros temas.
Videos
- Lista de reproducción de PauseAI es una lista de reproducción de YouTube que compilamos, con videos que van desde 1 minuto hasta 1 hora en diferentes formatos y de diversas fuentes, y no requiere conocimientos previos.
- YouTube de Robert Miles es un excelente lugar para comenzar a entender los fundamentos de la alineación de la IA.
- YouTube de LethalIntelligence
Podcasts
- DoomDebates de Liron Shapira, completamente enfocado en el destino de la IA.
- For Humanity Podcast del ex presentador de noticias John Sherman.
- Future of Life Institute | Connor Leahy sobre seguridad de la IA y por qué el mundo es frágil . Entrevista con Connor sobre las estrategias de seguridad de la IA.
- Lex Fridman | Max Tegmark: El caso para detener el desarrollo de la IA . Entrevista que profundiza en los detalles de nuestra situación actual peligrosa.
- Sam Harris | Eliezer Yudkowsky: IA, corriendo hacia el borde . Conversación sobre la naturaleza de la inteligencia, diferentes tipos de IA, el problema de la alineación, Es vs Debe, y más. Uno de los muchos episodios que Making Sense tiene sobre seguridad de la IA.
- Connor Leahy, alarma de incendio de IA . Charla sobre la explosión de inteligencia y por qué sería lo más importante que podría suceder.
- Episodios recomendados del podcast de 80,000 horas sobre IA . No 80k horas de duración, sino una recopilación de episodios del podcast de 80,000 horas sobre seguridad de la IA.
- Episodios del podcast del Future of Life Institute sobre IA . Todos los episodios del podcast de FLI sobre el futuro de la inteligencia artificial.
Los podcasts que presentan a miembros de PauseAI se pueden encontrar en la lista de cobertura de medios.
Artículos
El pensamiento que podría condenarnos con la IA (de Max Tegmark)
Pausar el desarrollo de la IA no es suficiente. Debemos cerrarlo todo (de Eliezer Yudkowsky)
El caso para ralentizar la IA (de Sigal Samuel)
La revolución de la IA: El camino hacia la superinteligencia (de WaitButWhy)
Cómo pueden surgir las IA deshonestas (de Yoshua Bengio)
Razonar a través de argumentos en contra de tomar en serio la seguridad de la IA (de Yoshua Bengio)
Revisa la sección de Lectura en LethalIntelligence.ai
Si deseas leer lo que los periodistas han escrito sobre PauseAI, revisa la lista de cobertura de medios.
Libros
Si alguien lo construye, todos mueren (Eliezer Yudkowsky y Nate Soares, 2025)
Incontrolable: La amenaza de la superinteligencia artificial y la carrera para salvar el mundo (Darren McKee, 2023). ¡Obténlo gratis !
El problema de la alineación (Brian Christian, 2020)
Compatible con humanos: Inteligencia artificial y el problema del control (Stuart Russell, 2019)
Vida 3.0: Ser humano en la era de la inteligencia artificial (Max Tegmark, 2017)
Superinteligencia: Caminos, peligros, estrategias (Nick Bostrom, 2014)
Documentos
- Una recopilación de documentos sobre seguridad de la IA
- Otra recopilación de documentos sobre seguridad de la IA
- Falsificación de alineación en grandes modelos de lenguaje documento reciente de Anthropic
- Gestión de riesgos extremos de IA en medio de un progreso rápido de los padrinos del campo
Cursos
- Introducción a la IA transformadora (15 horas)
- Fundamentos de seguridad de AGI (30 horas)
- Bibliografía de materiales recomendados de CHAI (50 horas+)
- AISafety.training : Visión general de programas de capacitación, conferencias y otros eventos
Organizaciones
- Future of Life Institute inició la carta abierta , liderada por Max Tegmark.
- Centro para la seguridad de la IA (CAIS) es un centro de investigación en la Universidad Técnica Checa en Praga, liderado por Dan Hendrycks.
- Conjecture . Start-up que trabaja en la alineación de la IA y la política de IA, liderada por Connor Leahy.
- Observatorio de Riesgo Existencial . Organización holandesa que informa al público sobre riesgos existenciales y estudia estrategias de comunicación.
- Centro para la gobernanza de la IA
- FutureSociety
- Centro para la inteligencia artificial compatible con humanos (CHAI), liderado por Stuart Russell.
- Instituto de Investigación de Inteligencia de Máquina (MIRI), haciendo investigación matemática sobre seguridad de la IA, liderado por Eliezer Yudkowsky.
- Instituto de Política y Estrategia de IA (IAPS)
- El Instituto de Política de IA
- Centro de Comunicaciones de Seguridad de la IA
- El Proyecto Midas Campañas de presión corporativa para la seguridad de la IA.
- El Proyecto de Supervivencia Humana
- Mundo de seguridad de la IA Aquí hay una visión general del panorama de la seguridad de la IA.
Si estás convencido y deseas tomar medidas
Hay muchas cosas que puedes hacer. Escribir una carta, ir a una protesta, donar algo de dinero o unirse a una comunidad no es tan difícil. Y estas acciones tienen un impacto real. Incluso cuando enfrentamos el fin del mundo, todavía puede haber esperanza y un trabajo muy gratificante que hacer.
O si todavía no te sientes seguro
Aprender sobre la psicología del riesgo existencial podría ayudarte.