Investigadores de IA, AIImpacts 2022 : asignan una probabilidad del 14% a “resultados verdaderamente desastrosos (como la extinción humana)”, con una mediana del 5%. El 82% considera que el problema de control es importante.
Investigadores de IA, AIImpacts 2023 : La probabilidad media de catástrofe (p(doom)) se sitúa entre el 14% y el 19,4%, dependiendo de la formulación de la pregunta. El 86% considera que el problema de control es importante.
Investigadores de seguridad de IA, AlignmentForum : los encuestados asignaron una probabilidad mediana del 20% al riesgo existencial causado por la falta de investigación técnica suficiente, y del 30% al riesgo existencial causado por la falla de los sistemas de IA para hacer lo que las personas que los despliegan pretendían, con una gran variación (por ejemplo, hay puntos de datos en ambos ~1% y ~99%).
Opinión pública sobre riesgos catastróficos
Ciudadanos del Reino Unido, PublicFirst : creen que hay una probabilidad del 9% de que los humanos se extingan debido a la IA. Alrededor del 50% dice que están muy o algo preocupados por esto.
Ciudadanos alemanes, Kira : Solo el 14% cree que la IA tendrá un impacto positivo en el mundo, el 40% considera que será mixto y el 40% que será negativo.
Ciudadanos estadounidenses, RethinkPriorities : están de acuerdo (59%) y apoyan (58%) la declaración de riesgo existencial. La desacuerdo (26%) y la oposición (22%) fueron relativamente bajas, y una proporción considerable de personas se mantuvo neutral (12% y 18% para los formatos de acuerdo y apoyo, respectivamente).
Ciudadanos australianos, Ready Research : el 80% cree que el riesgo de IA es una prioridad global, el 64% quiere que el gobierno se centre en resultados catastróficos (en comparación con solo el 25% en pérdida de empleo, o el 5% en sesgo).
Opinión pública sobre regulaciones y gobernanza
Ciudadanos del Reino Unido, YouGov : el 87% de los británicos apoyaría una ley que requiera que los desarrolladores de IA demuestren que sus sistemas son seguros antes de su lanzamiento, con el 60% a favor de prohibir el desarrollo de modelos de IA “más inteligentes que los humanos”.
Ciudadanos estadounidenses, YouGov : el 72% quiere que la IA se ralentice, el 8% quiere acelerar. El 83% de los votantes cree que la IA podría causar accidentalmente un evento catastrófico.
Ciudadanos estadounidenses, YouGov : el 73% cree que las empresas de IA deben ser responsables de los daños causados por la tecnología que crean, el 67% piensa que el poder de los modelos de IA debe ser restringido, y el 65% cree que mantener la IA fuera de las manos de actores malintencionados es más importante que proporcionar los beneficios de la IA a todos.
Ciudadanos estadounidenses, AIPI : 49:20 apoyan “un tratado internacional para prohibir cualquier inteligencia artificial ‘más inteligente que los humanos’”, 70:14 apoyan “Prevenir que la IA alcance rápidamente capacidades superhumanas”.
Profesores de CS de EE. UU., Axios Generation Lab : Alrededor de 1 de cada 5 predijo que la IA “definitivamente” permanecerá bajo control humano. El resto se dividió entre aquellos que dijeron que la IA “probablemente” o “definitivamente” se saldrá de control y aquellos que dijeron “probablemente no”.
Solo 1 de cada 6 dijo que la IA no debe o no puede ser regulada. Solo un puñado confía en que el sector privado se autorregule.
Ciudadanos estadounidenses, Sentience Institute : Hubo un amplio apoyo a medidas que podrían tomarse para ralentizar el desarrollo. Las personas apoyaron campañas públicas para ralentizar el desarrollo de la IA (71,3%), regulación gubernamental que ralentice el desarrollo (71,0%), y una pausa de seis meses en algunos tipos de desarrollos de IA (69,1%). El apoyo a una prohibición de la inteligencia artificial general (AGI) que es más inteligente que los humanos fue del 62,9%.
Ciudadanos del Reino Unido, YouGov : el 74% cree que el gobierno debe evitar que la IA superhumana se cree rápidamente. Más del 60% apoya un tratado con una prohibición global de la superinteligencia.
Ciudadanos del Reino Unido, AISCC : el 83% de las personas dijo que los gobiernos deben requerir que las empresas de IA demuestren que sus modelos de IA son seguros antes de lanzarlos.