(Top)

Protesta de PauseAI en Bletchley Park - 1 de noviembre

AI-Safety-Summit-Logo

El Reino Unido está dando pasos importantes. Reconociendo prácticamente todos los riesgos de la IA, invirtiendo 100 millones de libras en seguridad de la IA, organizando una cumbre y anunciando un Instituto de Seguridad de la IA.

Sin embargo, esto no es suficiente. Expertos en IA de primer nivel como Geoffrey Hinton y Yoshua Bengio han dejado claro que no sabemos cómo controlar una IA superinteligente. Si nos equivocamos, la extinción humana es una posibilidad muy real. Por lo tanto, estamos pidiendo una pausa inmediata e indefinida en la investigación y el desarrollo de la IA de vanguardia.

El 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en el Reino Unido. Esta es una oportunidad única para dar los primeros pasos hacia una regulación internacional sensata de la seguridad de la IA.

Sin embargo, no parece que los responsables estén conscientes de la urgencia que requiere la situación. El organizador y representante del Primer Ministro para la Cumbre de Seguridad de la IA, Matt Clifford, ha declarado

que “Detener el desarrollo de la IA ahora sería prematuro”, y que no espera
“controles estrictos” de la cumbre. El documento de seguridad de la IA publicado la semana pasada sugiere
que el Reino Unido confía en que tendremos muchos años para prepararnos para la AGI. Pero el Reino Unido se basa en estimaciones del año pasado, antes de que se lanzara ChatGPT. En Metaculus, la predicción de la fecha de la primera AGI disminuyó
de 2047 a 2026 en los últimos 18 meses.

Necesitamos que nuestros líderes tomen medidas de precaución y implementen una pausa de inmediato.

Lo que pedimos

  • Responsables políticos: No permitan que las empresas desarrollen una IA superinteligente. Las regulaciones y restricciones de hardware deben aplicarse antes de que comience la formación, ya que es muy difícil controlar la difusión una vez que se ha logrado una nueva capacidad. No podemos permitir que las empresas entren modelos de IA potencialmente peligrosos. Redactar legislación es difícil y lleva tiempo, pero es posible que no tengamos tanto tiempo, así que trabajen con urgencia. La vida de todos está en juego.
  • Empresas: Muchas de ustedes temen lo que la IA puede hacer, pero están atrapadas en una carrera. Así que sean vocales sobre apoyar una pausa en principio. Si firman declaraciones de que esta tecnología podría ser perjudicial, muestren al mundo que preferirían no desarrollarla si fuera una opción viable.
  • Invitados a la cumbre: Prioricen la seguridad sobre el crecimiento económico. Sabemos que la IA puede generar riqueza, pero eso no es lo que está en juego aquí. Sean los líderes responsables que el mundo necesita.

Para nuestra propuesta completa, véase aquí.

Comunicado de prensa

PARA PUBLICACIÓN EL 1 DE NOVIEMBRE DE 2023

Protesta durante la Cumbre de Seguridad de la IA pide un alto al desarrollo peligroso de la IA

1 de noviembre: PauseAI está organizando una protesta en Bletchley Park, durante la Cumbre de Seguridad de la IA instando a los responsables políticos y a los asistentes a la Cumbre de Seguridad de la IA a prohibir la creación de una IA superinteligente de inmediato.

En marzo de este año, muchas figuras notables firmaron una carta

pidiendo una pausa de seis meses en el desarrollo de sus modelos de IA de vanguardia. En mayo, cientos de científicos de la IA firmaron una declaración
diciendo que “Mitigar el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

Recientes encuestas en EE. UU.

y Reino Unido
han demostrado que una gran mayoría de personas quiere que el gobierno intervenga y evite que se desarrolle una IA superinteligente. Hasta ahora, no se han propuesto borradores de leyes
que lo hagan.

El 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido. La cumbre contará con la asistencia de destacados científicos de la IA, responsables políticos y ejecutivos de la industria. Esto marca una oportunidad única para establecer los primeros pasos hacia una regulación internacional de la seguridad de la IA. Sin embargo, el Reino Unido no planea utilizar esta oportunidad para implementar una regulación estricta de la IA. El organizador y representante del Primer Ministro para la Cumbre de Seguridad de la IA, Matt Clifford, ha declarado

que “Detener el desarrollo de la IA ahora sería prematuro”, y que no espera
“controles estrictos” de la cumbre.

“Estamos contentos de que el Reino Unido esté liderando la seguridad de la IA y mostrando liderazgo internacional”, dice Joep Meindertsma, director de PauseAI. “Pero no estamos viendo el nivel de urgencia que se merece. En 2020, los pronosticadores predijeron

la llegada de la IA a nivel humano en 2055. Hoy en día, la predicción promedio
es 2026. No podemos arriesgarnos a un desastre subestimando la velocidad del progreso. Necesitamos que nuestros políticos tomen medidas de precaución. La vida de todos está en juego. Ninguna empresa debería tener permitido desarrollar una IA superinteligente”.

Medios

La protesta fue cubierta en NewScientist.