Protesta internacional de PauseAI el 21 de octubre de 2023
21 de octubre (sábado), en varios países
- EE. UU., California, San Francisco ( Facebook )
- EE. UU., Massachusetts, Boston ( Facebook )
- Reino Unido, Parliament Square, Londres ( Inscríbete , Facebook )
- Países Bajos, La Haya ( Inscríbete )
- Australia, Melbourne ( Inscríbete )
- Canadá, Ottawa (Organizado por Align the World, inscríbete en Facebook o Eventbrite )
- Dinamarca, Copenhague ( Facebook )
- ¿Tu país no está en la lista? Discute en Discord
Por qué protestamos
La inteligencia artificial está avanzando a un ritmo vertiginoso, mucho más rápido de lo que cualquier científico de la IA había predicho. Se están invirtiendo miles de millones en capacidades de IA, y los resultados son asombrosos. Los nuevos modelos están superando a los humanos en muchos ámbitos. A medida que aumentan las capacidades, también aumentan los riesgos. Los científicos incluso advierten que la IA podría acabar destruyendo la humanidad. Este resultado desastroso no solo parece posible, sino también probable, ya que las estimaciones de probabilidad promedio para estos resultados varían del 14% al 40%.
Necesitamos que nuestros líderes escuchen estas advertencias, pero no están tomando este tema con la seriedad que merece. Se está redactando legislación sobre seguridad de la IA, pero ni una sola medida evitaría o retrasaría la creación de una IA superinteligente . Más del 70% de las personas quieren ralentizar el desarrollo de la IA, y más del 60% quieren que el gobierno intervenga para evitar la creación de una IA superinteligente. ¿Por qué no hay un borrador de legislación que realmente haga esto? La respuesta es el lobby: nuestros políticos están reuniéndose principalmente con los directores ejecutivos de empresas de IA , y ellos impulsarán medidas políticas que estén en su interés.
El 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en el Reino Unido. La oportunidad perfecta para dar los primeros pasos hacia una regulación internacional sensata de la seguridad de la IA.
Lo que pedimos
- Responsables políticos: No permitan que las empresas creen una superinteligencia. Las regulaciones y restricciones de hardware deben aplicarse antes de que comience la formación, ya que es muy difícil controlar la difusión una vez que se ha logrado una nueva capacidad. No podemos permitir que las empresas entren modelos de IA potencialmente peligrosos. Redactar legislación es difícil y lleva tiempo, pero es posible que no tengamos tanto tiempo, así que trabajen como si su vida dependiera de ello. Porque depende de ello.
- Empresas: Muchas de ustedes temen lo que la IA puede hacer, pero están atrapadas en una carrera. Así que sean vocales sobre su apoyo a una pausa en principio. Si firman declaraciones de que esta tecnología podría matarnos a todos, muestren al mundo que preferirían no construirla si fuera una opción viable.
- Invitados a la cumbre: Prioricen la seguridad sobre el crecimiento económico. Sabemos que la IA puede hacer que nuestros países sean más ricos, pero ese no es el motivo por el que están aquí. Sean los adultos en la sala.
Para nuestra propuesta completa, véase aquí.
Comunicado de prensa
PARA PUBLICACIÓN INMEDIATA
La protesta internacional pide un alto al desarrollo peligroso de la IA
21 de octubre: PauseAI está organizando una protesta internacional protesta instando a los responsables políticos y a los asistentes a la Cumbre de Seguridad de la IA a trabajar hacia una prohibición de la creación de una IA superinteligente. La protesta tendrá lugar en 8 países simultáneamente y se espera que sea la protesta más grande por una moratoria de la IA por un amplio margen.
Ubicaciones:
- EE. UU., California, San Francisco
- Reino Unido, Parliament Square, Londres
- Países Bajos, La Haya
- Israel, Jerusalén
- Australia, Melbourne
- Canadá, Ottawa
- Alemania, Berlín
- Dinamarca, Copenhague
En marzo de este año, muchos expertos notables firmaron una carta pidiendo una pausa de seis meses en el desarrollo de sus modelos de IA de vanguardia. En mayo, cientos de científicos de la IA firmaron una declaración diciendo que “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala societal como las pandemias y la guerra nuclear”.
Recientes encuestas han mostrado que más del 70% de las personas quieren que el progreso de la IA se ralentice, y más del 60% quieren que el gobierno intervenga para evitar la creación de una IA superinteligente. Hasta ahora, no se han propuesto borradores que hagan esto.
En dos semanas, el 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido. La cumbre contará con la asistencia de destacados científicos de la IA, responsables políticos y líderes de la industria. Esto marca una oportunidad única para dar los primeros pasos hacia una regulación internacional de la seguridad de la IA. Sin embargo, el Reino Unido no planea utilizar esta oportunidad para implementar una regulación fuerte de la IA. El organizador y representante del primer ministro para la Cumbre de Seguridad de la IA, Matt Clifford, ha declarado que “Pausar el desarrollo de la IA ahora sería prematuro”, y que no espera “controles duros” de la cumbre.
“Estamos contentos de que el Reino Unido esté liderando la seguridad de la IA y mostrando liderazgo internacional”, dice Joep Meindertsma, director de PauseAI. “Pero no estamos viendo el nivel de urgencia que merece. En 2020, los pronosticadores predijeron la llegada de la IA a nivel humano en 2055. Hoy en día, la predicción promedio es 2026. No podemos arriesgarnos a un desastre subestimando la tasa de progreso. Necesitamos que nuestros políticos se inclinen hacia la precaución. Cada vida está en peligro. Ninguna empresa debería poder crear una IA superinteligente”.