Valores de PauseAI
¿Qué queremos?
Detener a nivel mundial el desarrollo de inteligencia artificial fronteriza hasta que sepamos cómo hacerlo de forma segura y bajo control democrático. Consulta nuestra propuesta.
¿Cuáles son nuestros valores?
- La humanidad es lo primero. Creemos que la IA debe desarrollarse de una manera que beneficie a la humanidad o, de lo contrario, no desarrollarse en absoluto.
- Comunidad. El sentimiento de comunidad no solo proviene de un objetivo compartido (por ejemplo, pausar la IA) o valores, sino también de la actividad social. Por eso es importante que las personas se reúnan, organicen eventos, tengan encuentros sociales y forjen amistades en la vida real. No se trata solo de actuar constructivamente, sino también de hacer amigos y sentirse como en casa dentro de un grupo.
- Cualquiera puede contribuir. Muchas organizaciones de seguridad y gobernanza de IA dependen únicamente de su grupo de empleados remunerados. Esto tiene sus ventajas, pero deja un vacío en cuanto a voluntarios. Ahí es donde PauseAI es diferente. Al fomentar la participación de voluntarios y alentar la acción, podemos lograr cosas incluso sin mucha financiación.
- Transparencia por defecto. Realizar y discutir las cosas públicamente y de manera abierta, a menos que haya una buena razón para no hacerlo. Las reuniones están abiertas a todos, el sitio web es de código abierto y el servidor de Discord es accesible. Ser accesibles reduce la barrera para que las personas se sientan bienvenidas y ayuden.
- Honestidad. No tenemos incentivos extraños (por ejemplo, tener una participación en una empresa de IA), por lo que somos libres de decir lo que creemos. No edulcoramos nuestro mensaje para hacerlo más agradable.
- Diversidad en riesgos, uniformidad en deseos. Ya sea que estés preocupado por el riesgo existencial, los peligros de la ciberseguridad o el impacto de la IA en nuestra democracia, estamos unificados en nuestro deseo de pausar el desarrollo de la IA.
- Sin política partidista. Los seres humanos son criaturas tribales, lo que nos hace agrupar puntos de vista en grupos (izquierda/derecha). La seguridad de la IA no es tan partidista (todavía) y queremos mantenerlo así. No permitimos que nuestras otras opiniones políticas nos distraigan de nuestro objetivo común.
- Está bien usar IA. Aunque queremos detener el desarrollo de IA fronteriza, seguimos estando de acuerdo en usar IA de maneras que nos ayuden a alcanzar nuestros objetivos. Los modelos de IA ya traducen nuestro sitio web y ayudan a mejorar su aspecto técnico. No queremos espirales de pureza sobre estar en contra de la IA.
¿Qué tipo de cultura queremos fomentar?
- Orientada a la acción. Queremos ser un grupo que haga cosas. Lo perfecto es enemigo de lo bueno. No podemos sucumbir a la comodidad de simplemente hablar de las cosas. Necesitamos actuar.
- Amigable. Queremos ser un grupo del cual a la gente le guste formar parte. Queremos dar la bienvenida a los nuevos miembros.
- Abiertos. Queremos estar abiertos a nuevas ideas, nuevas personas, nuevas formas de hacer las cosas. Queremos estar abiertos a la crítica. Nuestro objetivo es prevenir los riesgos de la IA. Debemos estar abiertos a la posibilidad de que estemos equivocados sobre cómo hacerlo.
- Razonables. Debido a que nuestras preocupaciones a menudo son desestimadas como locuras, debemos tener especial cuidado de no parecer locos. Enfatizamos que muchas personas en nuestro grupo tienen antecedentes técnicos. Demostramos que sabemos de lo que hablamos.
Relacionado: nuestro Código de Conducta para Manifestantes