Estrategia de Comunicación
Cómo nos comunicamos
- Dejar hablar a los expertos. Estamos advirtiendo a la gente sobre un escenario tan extremo y alarmante que la respuesta instintiva es descartarlo como una exageración. Mostrar las encuestas y sondeos de expertos. Los tres científicos de IA más citados están advirtiendo sobre el riesgo existencial. Dejar que ellos hablen es una buena forma de presentar nuestro caso de manera creíble.
- Usar un lenguaje claro y sencillo. Puedes demostrar que entiendes la tecnología y que has hecho tus deberes, pero un exceso de jerga técnica puede hacer que la gente pierda interés. Queremos llegar a tantas personas como sea posible, así que no compliquemos el lenguaje. Muchas de las personas a las que queremos llegar no son hablantes nativos de inglés, así que considera hacer traducciones.
- Mostrar nuestras emociones. Ver emociones les da a los demás permiso para sentir emociones. Estamos preocupados, estamos enfadados, estamos ansiosos por actuar. Mostrar cómo te sientes puede ser difícil, pero en nuestro caso es necesario. Nuestro mensaje solo puede ser recibido si coincide con cómo lo enviamos.
- Enfatizar la incertidumbre. No digas que la IA va a tomar el control, o que vamos a alcanzar la AGI en x años. Nadie puede predecir el futuro con certeza. Hay una posibilidad significativa de que la IA salga mal pronto, y eso debería ser suficiente para actuar. No permitas que la incertidumbre sea la razón para no actuar. Refiérete al Principio de Precaución y haz el punto de que debemos errar en el lado de la cautela.
- Hacer que los individuos se sientan responsables. Nadie quiere sentir que tiene una gran responsabilidad para que las cosas salgan bien. Nuestros cerebros nos alejan de esto, porque todos tenemos un profundo deseo de creer que alguien está a cargo, protegiéndonos. Pero no hay adultos en la habitación en este momento. Tienes que ser tú quien haga esto. Elige asumir la responsabilidad.
- Inspirar esperanza. Cuando se escucha sobre los peligros de la IA y la carrera actual hacia el fondo, muchos de nosotros sentimos temor, y eso nos hace no actuar. El fatalismo es cómodo, porque la falta de esperanza significa que no tenemos que trabajar hacia un buen resultado. Esto es por lo que necesitamos enfatizar que nuestro caso no está perdido. La AGI no es inevitable, la tecnología ha sido prohibida con éxito a nivel internacional antes, y nuestra propuesta tiene un amplio apoyo público.
No-vamos
- No imágenes ni videos generados por IA. Usar modelos de IA está bien para hacer investigación, ideación y iterar sobre ideas, pero no publiques imágenes ni videos generados por IA. Incluso si no somos anti-IA, podemos ser etiquetados como hipócritas si claramente usamos contenido generado por IA.
- No política partidista. No empujamos a ningún partido político o ideología. No tenemos opiniones sobre cosas fuera de la IA.
- No autocensura táctica. Algunas organizaciones de gobernanza de IA eligen no decir cuán preocupadas están, o eligen no presionar por las políticas que creen que son necesarias porque se preocupan por perder credibilidad. No podemos copiar esta misma estrategia, porque si todos lo hacemos, nadie queda para decir la verdad.
- No rumores. No promovemos información vaga o no verificada. No podemos permitirnos perder credibilidad difundiendo información falsa.
Narrativas que impulsamos
- La IA no es solo una herramienta. Los modelos de IA no están programados, son cerebros digitales. No entendemos cómo funcionan, no podemos predecir qué pueden hacer, no podemos controlar su comportamiento adecuadamente.
- La IA no necesita ser consciente para ser peligrosa. Ser capaz de experimentar el mundo, o sentir emociones, no es un requisito para que la IA tome acciones peligrosas. Lo único que importa son las capacidades.
- Carrera global hacia el fondo. Esto no es una carrera para ganar. No se trata de EE. UU. vs China, se trata de la humanidad vs IA. No podemos esperar controlar la IA superinteligente como un arma - no sabemos si se puede controlar en absoluto.
- Los daños de la IA existente empeorarán. Deepfakes, pérdida de empleos, vigilancia, desinformación, polarización… La IA existente ya está causando daño, y necesitamos reconocerlo. Los daños solo empeorarán con una IA más poderosa, y necesitamos pausar la IA para evitar que eso suceda.
- La IA superhumana no es inevitable. Requiere hordas de ingenieros con cheques de un millón de dólares. Requiere hardware altamente especializado, creado por un puñado de monopolios. Requiere que todos nos sentemos y no hagamos nada.
- La regulación internacional es posible. Hemos protegido colectivamente la capa de ozono prohibiendo los CFC y las armas láser cegadoras a nivel global. La cadena de suministro centralizada de chips de IA hace que la gobernanza informática sea muy factible.
Audiencias objetivo
- Personas normales. Este es un grupo grande, pero necesitamos asegurarnos de que cómo nos comunicamos con ellos sea efectivo. La mayoría de las personas ya tienen algunas preocupaciones sobre la IA (y apoyan una pausa), pero necesitan un pequeño empujón.
- Seguidores. Las personas que ya están a bordo con PauseAI. El objetivo principal es hacer que tomen acción, se unan a eventos, se unan a un grupo local, etc.
- Estudiantes. Son inteligentes, tienen mentes abiertas y tienen el tiempo y la energía para involucrarse. Aunque cualquiera puede unirse a PauseAI, ellos son los más probables de poder tomar acción.
- Periodistas. Respondemos a las noticias y las enmarcamos para avanzar en nuestra causa. Sé rápido y ayuda a dirigir la conversación, especialmente en X.
- Políticos y legisladores. Necesitan entender la urgencia de la situación, así como lo que pueden hacer para prevenirla. Esto depende del país del que son y de su posición en el gobierno.
- Sindicatos. Están altamente organizados y quieren proteger a sus miembros. La seguridad laboral de sus miembros está en riesgo, y pueden ayudar.
No-audiencias
- Grupos que están en fuerte desacuerdo con nosotros. e/accs, por ejemplo. Ya han tomado su decisión. Darles atención solo desperdiciará nuestro tiempo.
- Geeks de la IA. Probablemente ya están familiarizados con los argumentos y hasta con PauseAI. Pasar demasiado tiempo con ellos no es efectivo.
Gran parte de nuestra estrategia se deriva de nuestros valores.