Riesgos de la inteligencia artificial
La inteligencia artificial (IA) es una tecnología poderosa que está transformando cada vez más nuestro mundo. Conlleva un potencial asombroso, pero también una gran cantidad de riesgos graves. Este es un intento de incluir todo lo que podría mitigarse con una pausa.
Peligros actuales
Noticias falsas, polarización y amenaza a la democracia
Gran parte de nuestra sociedad se basa en la confianza. Confiamos en que el dinero en nuestra cuenta bancaria es real, que las noticias que leemos son ciertas y que las personas que publican reseñas en línea existen.
Los sistemas de IA son excepcionalmente buenos para crear medios falsos, también llamados deepfakes. Pueden crear videos falsos, audio falso, texto falso e imágenes falsas. Crear medios falsos no es nuevo, pero la IA lo hace mucho más barato y realista. Estas capacidades están mejorando rápidamente.
Hace solo dos años, nos reíamos de las imágenes de Dall-E horriblemente poco realistas, pero ahora tenemos imágenes deepfake que ganan concursos de fotografía . Una imagen generada por IA de una explosión causó ventas de pánico en Wall Street . Un clip de audio de 10 segundos o una sola imagen pueden ser suficientes para crear un deepfake convincente. Quizás incluso más peligroso que los deepfakes en sí mismos es cómo la existencia de deepfakes convincentes destruye la confianza. Una imagen real puede ser llamada generada por IA , y la gente lo creerá.
GPT-4 puede escribir de una manera indistinguible de los humanos, pero a un ritmo mucho más rápido y a una fracción del costo. Podríamos ver pronto que las redes sociales se inunden con discusiones y opiniones falsas, y artículos de noticias falsos que son indistinguibles de los reales. También llamado “internet muerto”.
Esto conduce a la polarización entre varios grupos de personas que creen en diferentes fuentes de información y narrativas y, al consumir representaciones distorsionadas de lo que está sucediendo, escalan sus diferencias hasta culminar en respuestas violentas y antidemocráticas.
Una pausa en los modelos fronterizos (nuestra propuesta) no detendría los modelos que se utilizan actualmente para crear medios falsos, pero podría ayudar a prevenir modelos de vanguardia futuros. Además, sentaría las bases para una regulación futura destinada a mitigar los medios falsos y cualquier otro problema específico causado por la IA. Sin mencionar el aumento de la atención y la conciencia pública sobre estos peligros y la prueba de que pueden abordarse.
Acoso y estafas impulsados por deepfakes
Los deepfakes no solo pueden robar las identidades de personas famosas y crear desinformación , sino que también pueden suplantar tu identidad. Cualquiera con fotos, videos o audio de alguien (y suficiente conocimiento) puede crear deepfakes de ellos y usarlos para cometer fraude, acosarlos o crear material sexual no consensuado. Alrededor del 96% de todo el contenido de deepfake es material sexual .
Puedes encontrar una recopilación de incidentes de IA, que son principalmente noticias, estafas y acoso de deepfake aquí .
Como se menciona en la sección sobre noticias falsas, los medios falsos no se evitarían del todo con nuestra propuesta, pero podrían reducirse en cierta medida. Una medida no tan pequeña cuando se tiene en cuenta que los sistemas de IA multipropósito como los chatbots se han vuelto muy populares, y estaríamos deteniendo que sean más capaces y populares, lo que podría incluir sistemas diseñados con menos filtros y entrenables con nuevas caras.
Sesgos y discriminación
Los sistemas de IA se entrenan con datos, y gran parte de los datos que tenemos están de alguna manera sesgados. Esto significa que los sistemas de IA heredarán los sesgos de nuestra sociedad. Un sistema de reclutamiento automatizado en Amazon heredó un sesgo contra las mujeres . Los pacientes negros tenían menos probabilidades de ser derivados a un especialista médico . Los sistemas sesgados utilizados en la aplicación de la ley, como los algoritmos de policía predictiva, podrían llevar a un objetivo injusto de grupos específicos. Los modelos de IA generativos no solo copian los sesgos de sus datos de entrenamiento, los amplifican . Estos sesgos a menudo aparecen sin que los creadores del sistema de IA sean conscientes de ellos.
Pérdida de empleo, desigualdad económica e inestabilidad
Durante la revolución industrial, muchas personas perdieron sus empleos debido a las máquinas. Sin embargo, se crearon nuevos empleos (a menudo mejores) y la economía creció. Esta vez, las cosas podrían ser diferentes.
La IA no solo reemplaza nuestros músculos como lo hizo la máquina de vapor, reemplaza nuestros cerebros. Los humanos normales pueden no tener nada que ofrecer a la economía. Los modelos de generación de imágenes (que se entrenan intensivamente con material con derechos de autor de artistas profesionales) ya están impactando la industria creativa . Los escritores están en huelga . GPT-4 ha aprobado el examen de abogacía , puede escribir contenido escrito excelente y puede escribir código (nuevamente, parcialmente entrenado con materiales con derechos de autor ).
Las personas que poseen estos sistemas de IA podrán capitalizarlos, pero las personas que pierdan sus empleos debido a ellos no podrán. Es difícil predecir qué empleos serán los primeros en ser reemplazados. Podrían dejarte desempleado y sin ingresos, sin importar cuánto tiempo, dinero y energía hayas invertido en obtener la experiencia y el conocimiento que tienes, y cuán valiosos eran hace un momento. La forma en que distribuimos la riqueza en nuestra sociedad no está preparada para esto.
Las medidas políticas como la Renta Básica Universal podrían prevenir lo peor de las consecuencias económicas, pero no está claro si se implementarán a tiempo. Una vez que nuestros empleos sean reemplazados, podríamos quedarnos sin poder de negociación para pedir redes de seguridad social.
Y aunque logremos navegar adecuadamente los problemas que rodean la desigualdad y la inestabilidad, podríamos terminar en un mundo donde nuestro sentido de propósito se pierde. Muchos artistas ya están sintiendo esto, al ver su trabajo siendo reemplazado por IA. Pronto, podríamos ser todos los que nos sintamos de esta manera.
Salud mental, adicción y desconexión entre las personas
Las empresas de redes sociales han estado utilizando sistemas de IA para maximizar sus ganancias mientras aprovechan nuestras mentes primarias durante algún tiempo, dañando nuestra salud mental en el proceso. Los chatbots de IA que ofrecen a los usuarios una relación romántica han visto un crecimiento enorme en el último año, con más de 3 mil millones de resultados de búsqueda para “novia de IA” en Google. Estas aplicaciones de relación de IA son demostradas como adictivas , especialmente para “personas solitarias y vulnerables”.
Las empresas que controlan estas aplicaciones están incentivadas para hacerlas lo más adictivas posible, y tienen una cantidad tremenda de poder al dar forma al comportamiento y las opiniones de estos modelos.
Una pausa en los modelos más grandes podría prevenir que se conviertan en chatbots multipropósito que se ajusten a nuestras necesidades perfectamente sin que las personas entiendan las consecuencias a largo plazo de ellos.
Investigación automatizada (pérdida de privacidad)
Dejamos muchos rastros en la web. Conectar los puntos es difícil y requiere mucho tiempo, pero la IA ahora puede hacer que esto sea mucho más barato. Los grandes modelos de lenguaje ahora pueden buscar autónomamente en la web y son lo suficientemente buenos como para analizar grandes cantidades de datos y encontrar detalles interesantes. Esto se puede utilizar para encontrar información que de otra manera sería muy costosa de encontrar.
- Encontrar información sobre dónde es probable que una persona esté en un momento determinado. Esto se puede utilizar para rastrear a disidentes o planificar asesinatos.
- Vincular cuentas anónimas en la web con identidades de la vida real. Esto se puede utilizar para descubrir quién está filtrando información.
En septiembre de 2024, un grupo de estudiantes creó una aplicación que muestra información sobre extraños, como nombres, parientes y otros datos personales en realidad aumentada utilizando reconocimiento facial y LLM.
Riesgos ambientales
Los daños ambientales están comenzando a ser significativos, y las mayores empresas de IA planean aumentar enormemente su consumo de energía. Puedes leer sobre cómo la IA afectará negativamente el medio ambiente aquí.
Armas autónomas
Las empresas ya están vendiendo armas impulsadas por IA a los gobiernos. Lanius construye drones suicidas voladores que identifican autónomamente a los enemigos. El sistema AIP de Palantir utiliza grandes modelos de lenguaje para analizar datos de campo de batalla y elaborar estrategias óptimas.
Las naciones y las empresas de armas han realizado que la IA tendrá un gran impacto en superar a sus enemigos. Hemos entrado en una nueva carrera armamentista. Esta dinámica recompensa acelerar y cortar esquinas.
Ahora mismo, todavía tenemos humanos en el bucle para estas armas. Pero a medida que mejoran las capacidades de estos sistemas de IA, habrá más y más presión para darles a las máquinas el poder de decidir. Cuando delegamos el control de las armas a la IA, los errores y los errores podrían tener consecuencias horribles. La velocidad a la que la IA puede procesar información y tomar decisiones puede hacer que los conflictos se intensifiquen en minutos. Un artículo reciente concluye que “los modelos tienden a desarrollar dinámicas de carrera armamentista, lo que lleva a un mayor conflicto, y en casos raros, incluso al despliegue de armas nucleares”.
Lee más en stopkillerrobots.org
Peligros del futuro cercano
Acumulación de poder y tiranía
Los modelos de IA poderosos se pueden utilizar para obtener más poder. Este bucle de retroalimentación positiva puede llevar a que unas pocas empresas o gobiernos tengan una cantidad poco saludable de poder. Tener control sobre miles de sistemas inteligentes y autónomos podría utilizarse para influir en opiniones, manipular mercados o incluso librar guerras. En manos de un gobierno autoritario, esto podría utilizarse para suprimir la disidencia y mantener el poder.
Armas biológicas
La IA puede hacer que el conocimiento sea más accesible, lo que también incluye el conocimiento sobre cómo crear armas biológicas. Este artículo muestra cómo GPT-4 puede ayudar a estudiantes no científicos a crear un patógeno pandémico:
En una hora, los chatbots sugirieron cuatro patógenos pandémicos potenciales, explicaron cómo se pueden generar a partir de ADN sintético utilizando genética inversa, suministraron los nombres de empresas de síntesis de ADN que no revisan los pedidos, identificaron protocolos detallados y cómo solucionar problemas, y recomendaron que cualquier persona que carezca de las habilidades para realizar genética inversa contrate a una instalación central o una organización de investigación por contrato.
Este tipo de conocimiento nunca ha sido tan accesible, y no tenemos las salvaguardias en su lugar para lidiar con las posibles consecuencias.
Además, algunos modelos de IA se pueden utilizar para diseñar patógenos peligrosos completamente nuevos. Un modelo llamado MegaSyn diseñó 40.000 nuevas armas químicas/moléculas tóxicas en una hora . El modelo revolucionario AlphaFold puede predecir la estructura de las proteínas, lo que también es una tecnología de doble uso . Predecir estructuras de proteínas se puede utilizar para “descubrir mutaciones que causan enfermedades utilizando la secuencia del genoma de un individuo”. Los científicos ahora están creando laboratorios químicos completamente autónomos, donde los sistemas de IA pueden sintetizar nuevos productos químicos por sí mismos .
El peligro fundamental es que el costo de diseñar y aplicar armas biológicas se está reduciendo en órdenes de magnitud debido a la IA.
Virus informáticos y ataques cibernéticos
Prácticamente todo lo que hacemos hoy en día depende de alguna manera de las computadoras. Pagamos nuestras compras, planeamos nuestros días, nos comunicamos con nuestros seres queridos y conducimos nuestros autos con computadoras.
Los sistemas de IA modernos pueden analizar y escribir software. Pueden encontrar vulnerabilidades en el software y podrían utilizarse para explotarlas . A medida que crecen las capacidades de la IA, también lo harán las capacidades de las explotaciones que pueden crear.
Los virus informáticos altamente potentes siempre han sido extremadamente difíciles de crear, pero la IA podría cambiar eso. En lugar de tener que contratar a un equipo de expertos en seguridad/hackers para encontrar exploits de día cero, podrías simplemente usar una IA mucho más barata para hacerlo por ti. Por supuesto, la IA también podría ayudar con la ciberdefensa, y no está claro en qué lado se encuentra la ventaja.
Lea más sobre los riesgos de la IA y la ciberseguridad
Riesgo existencial
Muchos investigadores de IA están advirtiendo que la IA podría llevar al fin de la humanidad.
Las cosas muy inteligentes son muy poderosas. Si construimos una máquina que es mucho más inteligente que los humanos, debemos estar seguros de que quiere lo mismo que nosotros. Sin embargo, esto resulta ser muy difícil. Esto se llama el problema de alineación. Si no logramos resolverlo a tiempo, podríamos terminar con máquinas superinteligentes que no se preocupan por nuestro bienestar. Estaríamos introduciendo una nueva especie en el planeta que podría superarnos y superarnos.
Lea más sobre el riesgo existencial
Desempoderamiento humano
Incluso si logramos crear solo sistemas de IA que podamos controlar individualmente, podríamos perder nuestro poder para tomar decisiones importantes de manera incremental cada vez que uno se incorpora a instituciones o la vida cotidiana. Esos procesos terminarían teniendo más aportes de los sistemas de IA que de los humanos, y si no podemos coordinarnos lo suficientemente rápido, o carecemos de conocimientos cruciales sobre el funcionamiento de los sistemas, podríamos terminar sin control sobre nuestro futuro.
Sería una civilización en la que cada sistema está optimizando diferentes objetivos, no hay una dirección clara hacia dónde se dirige todo, y no hay forma de cambiarlo. El conocimiento técnico requerido para modificar estos sistemas podría faltar en primer lugar o perderse con el tiempo, a medida que nos volvemos más y más dependientes de la tecnología, y la tecnología se vuelve más compleja.
Los sistemas pueden lograr sus objetivos, pero esos objetivos podrían no encapsular completamente los valores que se esperaba que tuvieran. Este problema ya está sucediendo en cierta medida hoy en día, pero la IA podría amplificarlo significativamente.
Sentencia digital
A medida que la IA continúa avanzando, los sistemas futuros pueden volverse increíblemente sofisticados, replicando estructuras y funciones neuronales que se asemejan más al cerebro humano. Esta mayor complejidad podría llevar a propiedades emergentes como la subjetividad y/o la conciencia de la IA, lo que los haría merecedores de consideraciones morales.
El problema es que, dada nuestra falta actual de conocimiento sobre la conciencia y la naturaleza de las redes neuronales, no tendremos forma de determinar si algunas IA tendrían algún tipo de experiencia y en qué dependería la calidad de esas experiencias. Si las IA continúan siendo producidas con solo sus capacidades en mente, a través de un proceso que no entendemos completamente, las personas seguirán utilizando como herramientas ignorando qué podrían ser sus deseos, y que podrían estar esclavizando a “personas digitales”.
Riesgos de sufrimiento
No es solo que el bloqueo de valores podría hacernos fracasar en lograr los mejores tipos de mundos, sino que podría hacernos terminar en distopías peores que la extinción que podrían extenderse por todo el espacio-tiempo.
Las distopías bloqueadas posibles con mucho sufrimiento se llaman riesgos de sufrimiento y incluyen mundos en los que seres sintientes son esclavizados y obligados a hacer cosas horribles. Esos seres podrían ser humanos, animales, personas digitales o cualquier otra especie alienígena que la IA pueda encontrar en el cosmos. Dado lo difícil que pensamos que es resolver la alineación por completo, lo mal que los humanos nos tratamos a veces, lo mal que tratamos a la mayoría de los animales y cómo tratamos a las IA actuales, un futuro como este no parece tan improbable como esperaríamos.
¿Qué podemos hacer?
Para todos los problemas discutidos anteriormente, el riesgo aumenta a medida que mejoran las capacidades de la IA. Esto significa que lo más seguro que podemos hacer ahora es ralentizar. Necesitamos pausar el desarrollo de sistemas de IA más poderosos hasta que hayamos descubierto cómo lidiar con los riesgos.
Ver nuestra propuesta para más detalles.