(Top)

No permitas que las empresas de IA jueguen con nuestro futuro

  • Mitigar el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear.
    Declaración sobre el riesgo de IA

    Declaración sobre el riesgo de IA

    Firmado por cientos de expertos, incluyendo los principales laboratorios y científicos de IA

  • Si tomas en serio el riesgo existencial, como lo hago yo ahora, podría ser muy sensato dejar de desarrollar estas cosas.
    Geoffrey Hinton

    Geoffrey Hinton

    Ganador del premio Nobel y 'padre de la IA'

  • El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana.
    Stephen Hawking

    Stephen Hawking

    Físico teórico y cosmólogo

  • ... debemos esperar que las máquinas tomen el control.
    Alan Turing

    Alan Turing

    Inventor de la computadora moderna

  • Si seguimos [nuestro enfoque actual], eventualmente perderemos el control sobre las máquinas
    Stuart Russell

    Stuart Russell

    Autor del libro de texto de IA

  • La IA descontrolada puede ser peligrosa para toda la humanidad. Prohibir los sistemas de IA poderosos (digamos más allá de las capacidades de GPT-4) que se les da autonomía y agencia sería un buen comienzo.
    Yoshua Bengio

    Yoshua Bengio

    Ganador del premio Turing de IA

de científicos de IA creen que el problema de alineación es real e importante

de ciudadanos quieren que la IA sea frenada por nuestros gobiernos