
En 2015, miles de expertos en inteligencia artificial firmaron una carta abierta que pedía una pausa en el desarrollo de la IA para garantizar su seguridad. La carta fue escrita por científicos de renombre mundial, incluyendo a Stephen Hawking y Elon Musk, y fue enviada a la Asociación para el Avance de la Inteligencia Artificial (AAAI)..
La carta afirmaba que la IA tenía el potencial de ser una de las mayores invenciones de la historia humana, pero también tenía el potencial de ser una de las más peligrosas si no se manejaba con cuidado.
Entre las preocupaciones que se destacaron en la carta se encuentran el riesgo de que la inteligencia artificial sea utilizada para fines militares, la posibilidad de que los sistemas de IA adquieran una inteligencia y autonomía peligrosas, y la posibilidad de que los sistemas de IA sean utilizados para manipular a las personas.
Desde la publicación de la carta, ha habido un aumento en la conciencia sobre los peligros potenciales de la IA y se han realizado esfuerzos para abordar estos problemas. Por ejemplo, en 2016, la AAAI lanzó una iniciativa de «seguridad a largo plazo» para abordar las preocupaciones de seguridad en torno a la IA.
Sin embargo, también se han visto críticas a la carta, con algunos argumentando que una pausa en el desarrollo de la IA podría frenar el progreso tecnológico y la innovación. En última instancia, la cuestión de cómo equilibrar el progreso tecnológico con la seguridad y la ética sigue siendo un tema de debate y discusión en la comunidad de la IA.