El martes, los principales ejecutivos de la industria de la inteligencia artificial (IA), incluido Sam Altman de OpenAI, instaron a los expertos y profesores a plantear el "riesgo de extinción" de la IA y compararlo con los riesgos asociados con las pandemias y la guerra nuclear.
Más de 350 signatarios los incluyeron en la carta publicada por el Centro para la Seguridad de la IA (CAIS), una organización sin fines de lucro que instó a los gobiernos de todo el mundo a priorizar la mitigación del riesgo de extinción entre todos los riesgos sociales, incluidas las pandemias y la guerra nuclear.
Junto con Altman, los signatarios son directores generales de DeepMind y Anthropic, así como ejecutivos de Microsoft MSFT.O y Google GOOGL. o
Entre la lista de "padrinos de la IA" que ganaron el Premio Turing 2018 por su trabajo en aprendizaje profundo se encontraban Geoffrey Hinton y Yoshua Bengio, así como profesores desde Harvard hasta la Universidad de Tsinghua en China.
La carta fue criticada por el CAIS por no estar firmada por Meta META.O, donde trabaja Yann LeCun, el tercer padrino de AI, en un comunicado.
Dan Hendrycks, director de CAIS, afirmó que se animó al personal de Meta a registrarse. Meta no pudo responder de inmediato a las solicitudes de comentarios.
La carta se envió al mismo tiempo que la reunión del Consejo de Comercio y Tecnología de la Unión Europea y EE. UU. en Suecia, donde se espera que los políticos discutan la regulación de la IA.
Los primeros en mencionar los riesgos para la sociedad fueron Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de la industria en abril.
Hendrycks declaró que Musk ha sido invitado y se espera que lo firme esta semana.
Los avances en IA han llevado a la creación de herramientas que, según los partidarios, se pueden usar para una variedad de aplicaciones, incluido el diagnóstico médico y la información legal. Sin embargo, existe la preocupación de que la tecnología pueda violar las leyes de privacidad, promover la propagación de desinformación y crear problemas para las "máquinas inteligentes" que piensan de forma independiente.
Hace dos meses, el Future of Life Institute (FLI) emitió una carta abierta similar firmada por Musk y cientos de personas más, en la que pedía el cese inmediato de la investigación avanzada en IA debido a los peligros potenciales para la humanidad.
Max Tegmark, el presidente de la FLI, firmó la última carta, que también llamó a una pausa y dio a conocer las amenazas de extinción. "Ahora puede empezar por fin una conversación abierta y constructiva".
Según Reuters, Hinton, un pionero de la IA, afirmó que la IA podría ser más apremiante para la humanidad que el cambio climático.
Los intentos de la UE de establecer una regulación de la IA fueron criticados por Sam Altman, director ejecutivo de OpenAI, quien afirmó que estaban sobrerregulando y que se retirarían de Europa. A los pocos días se retractó tras las críticas de los políticos.