Publicidade
ESTOCOLMO (Reuters) – Os principais executivos de inteligência artificial, incluindo o CEO da OpenAI, Sam Altman, juntaram-se na terça-feira a especialistas e professores para levantar o “risco de extinção pela IA”, que eles defendem se equiparar a riscos apresentados por pandemias e guerra nuclear.
“Mitigar o risco de extinção pela inteligência artificial deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”, escreveram mais de 350 signatários em uma carta publicada pelo Centro de Segurança de Inteligência Artificial (Cais), sem fins lucrativos.
Além de Altman, eles incluíram os presidentes-executivos das empresas DeepMind e Anthropic e executivos da Microsoft e Google.
Continua depois da publicidade
Entre eles também estavam Geoffrey Hinton e Yoshua Bengio — dois dos três chamados “padrinhos da Inteligência Artificial” que receberam o Prêmio Turing de 2018 por seu trabalho em aprendizado profundo — e professores de instituições que vão de Harvard à Universidade Tsinghua da China.
Um comunicado do Cais destacou a Meta, onde trabalha o terceiro padrinho da IA, Yann LeCun, por não ter assinado a carta.
O bilionário Elon Musk e um grupo de especialistas em inteligência artificial e executivos do setor foram os primeiros a citar os riscos potenciais para a sociedade em abril.
Continua depois da publicidade
Desenvolvimentos recentes no setor criaram ferramentas que os defensores dizem poder ser aplicadas em uma série de ações, de diagnósticos médicos até a redação de resumos jurídicos, mas isso provocou temores de que a tecnologia possa levar a violações de privacidade, alimentar campanhas de desinformação e levar a problemas com “máquinas inteligentes”.
Hinton disse anteriormente à Reuters que a tecnologia pode representar uma ameaça “mais urgente” para a humanidade do que a mudança climática.
(Reportagem adicional de Foo Yun Chee e Martin Coulter)