O perigo de a IA gerar conteúdo “manipulado” ou enganoso é claro e, em um contexto de aceleração do investimento em tecnologia, é “especialmente urgente” aprofundar a compreensão desses riscos potenciais e das ações para mitigá-los, disse a declaração conjunta.
De acordo com a análise, poderiam ocorrer danos graves em escala global, “até mesmo catastróficos, deliberados ou não”.
O aviso veio da primeira cúpula global sobre segurança de IA, que começou na quarta-feira em Bletchley Park, Reino Unido, com a participação de líderes políticos, especialistas e representantes de empresas transnacionais do setor, incluindo OpenAI, Google DeepMind, Anthropic, Meta e Microsoft.
Os 29 signatários da declaração incluem os Estados Unidos, a China, a Índia, a França, a Alemanha e a Espanha, com o compromisso de “trabalhar juntos de forma inclusiva para garantir uma inteligência artificial centrada no ser humano, confiável e responsável”.
De acordo com a visão conjunta, a melhor maneira de lidar com as ameaças é por meio da cooperação internacional, a fim de aproveitar o “potencial transformador” da IA, cuja expansão poderia promover “bem-estar, paz e prosperidade”.
O desenvolvimento da IA deve ocorrer sob “supervisão humana adequada”, disse a cúpula, que também alertou sobre ameaças futuras de sistemas de “fronteira” que excederão as capacidades dos modelos atuais de última geração.
mem/mjm/bm