Parlamentares do Reino Unido alertam: Compromissos de segurança em IA estão se tornando mera fachada
- 60 legisladores do Reino Unido acusam o Google DeepMind de violar compromissos de segurança em IA ao adiar relatórios detalhados de segurança para o Gemini 2.5 Pro. - A empresa lançou um modelo de cartão simplificado três semanas após o lançamento, sem transparência sobre testes de terceiros e envolvimento de agências governamentais. - O Google afirma ter cumprido os compromissos ao publicar um relatório técnico meses depois, mas críticos argumentam que isso mina a confiança nos protocolos de segurança. - Questões semelhantes na Meta e OpenAI destacam preocupações generalizadas na indústria sobre a opacidade.
Um grupo de 60 parlamentares do Reino Unido assinou uma carta aberta acusando o Google DeepMind de não cumprir seus compromissos de segurança em IA, especialmente em relação ao atraso na divulgação de informações detalhadas de segurança para seu modelo Gemini 2.5 Pro [1]. A carta, publicada pelo grupo ativista político PauseAI, critica a empresa por não fornecer um modelo de documentação abrangente no momento do lançamento do modelo, documento essencial que detalha como o modelo foi testado e desenvolvido [1]. Eles argumentam que essa falha constitui uma violação dos Compromissos de Segurança de IA de Fronteira assumidos em uma cúpula internacional em fevereiro de 2024, onde os signatários — incluindo o Google — se comprometeram a relatar publicamente as capacidades dos modelos, avaliações de risco e envolvimento de testes de terceiros [1].
O Google lançou o Gemini 2.5 Pro em março de 2025, mas não publicou um modelo de documentação completo na época, apesar de afirmar que o modelo superava concorrentes em benchmarks importantes [1]. Em vez disso, um modelo de documentação simplificado de seis páginas foi divulgado três semanas depois, que alguns especialistas em governança de IA descreveram como insuficiente e preocupante [1]. A carta destaca que o documento carecia de detalhes substanciais sobre avaliações externas e não confirmava se agências governamentais, como o Instituto de Segurança em IA do Reino Unido, participaram dos testes [1]. Essas omissões levantam preocupações sobre a transparência das práticas de segurança da empresa.
Em resposta às críticas, um porta-voz do Google DeepMind disse anteriormente à Fortune que qualquer sugestão de que a empresa estaria descumprindo seus compromissos era "imprecisa" [1]. A empresa também afirmou em maio que um relatório técnico mais detalhado seria publicado quando a versão final da família de modelos Gemini 2.5 Pro estivesse disponível. Um relatório mais abrangente foi finalmente divulgado no final de junho, meses após a versão completa estar disponível [1]. O porta-voz reiterou que a empresa está cumprindo seus compromissos públicos, incluindo os Compromissos de Segurança de IA de Fronteira de Seul, e que o Gemini 2.5 Pro passou por rigorosas verificações de segurança, incluindo avaliações por testadores independentes [1].
A carta também observa que a ausência do modelo de documentação para o Gemini 2.5 Pro parece contradizer outros compromissos assumidos pelo Google, como os Compromissos da Casa Branca de 2023 e um Código de Conduta voluntário sobre Inteligência Artificial assinado em outubro de 2023 [1]. A situação não é exclusiva do Google. A Meta enfrentou críticas semelhantes por seu modelo de documentação mínimo e limitado para o modelo Llama 4, enquanto a OpenAI optou por não publicar um relatório de segurança para seu modelo GPT-4.1, citando seu status não-fronteira [1]. Esses acontecimentos sugerem uma tendência mais ampla na indústria, onde as divulgações de segurança estão se tornando menos transparentes ou sendo omitidas completamente.
A carta pede que o Google reafirme seus compromissos de segurança em IA, definindo claramente a implantação como o momento em que um modelo se torna acessível ao público, comprometendo-se a publicar relatórios de avaliação de segurança em um cronograma definido para todos os lançamentos futuros de modelos e fornecendo total transparência em cada lançamento ao nomear as agências governamentais e terceiros independentes envolvidos nos testes, juntamente com os cronogramas exatos dos testes [1]. Lord Browne of Ladyton, signatário da carta e membro da Câmara dos Lordes, alertou que, se as principais empresas de IA tratarem os compromissos de segurança como opcionais, isso pode levar a uma perigosa corrida para implantar sistemas de IA cada vez mais poderosos sem as devidas salvaguardas [1].
Fonte:
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
MARA registra lucro recorde de US$ 123 milhões ao combinar operações de bitcoin com novos ativos de energia e IA
Resumo rápido: A MARA está aprofundando sua mudança de mineração pura de bitcoin para a posse de energia e infraestrutura focada em IA, refletindo movimentos mais amplos em todo o setor. Apesar de lucros recordes, as ações da MARA ficaram atrás dos concorrentes, sendo negociadas próximas a US$ 17,80 — uma queda de mais de 13% no último mês.

As participações da empresa de tesouraria Solana, Upexi, aumentam 4,4% para mais de 2,1 milhões de SOL
Resumo Rápido: A Upexi adicionou mais 88.750 SOL desde sua última atualização em 10 de setembro, elevando seu total de ativos para mais de 2,1 milhões de SOL. A empresa de tesouraria focada em Solana também relatou um aumento de 82% no SOL ajustado por ação e um retorno de 96% para os investidores desde sua oferta privada em abril.

"Poder próprio, conquista acordo de US$ 9,7 bilhões com a Microsoft": Bernstein eleva preço-alvo da IREN para US$ 125 após contrato lucrativo de nuvem de IA
Analistas da Bernstein aumentaram seu preço-alvo para a mineradora de bitcoin IREN de US$ 75 para US$ 125, citando o contrato de nuvem de IA de US$ 9,7 bilhões por cinco anos recentemente anunciado com a Microsoft. Segundo os analistas, a posse da carteira de energia de 2,9 GW pela IREN lhe confere uma vantagem estrutural de custo e escalabilidade em relação a concorrentes como a CoreWeave.

Top 3 criptomoedas que analistas preveem que podem valorizar 100x: Ozak AI, DOGE e XRP
