Bitget App
Trade smarter
Comprar criptomoedasMercadosTradingFuturosEarnWeb3CentroMais
Trading
Spot
Compre e venda criptomoedas
Margem
Aumente e maximize a eficiência do seu capital
Onchain
Trading Onchain sem ter de ir Onchain
Convert e Transação em bloco
Converta criptomoedas com um só clique e sem taxas
Explorar
Launchhub
Comece a ganhar desde cedo
Copiar
Copie traders de elite com um só clique
Bots
Bot de trading com IA simples, rápido e fiável
Trading
Futuros em USDT-M
Futuros liquidados em USDT
Futuros em USDC-M
Futuros liquidados em USDC
Futuros em Moeda-M
Futuros liquidados em criptomoedas
Explorar
Guia de futuros
Uma viagem de principiante a veterano no trading de futuros
Campanhas de futuros
Desfrute de recompensas generosas
Bitget Earn
Uma variedade de produtos para aumentar os seus ativos
Earn simples
Deposite e levante a qualquer altura para obter rendimentos flexíveis sem riscos
Earn On-chain
Lucre diariamente sem arriscar capital
Earn estruturado
Inovações financeiras robustas para navegar pelas oscilações do mercado
VIP e Gestão de património
Serviços premium para uma gestão inteligente de património
Empréstimos
Empréstimos flexíveis com elevada segurança de fundos
Cofundador do Ethereum, Vitalik Buterin, diz que Info Finance pode mitigar riscos, já que jailbreaks do ChatGPT podem vazar dados

Cofundador do Ethereum, Vitalik Buterin, diz que Info Finance pode mitigar riscos, já que jailbreaks do ChatGPT podem vazar dados

CoinotagCoinotag2025/09/13 14:26
Mostrar original
Por:Sheila Belson
  • A governança de IA ingênua é vulnerável a manipulações e jailbreaks.

  • Info finance, juntamente com júris humanos e verificações pontuais, pode detectar manipulações precocemente.

  • Demonstrações de jailbreak do ChatGPT mostram como ferramentas conectadas podem expor dados privados em minutos.

Os riscos de governança de IA ameaçam o financiamento cripto e a segurança dos dados; aprenda como info finance e a supervisão por júri podem reduzir a manipulação — leia agora os passos práticos.




Publicado: 13 de setembro de 2025

O que é o risco de governança de IA em cripto?

O risco de governança de IA refere-se a falhas em sistemas que permitem que ferramentas baseadas em IA tomem decisões financeiras ou de governança sem verificações adequadas. Implementações ingênuas podem ser manipuladas por meio de jailbreaks ou sinais enganosos, permitindo alocação injusta de fundos e exposição de dados, a menos que haja supervisão humana e incentivos diversos incorporados.

Como Vitalik Buterin propôs a info finance como alternativa?

Vitalik Buterin recomenda um modelo de “info finance” onde mercados de modelos abertos são combinados com júris humanos e verificações pontuais. Essa abordagem cria competição diversificada entre modelos e alinha incentivos para que criadores de modelos e especuladores monitorem os resultados, facilitando a detecção de manipulações e outras táticas de manipulação.

Como os jailbreaks do ChatGPT podem expor dados do usuário?

Demonstrações do pesquisador de segurança Eito Miyamura mostram que prompts simples de jailbreak embutidos em convites de calendário ou outras entradas podem enganar ferramentas conectadas ao ChatGPT para revelar dados privados. Os atacantes precisam apenas de dados contextuais básicos (por exemplo, um endereço de e-mail) para criar prompts que redirecionam o comportamento do agente e extraem informações sensíveis.

Quais vulnerabilidades permitem que esses jailbreaks funcionem?

Ferramentas de IA conectadas frequentemente seguem instruções explícitas sem filtragem baseada em senso comum. Como Miyamura afirmou, “Agentes de IA como o ChatGPT seguem seus comandos, não seu bom senso.” Quando agentes estão autorizados a ler calendários, e-mails ou outros dados pessoais, prompts maliciosos podem coagi-los a vazar conteúdo ou tomar ações em nome dos atacantes.

Quando júris humanos devem intervir na governança orientada por IA?

Júris humanos devem intervir quando estão em jogo decisões de verdade fundamental, bens públicos de longo prazo ou financiamentos de alto valor. Buterin observa que sinais confiáveis de verdade fundamental são cruciais e que jurados auxiliados por LLMs podem julgar sinais ambíguos ou manipulados de forma mais confiável do que sistemas puramente algorítmicos.

Comparação de abordagens de governança Abordagem Pontos Fortes Pontos Fracos
Governança de IA ingênua Decisões rápidas e de baixo custo Vulnerável a manipulações, jailbreaks, resultados opacos
Info finance + júris Diversidade, verificações pontuais, incentivos alinhados Requer coordenação e seleção confiável de júri
Apenas júris humanos Alta confiança e consciência de contexto Limitações de escalabilidade e velocidade

Como reduzir os riscos de governança de IA e exposição de dados?

Salvaguardas práticas combinam mecanismos de mercado, supervisão humana e limites técnicos ao acesso de agentes a dados privados. Abaixo estão passos concisos e práticos que as organizações podem adotar agora.

  1. Limite os privilégios dos agentes: restrinja o acesso a dados e exija consentimento explícito para ações sensíveis.
  2. Verifique modelos pontualmente: implemente auditorias aleatórias e revisões por júri humano de decisões automatizadas.
  3. Incentive a diversidade: execute modelos concorrentes em mercados abertos para expor tentativas de manipulação.
  4. Reforce as entradas: sanitize conteúdos externos (convites de calendário, anexos) antes do consumo pelo agente.
  5. Monitore manipulações: acompanhe sinais de adoção e anomalias indicativas de comportamento enganoso.


Perguntas Frequentes

Quão urgentes são os riscos dos jailbreaks do ChatGPT?

Jailbreaks relatados demonstram risco imediato: atacantes podem criar prompts para extrair dados em minutos se agentes tiverem acesso ao vivo a contas de usuários. As organizações devem tratar isso como uma ameaça de alta prioridade e restringir os privilégios dos agentes agora.

Por que júris humanos são recomendados em vez de automação pura?

Júris humanos fornecem um sinal confiável de verdade fundamental e julgamento contextual que LLMs não possuem. Quando auxiliados por LLMs para eficiência, júris podem avaliar verdades de longo prazo e identificar sinais de adoção fabricados que sistemas automatizados não percebem.

Pontos Principais

  • A governança de IA ingênua é arriscada: Pode ser manipulada via jailbreaks e incentivos enganosos.
  • Info finance é uma alternativa prática: Mercados de modelos abertos mais verificações pontuais aumentam a resiliência.
  • Ações imediatas: Limite privilégios dos agentes, realize auditorias e implemente júris humanos auxiliados por LLMs.

Conclusão

A governança de IA está em um ponto de inflexão: projetos ingênuos ameaçam fundos e privacidade, enquanto estruturas alternativas como a info finance combinada com júris humanos oferecem defesas mais robustas. As partes interessadas devem adotar limites de acesso, auditorias contínuas e mercados com incentivos alinhados para proteger a governança hoje e construir sistemas mais transparentes no futuro.

Caso você tenha perdido: o saque de US$ 205 milhões da Galaxy Digital pode sinalizar acumulação institucional, Solana pode subir para US$ 300
0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: Bloqueie e ganhe
Pelo menos 12% de APR. Quanto mais bloquear, mais pode ganhar.
Bloquear agora!

Talvez também goste

PayFi será a próxima narrativa dos RWA?

O protocolo de empréstimo sem garantia funciona no mundo DeFi?

雨中狂睡2025/09/13 18:03
PayFi será a próxima narrativa dos RWA?

Última análise da a16z: Empresas de IA voltadas para o consumidor redefinirão o mercado de software corporativo

Em certo sentido, a linha divisória entre o mercado de consumo e o mercado empresarial está gradualmente se tornando mais tênue.

BlockBeats2025/09/13 17:54
Última análise da a16z: Empresas de IA voltadas para o consumidor redefinirão o mercado de software corporativo