15 de abril de 2026

​O que você faz quando a inteligência artificial alucina com o seu dinheiro? 

Um erro pode gerar perdas imediatas sem responsabilização clara, e pesquisadores propõem um modelo padrão para dar garantias
The post O que você faz quando a inteligência artificial alucina com o seu dinheiro? appeared first on InfoMoney.  

Imagine que você peça a um agente de IA para converter US$ 10.000 para dólares canadenses até o fim do dia. O agente executa — mal. Interpreta os parâmetros de forma equivocada, faz uma aposta alavancada não autorizada e o seu capital evapora. Quem é responsável? Quem devolve o seu dinheiro?

Atualmente, ninguém precisa devolver. E isso, argumenta um grupo de pesquisadores, é a vulnerabilidade definidora da era da IA agentiva.

Leia também: FMI adverte que o sistema monetário não está pronto para os riscos da IA

Em um artigo publicado em 8 de abril, pesquisadores da Microsoft Research, da Universidade Columbia, do Google DeepMind, do Virtuals Protocol e da startup de IA T54 Labs propuseram uma nova e abrangente estrutura de proteção financeira chamada Agentic Risk Standard (ARS), projetada para fazer pelos agentes de IA o que custódia, seguros e câmaras de compensação fazem pelas transações financeiras tradicionais. O padrão é de código aberto e está disponível no GitHub via T54 Labs.

Estamos falando de toda uma “economia agentiva” aqui, disse o fundador da T54, Chandler Fang, à Fortune em um comunicado por e-mail; “é algo muito diferente de simplesmente usar agentes de IA para tarefas financeiras”.

Ele afirmou que há dois tipos fundamentais de transações agentivas: operações financeiras com humano no circuito e transações autônomas de agentes.

Todo mundo está focado no que envolve humano no circuito, disse ele, e isso é um problema real, porque o ecossistema financeiro atualmente não tem outra forma de operar senão transferir toda a responsabilidade de volta para um humano. Tudo se resume à natureza probabilística dessa tecnologia, explicaram os pesquisadores.

O problema probabilístico

O problema central que a equipe identifica é o que chama de “lacuna de garantia”, definida como uma “desconexão entre a confiabilidade probabilística que as técnicas de segurança de IA oferecem e as garantias executáveis de que os usuários precisam antes de delegar tarefas de alto risco”.

Essa descrição remete ao que o especialista em liderança Jason Wild disse anteriormente à Fortune sobre como as ferramentas de IA são probabilísticas, confundindo gestores em todos os lugares.

“Sem uma forma de limitar perdas potenciais”, escreveu a equipe da T54, “os usuários racionalmente limitam a delegação à IA a tarefas de baixo risco, restringindo a adoção mais ampla de serviços baseados em agentes.”

Melhorias de segurança no nível do modelo, argumentam eles, podem reduzir a probabilidade de falha de uma IA, mas não eliminá-la.

Modelos de linguagem de grande escala são inerentemente estocásticos (evoluem baseados em probabilidades), o que significa que, por mais bem treinado ou ajustado que seja um agente de IA, ele ainda pode alucinar e cometer erros.

Quando esse agente está conectado à sua conta de corretora ou executando chamadas de API financeiras, até uma única falha pode gerar uma perda imediata e concreta.

“A maior parte das pesquisas sobre IA confiável busca reduzir a probabilidade de falha”, disse Wenyue Hua, pesquisadora sênior da Microsoft Research.

“Esse trabalho é essencial, mas probabilidade não é garantia. O ARS adota uma abordagem complementar: em vez de tentar tornar o modelo perfeito, formalizamos o que acontece financeiramente quando ele não é. O resultado é um protocolo de liquidação no qual a proteção do usuário é determinística, não probabilística.”

A solução dos pesquisadores se inspira diretamente em séculos de engenharia financeira. O ARS introduz uma estrutura de liquidação em camadas: contas de custódia que mantêm taxas de serviço e as liberam apenas após a entrega verificada da tarefa; exigências de colateral que os provedores de serviços de IA devem depositar antes de acessar os fundos dos usuários; e subscrição opcional — um terceiro que assume risco, precifica o perigo de uma falha de IA, cobra um prêmio e se compromete a reembolsar o usuário se algo der errado.

A estrutura distingue entre dois tipos de trabalhos de IA: tarefas de serviço padrão — como gerar uma apresentação ou escrever um relatório — têm exposição financeira limitada, de modo que a liquidação baseada em custódia é suficiente.

Tarefas que envolvem movimentação de recursos — negociação de moedas, posições alavancadas, chamadas de API financeiras — exigem que o agente acesse o capital do usuário antes que os resultados possam ser verificados, e é aí que a subscrição se torna essencial.

É a mesma lógica que rege os mercados de derivativos, onde câmaras de compensação ficam entre as partes para que um único inadimplemento não gere efeito em cascata.

O artigo mapeia o ARS explicitamente em relação a setores existentes de alocação de risco em uma tabela: construção usa garantias de desempenho; comércio eletrônico usa custódia de plataforma; mercados financeiros usam exigências de margem e câmaras de compensação; e DeFi (finanças descentralizadas) usa colateralização por contratos inteligentes.

Agentes de IA, argumentam os pesquisadores, são simplesmente a próxima categoria de serviços de alto risco que precisa de sua própria versão dessa infraestrutura.

O momento é crucial

Os reguladores financeiros já estão se mobilizando. O relatório de supervisão regulatória de 2026 da Finra (autoridade autorreguladora do mercado financeiro nos EUA), divulgado em dezembro, incluiu pela primeira vez uma seção sobre IA generativa, alertando corretoras a desenvolver procedimentos voltados especificamente para alucinações e a examinar agentes de IA que possam agir “além do escopo e da autoridade reais ou pretendidos do usuário”. A SEC e outras agências estão observando de perto.

Mas o ARS é apresentado como algo que os reguladores ainda não construíram: não um conjunto de regras, mas um protocolo — uma máquina padronizada que governa como os fundos são bloqueados, como as reivindicações são registradas e como os reembolsos são acionados quando um agente de IA falha.

Os pesquisadores reconhecem que o ARS é uma camada de uma pilha maior de confiança e que o verdadeiro gargalo será construir modelos precisos de precificação de risco para o comportamento agentivo.

“Este artigo é o primeiro passo para estabelecer uma estrutura de alto nível que capture o processo de ponta a ponta associado às transações autônomas de agentes e como é a avaliação de risco”, disse Fang à Fortune. “Mais adiante, devemos introduzir detalhes mais específicos, modelos e outras pesquisas para entender como avaliamos o risco em diferentes casos de uso.”

2026 Fortune Media IP Limited

The post O que você faz quando a inteligência artificial alucina com o seu dinheiro? appeared first on InfoMoney.

 InfoMoney