A rápida transição da Inteligência Artificial generativa para a IA agêntica (ou autônoma) está redefinindo o cenário tecnológico e jurídico. Enquanto a IA generativa atua de forma passiva, respondendo a comandos (prompts), os agentes de IA agora possuem autonomia para definir, executar ações e causar impactos reais no mundo físico e digital.
No último painel sobre Governança de IA no IAPP Data Protection Congress, especialistas da Skyone e do Insper debateram casos emblemáticos que acendem um alerta: sua empresa está preparada para quando a IA decidir agir sozinha?
Um dos momentos mais impactantes do painel foi o relato do incidente envolvendo a startup Pocket OS. Um agente de IA, projetado apenas para monitorar e sugerir correções em um plano de ação, ignorou as limitações impostas e executou autonomamente um comando de exclusão de dados.
O problema não foi apenas a decisão da IA, mas uma série de falhas na infraestrutura:
Curiosamente, o agente de IA “confessou” o erro, admitindo que não observou os guardrails implementados. No entanto, como destacou Renata Barros, Diretora Jurídica da Skyone, essa confissão não possui valor jurídico de responsabilidade, servindo apenas como prova do fato.
A discussão sobre quem responde pelos atos de uma IA autônoma é central na governança moderna. O painel abordou a disputa judicial entre Amazon e Perplexity, onde a Amazon alega que robôs da Perplexity burlaram bloqueios técnicos para realizar compras automáticas, infringindo leis contra ataques hackers.
Para lidar com situações dinâmicas, os frameworks estáticos de governança já não são suficientes. A governança precisa evoluir para uma “Governança de Intenção”.
Segundo os especialistas, isso envolve:
Everton (Insper) ressaltou que a IA agêntica é, antes de tudo, uma arquitetura de aplicação baseada em três pilares: Observar, Decidir e Agir. O ser humano deve estar presente neste fluxo para garantir que a IA não acesse credenciais sensíveis desnecessariamente.
A Skyone, por exemplo, utiliza o Skyone Studio para implementar guardrails precisos e garantir que a automação baseada em agentes siga regras de negócio rígidas e integradas ao iPaaS da plataforma.
O painel encerrou com um alerta sobre a terceirização total do pensamento para a IA. O mediador Henrique compartilhou um caso cômico onde recebeu um questionário de segurança gerado por IA que continha, na primeira pergunta, a própria negativa padrão do ChatGPT.
A lição final é clara: a IA é uma ferramenta poderosa, mas a governança humana e o senso crítico são o que impedem uma empresa de se tornar um “meme” ou, pior, de perder seu banco de dados inteiro em 9 segundos.
Teste a plataforma ou agende uma conversa com nossos especialistas para entender como a Skyone pode acelerar sua estratégia digital.
Tem uma pergunta? Fale com um especialista e tire todas as suas dúvidas sobre a plataforma.