top of page

Regulação de IA: Separando mitos de evidências no debate brasileiro.


Uma análise técnica à luz do EU AI Act, do PL 2338/2023 e da LGPD



Nota editorial: Este artigo é uma resposta técnica ao texto "Regular a IA… ou impedir que ela funcione? O erro silencioso que pode custar caro", publicado por Vera Moraes no LinkedIn em 01/04/2026. O objetivo não é invalidar a autora, cujo trabalho de divulgação sobre IA merece reconhecimento, mas aprofundar o debate com evidências regulatórias específicas e referências aos marcos normativos vigentes.


Introdução


O debate sobre regulação de inteligência artificial nunca foi tão necessário, nem tão polarizado. De um lado, vozes que pedem normas rígidas e imediatas; de outro, quem teme que qualquer regulação sufoque a inovação. O artigo de Vera Moraes entra nesse território com provocações legítimas e relevantes para gestores e líderes no Brasil.


O problema, porém, é que várias das premissas apresentadas como verdades estabelecidas já foram respondidas - pelos próprios marcos regulatórios que o texto critica. Ignorar essas respostas empobrece o debate e pode levar tomadores de decisão a conclusões equivocadas.


A seguir, analiso (05)cinco pontos que merecem revisão técnica, com base no EU AI Act (Regulamento UE 2024/1689), no PL 2338/2023 e na LGPD (Lei 13.709/2018).


1. "Nem os reguladores têm consenso sobre o que é IA"


O que o artigo afirma: "Como você regula algo que você não entende completamente? [...] nem os reguladores têm consenso sobre o que é IA. E isso muda tudo."


A afirmação é imprecisa e desatualizada. O EU AI Act, em vigor desde agosto de 2024, define com clareza o que é um "sistema de IA" em seu Artigo 3(1): Um sistema baseado em máquina que, para um conjunto de objetivos definidos, infere como gerar outputs, previsões, conteúdo, recomendações ou decisões, que influenciam ambientes reais ou virtuais.


O PL 2338/2023 brasileiro segue caminho similar, apresentando definições específicas alinhadas ao vocabulário técnico internacional. A falta de consenso que existia há cinco anos foi, em grande medida, superada pelos próprios processos regulatórios, que incluíram consultas técnicas, audiências públicas e contribuições de especialistas globais.


Criticar a regulação com base em uma lacuna que ela própria já preencheu é um ponto de partida frágil para o argumento.

2. Algoritmos "mais justos" abandonados por risco jurídico


O que o artigo afirma: "Já existem casos de empresas abandonando algoritmos que eram mais justos, mais meritocráticos, mais eficientes. Não porque eram ruins… mas porque o risco jurídico se tornou alto demais. [...] tentando reduzir discriminação… estamos aumentando."


Esta é a afirmação mais problemática do texto, e também a mais grave, por dois motivos: É uma alegação empírica séria apresentada sem nenhuma fonte, e inverte a direção da evidência disponível.


Os casos mais documentados de algoritmos abandonados apontam o oposto: Sistemas foram descontinuados porque eram discriminatórios, não porque eram justos. O exemplo mais citado na literatura é o sistema de recrutamento da Amazon, abandonado em 2018 porque o modelo aprendeu a penalizar currículos de mulheres. Não há nenhuma evidência consolidada de que algoritmos genuinamente mais equitativos estejam sendo abandonados em escala por excesso de regulação.


Há ainda um problema conceitual: O texto equipara "eficiência" a "justiça" e "meritocracia" como se fossem sinônimos. São conceitos distintos. Um algoritmo pode ser altamente eficiente e simultaneamente discriminatório, é exatamente para separar essas dimensões que a regulação existe.


Afirmações empíricas sérias exigem evidências empíricas. Na ausência delas, o argumento é retórico, não técnico.


3. O "menu regulatório", uma inovação que já existe


O que o artigo propõe: "Um sistema de escolhas. Um 'menu regulatório'.


Opção A: Mais transparência, menos penalidade.


Opção B: Menos transparência, mais responsabilidade."


A ideia tem mérito conceitual, design de incentivos é, de fato, mais sofisticado do que controle puro. O problema é que ela é apresentada como inovação quando já está incorporada ao estado da arte regulatório.


O EU AI Act já opera com camadas diferenciadas de obrigação conforme o nível de risco do sistema:


  • Usos proibidos (Art. 5);

  • Sistemas de alto risco com obrigações robustas (Arts. 8-15);

  • Risco limitado com obrigações de transparência (Art. 50);

  • E, risco mínimo sem obrigações específicas.


Isso é, precisamente, um menu regulatório proporcional.


Há também uma limitação estrutural que o texto não menciona: O modelo proposto pode sofrer de seleção adversa. Empresas com maior capacidade financeira podem simplesmente escolher a "Opção B", menos transparência, mais responsabilidade, e absorver as multas como custo operacional, especialmente os grandes players. O próprio artigo reconhece esse risco no final, ao falar em "barreira de entrada disfarçada de proteção", mas não o relaciona à solução que propõe.


Mais importante: O menu regulatório não pode negociar direitos de terceiros. A LGPD e o EU AI Act protegem direitos fundamentais de titulares de dados , e esses direitos não estão disponíveis para escolha pelas empresas reguladas.


4. O silêncio sobre os cidadãos afetados


Este é, talvez, o silêncio mais revelador do artigo. Em nenhum momento o texto menciona a perspectiva das pessoas afetadas por sistemas de IA. O debate é enquadrado exclusivamente como um problema entre governo e empresas, reguladores de um lado, players de mercado do outro.


Não há menção a:


  • O direito à explicação de decisões automatizadas (Art. 20 da LGPD; Art. 86 do EU AI Act);

  • O direito de contestar decisões de IA em crédito, emprego, saúde e educação;

  • Os impactos documentados sobre grupos vulneráveis, pessoas negras, mulheres, pessoas com deficiência, desproporcionalmente afetados por sistemas sem supervisão;

  • Os danos concretos já registrados: Discriminação em concessão de benefícios sociais, reconhecimento facial com altas taxas de erro para determinados grupos, vieses em algoritmos de precificação.


Regulação de IA não é só um problema de assimetria de informação entre regulador e empresa. É, fundamentalmente, uma questão de direitos. Ignorar essa dimensão não é uma omissão acidental, é um enquadramento que favorece determinados interesses em detrimento de outros.


5. Startups e PMEs, o argumento incompleto


O que o artigo sugere: "Grandes empresas conseguem lidar com burocracia. Pequenas não. Startups sofrem mais. Resultado? Barreira de entrada disfarçada de proteção. Coincidência? Ou efeito colateral previsível?"


A preocupação é legítima e o argumento levanta uma questão real de política regulatória. Mas omite que a regulação vigente já a endereça diretamente. O EU AI Act (Art. 55) estabelece medidas de suporte específicas para micro e pequenas empresas, incluindo acesso simplificado a sandboxes regulatórios (Art. 57-63), ambientes controlados para testar sistemas antes do lançamento, com menos burocracia e supervisão técnica do próprio regulador.


O PL 2338/2023 prevê mecanismos similares em discussão. Apresentar o impacto sobre PMEs como se a regulação ignorasse completamente o tema é factualmente incorreto.


O argumento, como posto no artigo, é uma pergunta retórica, não uma afirmação. Merece ser apresentado como tal, não como evidência de falha regulatória sistêmica.


O que o artigo acerta, e merece reconhecimento?


A análise crítica exige fairness. Há pontos genuinamente válidos no texto:


  • Regulação mal desenhada pode gerar cumprimento formal sem substância, isso é real e documentado na literatura de compliance.

  • Design de incentivos é mais sofisticado do que controle puro, e essa é uma área crescente na academia de direito regulatório.

  • As recomendações práticas ao final (documentar decisões, estruturar governança, antecipar regulação) são corretas e acionáveis para empresas brasileiras.

  • O alerta de que grandes players podem usar a burocracia como barreira de entrada é legítimo e merece atenção dos formuladores de política.


Conclusão: O debate precisa de mais precisão técnica


O artigo de Vera Moraes tem valor inegável como provocação reflexiva para gestores e líderes. A pergunta central: "Estamos regulando bem ou estamos apenas criando ilusão de controle?", é legítima e urgente.


O problema é que o texto comete a mesma imprecisão que critica na regulação: Trata com excesso de confiança um tema que ainda está sendo construído. Apresenta afirmações empíricas sem fontes, propõe como inovações conceitos já incorporados aos principais frameworks globais, e ignora completamente a perspectiva dos cidadãos e grupos vulneráveis afetados pelos sistemas que discute.


Para quem trabalha com Governança de IA no Brasil, especialmente diante da tramitação do PL 2338/2023 e da entrada em vigor plena do EU AI Act, o debate precisa ser mais preciso. Não porque precisão seja um luxo acadêmico, mas porque decisões regulatórias erradas têm custos reais: Para empresas, para o ecossistema de inovação e, sobretudo, para as pessoas que esses sistemas afetam todos os dias.


Regular bem é possível. Mas exige que o debate seja à altura da complexidade do tema.


Referências e marcos normativos citados


  • EU AI Act - Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024.

  • PL 2338/2023 - Projeto de Lei para regulamentação da Inteligência Artificial no Brasil (em tramitação no Senado Federal).

  • LGPD - Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), especialmente Arts. 20 e 21.

  • Artigo original: MORAES, Vera. "Regular a IA… ou impedir que ela funcione? O erro silencioso que pode custar caro." LinkedIn Pulse, 01 abr. 2026.

  • Caso Amazon: DASTIN, Jeffrey. "Amazon scraps secret AI recruiting tool that showed bias against women." Reuters, 2018.


SOBRE O AUTOR:


Jarison Melo é Board Member na ALGOR Association UK, CAIO, CGO, Professor de MBA, Cientista de Dados e Head Regional e Estrategista Sênior de Governança de IA no Nordeste. É Manager, Advisor e Auditor de SGIA's.


Com mais de duas décadas de experiência transformando estratégias de negócios em vantagem competitiva. Especialista em Governança de IA (ISO/IEC 42001) e regulação de IA (EU AI Act e PL 2338), lidera a implementação de SGIA's em Organizações Públicas e Privadas.


Atua na estruturação de comitês de Governança e mitigação de riscos algorítmicos, garantindo inovação com ética e conformidade. Sua abordagem integra profundidade técnica com visão executiva para gerar eficiência operacional, confiança aos stakeholders e valor institucional.

 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page