Regulação de IA: Separando mitos de evidências no debate brasileiro.
- jarisonmelo

- 16 de abr.
- 6 min de leitura

Uma análise técnica à luz do EU AI Act, do PL 2338/2023 e da LGPD
Nota editorial: Este artigo é uma resposta técnica ao texto "Regular a IA… ou impedir que ela funcione? O erro silencioso que pode custar caro", publicado por Vera Moraes no LinkedIn em 01/04/2026. O objetivo não é invalidar a autora, cujo trabalho de divulgação sobre IA merece reconhecimento, mas aprofundar o debate com evidências regulatórias específicas e referências aos marcos normativos vigentes.
Introdução
O debate sobre regulação de inteligência artificial nunca foi tão necessário, nem tão polarizado. De um lado, vozes que pedem normas rígidas e imediatas; de outro, quem teme que qualquer regulação sufoque a inovação. O artigo de Vera Moraes entra nesse território com provocações legítimas e relevantes para gestores e líderes no Brasil.
O problema, porém, é que várias das premissas apresentadas como verdades estabelecidas já foram respondidas - pelos próprios marcos regulatórios que o texto critica. Ignorar essas respostas empobrece o debate e pode levar tomadores de decisão a conclusões equivocadas.
A seguir, analiso (05)cinco pontos que merecem revisão técnica, com base no EU AI Act (Regulamento UE 2024/1689), no PL 2338/2023 e na LGPD (Lei 13.709/2018).
1. "Nem os reguladores têm consenso sobre o que é IA"
O que o artigo afirma: "Como você regula algo que você não entende completamente? [...] nem os reguladores têm consenso sobre o que é IA. E isso muda tudo."
A afirmação é imprecisa e desatualizada. O EU AI Act, em vigor desde agosto de 2024, define com clareza o que é um "sistema de IA" em seu Artigo 3(1): Um sistema baseado em máquina que, para um conjunto de objetivos definidos, infere como gerar outputs, previsões, conteúdo, recomendações ou decisões, que influenciam ambientes reais ou virtuais.
O PL 2338/2023 brasileiro segue caminho similar, apresentando definições específicas alinhadas ao vocabulário técnico internacional. A falta de consenso que existia há cinco anos foi, em grande medida, superada pelos próprios processos regulatórios, que incluíram consultas técnicas, audiências públicas e contribuições de especialistas globais.
Criticar a regulação com base em uma lacuna que ela própria já preencheu é um ponto de partida frágil para o argumento.
2. Algoritmos "mais justos" abandonados por risco jurídico
O que o artigo afirma: "Já existem casos de empresas abandonando algoritmos que eram mais justos, mais meritocráticos, mais eficientes. Não porque eram ruins… mas porque o risco jurídico se tornou alto demais. [...] tentando reduzir discriminação… estamos aumentando."
Esta é a afirmação mais problemática do texto, e também a mais grave, por dois motivos: É uma alegação empírica séria apresentada sem nenhuma fonte, e inverte a direção da evidência disponível.
Os casos mais documentados de algoritmos abandonados apontam o oposto: Sistemas foram descontinuados porque eram discriminatórios, não porque eram justos. O exemplo mais citado na literatura é o sistema de recrutamento da Amazon, abandonado em 2018 porque o modelo aprendeu a penalizar currículos de mulheres. Não há nenhuma evidência consolidada de que algoritmos genuinamente mais equitativos estejam sendo abandonados em escala por excesso de regulação.
Há ainda um problema conceitual: O texto equipara "eficiência" a "justiça" e "meritocracia" como se fossem sinônimos. São conceitos distintos. Um algoritmo pode ser altamente eficiente e simultaneamente discriminatório, é exatamente para separar essas dimensões que a regulação existe.
Afirmações empíricas sérias exigem evidências empíricas. Na ausência delas, o argumento é retórico, não técnico.
3. O "menu regulatório", uma inovação que já existe
O que o artigo propõe: "Um sistema de escolhas. Um 'menu regulatório'.
Opção A: Mais transparência, menos penalidade.
Opção B: Menos transparência, mais responsabilidade."
A ideia tem mérito conceitual, design de incentivos é, de fato, mais sofisticado do que controle puro. O problema é que ela é apresentada como inovação quando já está incorporada ao estado da arte regulatório.
O EU AI Act já opera com camadas diferenciadas de obrigação conforme o nível de risco do sistema:
Usos proibidos (Art. 5);
Sistemas de alto risco com obrigações robustas (Arts. 8-15);
Risco limitado com obrigações de transparência (Art. 50);
E, risco mínimo sem obrigações específicas.
Isso é, precisamente, um menu regulatório proporcional.
Há também uma limitação estrutural que o texto não menciona: O modelo proposto pode sofrer de seleção adversa. Empresas com maior capacidade financeira podem simplesmente escolher a "Opção B", menos transparência, mais responsabilidade, e absorver as multas como custo operacional, especialmente os grandes players. O próprio artigo reconhece esse risco no final, ao falar em "barreira de entrada disfarçada de proteção", mas não o relaciona à solução que propõe.
Mais importante: O menu regulatório não pode negociar direitos de terceiros. A LGPD e o EU AI Act protegem direitos fundamentais de titulares de dados , e esses direitos não estão disponíveis para escolha pelas empresas reguladas.
4. O silêncio sobre os cidadãos afetados
Este é, talvez, o silêncio mais revelador do artigo. Em nenhum momento o texto menciona a perspectiva das pessoas afetadas por sistemas de IA. O debate é enquadrado exclusivamente como um problema entre governo e empresas, reguladores de um lado, players de mercado do outro.
Não há menção a:
O direito à explicação de decisões automatizadas (Art. 20 da LGPD; Art. 86 do EU AI Act);
O direito de contestar decisões de IA em crédito, emprego, saúde e educação;
Os impactos documentados sobre grupos vulneráveis, pessoas negras, mulheres, pessoas com deficiência, desproporcionalmente afetados por sistemas sem supervisão;
Os danos concretos já registrados: Discriminação em concessão de benefícios sociais, reconhecimento facial com altas taxas de erro para determinados grupos, vieses em algoritmos de precificação.
Regulação de IA não é só um problema de assimetria de informação entre regulador e empresa. É, fundamentalmente, uma questão de direitos. Ignorar essa dimensão não é uma omissão acidental, é um enquadramento que favorece determinados interesses em detrimento de outros.
5. Startups e PMEs, o argumento incompleto
O que o artigo sugere: "Grandes empresas conseguem lidar com burocracia. Pequenas não. Startups sofrem mais. Resultado? Barreira de entrada disfarçada de proteção. Coincidência? Ou efeito colateral previsível?"
A preocupação é legítima e o argumento levanta uma questão real de política regulatória. Mas omite que a regulação vigente já a endereça diretamente. O EU AI Act (Art. 55) estabelece medidas de suporte específicas para micro e pequenas empresas, incluindo acesso simplificado a sandboxes regulatórios (Art. 57-63), ambientes controlados para testar sistemas antes do lançamento, com menos burocracia e supervisão técnica do próprio regulador.
O PL 2338/2023 prevê mecanismos similares em discussão. Apresentar o impacto sobre PMEs como se a regulação ignorasse completamente o tema é factualmente incorreto.
O argumento, como posto no artigo, é uma pergunta retórica, não uma afirmação. Merece ser apresentado como tal, não como evidência de falha regulatória sistêmica.
O que o artigo acerta, e merece reconhecimento?
A análise crítica exige fairness. Há pontos genuinamente válidos no texto:
Regulação mal desenhada pode gerar cumprimento formal sem substância, isso é real e documentado na literatura de compliance.
Design de incentivos é mais sofisticado do que controle puro, e essa é uma área crescente na academia de direito regulatório.
As recomendações práticas ao final (documentar decisões, estruturar governança, antecipar regulação) são corretas e acionáveis para empresas brasileiras.
O alerta de que grandes players podem usar a burocracia como barreira de entrada é legítimo e merece atenção dos formuladores de política.
Conclusão: O debate precisa de mais precisão técnica
O artigo de Vera Moraes tem valor inegável como provocação reflexiva para gestores e líderes. A pergunta central: "Estamos regulando bem ou estamos apenas criando ilusão de controle?", é legítima e urgente.
O problema é que o texto comete a mesma imprecisão que critica na regulação: Trata com excesso de confiança um tema que ainda está sendo construído. Apresenta afirmações empíricas sem fontes, propõe como inovações conceitos já incorporados aos principais frameworks globais, e ignora completamente a perspectiva dos cidadãos e grupos vulneráveis afetados pelos sistemas que discute.
Para quem trabalha com Governança de IA no Brasil, especialmente diante da tramitação do PL 2338/2023 e da entrada em vigor plena do EU AI Act, o debate precisa ser mais preciso. Não porque precisão seja um luxo acadêmico, mas porque decisões regulatórias erradas têm custos reais: Para empresas, para o ecossistema de inovação e, sobretudo, para as pessoas que esses sistemas afetam todos os dias.
Regular bem é possível. Mas exige que o debate seja à altura da complexidade do tema.
Referências e marcos normativos citados
EU AI Act - Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024.
PL 2338/2023 - Projeto de Lei para regulamentação da Inteligência Artificial no Brasil (em tramitação no Senado Federal).
LGPD - Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), especialmente Arts. 20 e 21.
Artigo original: MORAES, Vera. "Regular a IA… ou impedir que ela funcione? O erro silencioso que pode custar caro." LinkedIn Pulse, 01 abr. 2026.
Caso Amazon: DASTIN, Jeffrey. "Amazon scraps secret AI recruiting tool that showed bias against women." Reuters, 2018.
SOBRE O AUTOR:
Jarison Melo é Board Member na ALGOR Association UK, CAIO, CGO, Professor de MBA, Cientista de Dados e Head Regional e Estrategista Sênior de Governança de IA no Nordeste. É Manager, Advisor e Auditor de SGIA's.
Com mais de duas décadas de experiência transformando estratégias de negócios em vantagem competitiva. Especialista em Governança de IA (ISO/IEC 42001) e regulação de IA (EU AI Act e PL 2338), lidera a implementação de SGIA's em Organizações Públicas e Privadas.
Atua na estruturação de comitês de Governança e mitigação de riscos algorítmicos, garantindo inovação com ética e conformidade. Sua abordagem integra profundidade técnica com visão executiva para gerar eficiência operacional, confiança aos stakeholders e valor institucional.




Comentários