7 Verdades Surpreendentes Sobre Inteligência Artificial no Setor Público
- Paulo Carvalho

- 5 de jan.
- 6 min de leitura
(Extraídas do novo manual de Governança de IA)

Introdução: O Paradoxo do Gestor Público
O gestor público moderno vive um paradoxo cruel: é cobrado para inovar com a velocidade do setor privado, mas punido com o rigor implacável do setor público se algo der errado. Inovar é uma necessidade, mas cada passo em falso pode significar um processo no Tribunal de Contas, uma crise de imagem ou, pior, um dano real à vida de um cidadão.
Como navegar essa corda bamba?
É para responder a essa pergunta que o especialista em governança Paulo Carvalho escreveu "GOV IA - Governança de IA em instituições publicas". Longe do hype tecnológico e do alarmismo, o livro é um guia prático, um manual de defesa para quem precisa tomar decisões. Ele traduz o "techês" para o "administratês" e oferece ferramentas para que a IA sirva ao interesse público, e não o contrário.
Este artigo destila as 7 verdades mais impactantes e contraintuitivas do manual, lições que podem mudar fundamentalmente a maneira como você enxerga a tecnologia no Estado.
1. A "IA Sombria" Já Está em Todo Lugar
Se você acredita que sua instituição está no "marco zero" da Inteligência Artificial porque ainda não comprou nenhuma solução, há uma realidade urgente que precisa ser encarada. Enquanto planos estratégicos(PPA) são discutidos, seus servidores já estão usando contas gratuitas de ChatGPT para resumir processos sigilosos e ferramentas online para gerar imagens para campanhas.
Esse fenômeno é chamado de "Shadow AI" (IA Sombria). O livro argumenta que o primeiro passo da governança não é licitar uma nova tecnologia, mas sim realizar uma operação de Resgate de Soberania. Isso começa com a iluminação do que já existe, através de um processo de "Anistia Institucional" que incentiva os servidores a declararem as ferramentas que usam.
O manual detalha uma metodologia rigorosa de varredura em três frentes: de baixo para cima (bottom-up, com scans técnicos nos códigos), de cima para baixo (top-down, com entrevistas estruturadas) e de fora para dentro (outside-in, monitorando o perímetro da rede).
Ignorar essa realidade é permitir que dados sensíveis do cidadão e do Estado sejam processados em servidores estrangeiros, violando a soberania nacional sem que ninguém perceba.
"Se você pensa assim, tenho uma notícia urgente: Você já está governando algoritmos, só não sabe disso."2. A Máquina Erra: O Risco do "Falso Positivo"
A história de Matheus, contada no Prólogo do livro, é um alerta brutal. Um estudante de enfermagem, sem antecedentes criminais, foi preso de forma violenta em um terminal de ônibus lotado. O culpado? Um alerta do "Sentinela-Bio", um novo sistema de reconhecimento facial, que o identificou como um homicida foragido com 94% de confiança.
O algoritmo não estava tecnicamente errado; ele estava "matematicamente" correto, pois havia semelhança geométrica entre os rostos. No entanto, estava "faticamente" errado. O sistema ignorou a má iluminação e o fato de que sua base de treinamento tinha um viés severo contra rostos de pele negra. Para a máquina, Matheus e o criminoso eram a mesma pessoa.
Este caso expõe a falácia perigosa por trás da fé cega na tecnologia e o custo humano catastrófico de um "falso positivo", provando que a governança não é sobre a precisão do código, mas sobre a proteção da dignidade humana.
"‘Matemática não mente’, garantiu o vendedor da tecnologia. Se o Sentinela disse que é ele, é ele."
3. O Fim do Medo: A Ascensão do Servidor "Centauro"
O medo mais comum nos corredores das repartições é: "o robô vai roubar meu emprego?".
O manual de governança de IA desconstrói essa narrativa. A verdadeira transformação não é a substituição do humano, mas a sua potencialização.
Para isso, o livro apresenta o "Conceito de Centauro", a combinação imbatível entre a intuição, a ética e o julgamento crítico do humano com a força bruta de processamento da máquina.
A IA não veio para tomar o lugar do servidor, mas para eliminar o "Trabalho de Robô" — as tarefas repetitivas, mecânicas e desgastantes como copiar dados de planilhas ou redigir ofícios padronizados. Ao automatizar a burocracia, a tecnologia libera o servidor público para fazer o que nenhuma máquina jamais fará: exercer empatia, negociar soluções complexas e cuidar das pessoas.
"A mensagem não é que a IA substituirá o servidor, mas que o servidor que usa IA substituirá o servidor que não usa."
4. ROI Público é Diferente: Calculando o "Retorno sobre o Valor Público" (ROV)
Como justificar ao Secretário de Fazenda um investimento milionário em uma tecnologia de segurança pública que não gera "lucro"? A lógica do ROI (Retorno sobre o Investimento) tradicional não funciona no Estado.
O livro introduz um conceito fundamental: o ROV (Retorno sobre o Valor Público).
Usando o exemplo do sistema "Sentinela-Bio", o cálculo é revelador.
Do lado dos ganhos, temos R$ 6milhões em Economia Operacional(custo evitado de 100 capturas manuais complexas) e R$ 2 milhões em Ativos Recuperados (veículos roubados).
Do lado dos custos, o investimento total (TCO) é de R$ 4,7milhões, que crucialmente inclui não soˊ licença de software e hardware, mas R$ 500 mil em Provisão de Risco, um fundo para indenizações por erros, como exigido pela Avaliação de Impacto Algorítmico (AIA).
A fórmula (Ganhos - Custos) / Custos resulta em um ROV de 70,2%. Este número transforma a discussão: a governança não é despesa, é investimento com retorno mensurável. É com dados como este que se justifica o orçamento para implementar as "Linhas Vermelhas" (verdade #5) e capacitar o "Servidor Centauro" (verdade #3).
5. As "Linhas Vermelhas": O Que a IA Governamental Nunca Deve Fazer
Governar é, antes de tudo, dizer "não". Uma boa política de IA não é aquela que permite tudo, mas a que estabelece fronteiras claras e inegociáveis para proteger os direitos fundamentais. A minuta de portaria proposta no livro define essas "Linhas Vermelhas" de forma inequívoca. Entre as proibições mais importantes estão:
• A proibição de tomar decisões 100% automatizadas que neguem direitos. Um humano qualificado deve sempre poder revisar e reverter a decisão de uma máquina em casos de alto impacto, como a concessão de benefícios sociais.
• A proibição de inferir orientação sexual, política ou religiosa dos cidadãos. O uso de IA para criar perfis comportamentais ou ideológicos para vigilância ou manipulação é inaceitável.
• A proibição de inserir dados pessoais ou sigilosos em plataformas públicas e gratuitas de IA Generativa. Enviar uma planilha com CPFs de servidores para o ChatGPT gratuito é, na prática, um vazamento de dados institucional, pois a informação passa a ser usada para treinar o modelo público da empresa.
6. O "Interrogatório": 5 Perguntas Essenciais Antes de Comprar Qualquer IA
Antes de assinar um contrato milionário, o gestor público precisa se transformar em um interrogador. O livro oferece um "Protocolo de Interrogatório" com 20 perguntas cruciais para fazer a qualquer fornecedor de IA. Elas funcionam como uma apólice de seguro contra os riscos que o marketing esconde. Aqui estão 5 das mais reveladoras:
1. Soberania dos Dados: "Os dados que eu insiro na sua plataforma são usados para treinar o seu modelo base? Se sim, como garanto que o segredo de estado não vazará para outros clientes?"
◦ Risco abordado: Perda de soberania. A resposta deve ser um "Não" categórico: "Não treinamos com seus dados na versão Enterprise".
2. Indenização por Viés: "Se a sua IA discriminar um cidadão e o Estado for processado, a sua empresa assume a responsabilidade civil solidária ou o contrato tem cláusula de isenção de culpa?"
◦ Risco abordado: Para evitar desastres humanos e jurídicos como o de Matheus (verdade #2), a responsabilidade civil deve ser compartilhada. Um fornecedor responsável não se isenta da culpa.
3. Saída (Lock-in): "Se eu cancelar o contrato, eu levo o aprendizado do modelo comigo ou perco toda a inteligência gerada?"
◦ Risco abordado: Aprisionamento tecnológico. O conhecimento gerado com dados públicos deve pertencer ao Estado, não à empresa.
4. Explicabilidade: "Eu consigo explicar ao Juiz por que a IA tomou essa decisão?"
◦ Risco abordado: "Caixas-pretas" que tornam impossível cumprir o dever de motivação do ato administrativo. Se não é explicável, não pode ser usado para decidir direitos.
5. Pedigree do Modelo (Risco de Copyright): "Qual foi a base de dados usada para treinar este modelo? Vocês possuem autorização legal para usar esses dados ou corremos o risco de o sistema sair do ar por processos de direitos autorais (como NYT vs OpenAI)?"
◦ Risco abordado: Contratar uma tecnologia ilegal. Fuja de empresas que respondem "Isso é segredo comercial" sem oferecer garantias de indenização.
Conclusão: A Soberania Começa com uma Pergunta
A era da "adoção ingênua" da Inteligência Artificial no setor público acabou. Como demonstram as lições do manual "GOV IA", a tecnologia não é uma solução mágica, mas uma ferramenta poderosa que exige controle, ética e responsabilidade. O objetivo não é apenas usar a IA, mas governá-la para que ela cumpra sua única missão legítima: servir ao interesse público.
O Estado Algorítmico já está aqui, operando nas sombras ou à luz do dia. A única escolha que temos é se ele será um Estado soberano, onde a tecnologia serve aos cidadãos de forma justa e transparente, ou um Estado subserviente, refém de caixas-pretas que não entendemos e não controlamos.
Qual deles escolheremos construir?

Adquira agora!




Comentários