Linha do tempo da regulamentação no mundo.
- Time ALGOR

- 15 de ago. de 2025
- 10 min de leitura
2017
Setembro: O termo "recomendação algorítmica" surge na mídia estatal chinesa durante uma reação do PCC contra os aplicativos de notícias e mídia da ByteDance, cujos feeds de usuários eram ditados por algoritmos.
27 de novembro: O Conselho de Estado da China lança o "Plano de Desenvolvimento da IA de Nova Geração", que estabelece a meta de a China se tornar líder global em IA até 2030, incluindo um roteiro legislativo em "três etapas".
2018
O líder chinês Xi Jinping declara em um discurso que a China deve "garantir que a IA seja segura [ou protegida], confiável e controlável", estabelecendo metas de alto nível para os formuladores de políticas.
15 de novembro: A Administração do Ciberespaço da China (CAC) promulga as "Disposições sobre avaliação da segurança dos serviços de informação da Internet com atributos de opinião pública ou capacidades de mobilização social", reforçando a supervisão governamental sobre serviços online.
2019
Março: O Japão estabelece os "Princípios Sociais de IA Centrados no Ser Humano", servindo como base filosófica para todas as iniciativas de governança de IA no país, enfatizando a dignidade, diversidade, inclusão e sustentabilidade.
2021
26 de março: O Banco Popular da China promulga a "Especificação de Avaliação de Algoritmo de Inteligência Artificial em Aplicações Financeiras".
1º de julho: A Administração Nacional de Produtos Médicos da China promulga a "Orientação para a Classificação e Definição de Produtos de Software Médico Baseados em IA".
30 de julho: O Ministério da Indústria e Tecnologia da Informação da China promulga as "Opiniões sobre o Fortalecimento da Gestão de Empresas Fabricantes de Veículos Inteligentes Conectados à Internet e Acesso a Produtos".
1º de novembro: A Lei de Proteção de Informações Pessoais (PIPL) da China entra em vigor, impondo obrigações rigorosas sobre a coleta e tratamento de dados pessoais, incluindo disposições específicas sobre tomada de decisão automatizada.
Novembro: A China publica as "Normas Éticas para a IA de Nova Geração".
21 de novembro: A UNESCO adota a "Recomendação sobre a Ética da IA", o primeiro instrumento normativo global sobre ética da IA, enfatizando direitos humanos e sustentabilidade.
31 de dezembro: A Administração do Ciberespaço da China (CAC), o Ministério da Indústria e Tecnologia da Informação, o Ministério da Segurança Pública e a Administração Estatal de Regulamentação do Mercado promulgam as "Disposições sobre o Gerenciamento de Recomendações Algorítmicas em Serviços de Informação da Internet" (Provimentos sobre Algoritmos de Recomendação), marcando o início das restrições chinesas mais direcionadas a algoritmos e IA, com foco em conteúdo online e condições de trabalho.
2022
Março: A Lei de Proteção de Informações Pessoais (APPI) do Japão é alterada para introduzir o conceito de "informação pessoal pseudo-anonimizada", flexibilizando o uso de dados para desenvolvimento de IA.
Junho: O Projeto de Lei C-27, incluindo a Lei de Inteligência Artificial e Dados (AIDA) do Canadá, é introduzido no parlamento.
25 de novembro: A Administração do Ciberespaço da China (CAC), o Ministério da Indústria e Tecnologia da Informação e o Ministério da Segurança Pública promulgam as "Disposições Administrativas sobre Síntese Profunda em Serviços de Informação Baseados na Internet" (Provimentos sobre Síntese Profunda), abordando deepfakes e conteúdo sintético.
Dezembro: O Projeto de Lei nº 2338/2023 do Brasil, que propõe a regulamentação da IA, é aprovado pelo Senado Federal.
2023
Janeiro: O NIST AI Risk Management Framework dos EUA é lançado, oferecendo um guia voluntário para gerenciamento de riscos de IA.
10 de janeiro: Os "Provimentos sobre Síntese Profunda" da China entram em vigor.
Julho: Matt Sheehan publica o artigo de trabalho "Reverse engineering Chinese AI Governance", que mais tarde será adaptado em um ensaio sobre as regulamentações de IA da China.
10 de julho: A Administração do Ciberespaço da China e outras seis entidades governamentais divulgam em conjunto as "Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa" (Medidas Provisórias de IA).
15 de agosto: As "Medidas Provisórias de IA" da China entram em vigor, sendo a primeira regulamentação administrativa específica para serviços de IA generativa.
25 de agosto: O Comitê Técnico Nacional de Padronização de Segurança da Informação da China lança as "Diretrizes Práticas para Padrões de Cibersegurança – Método para Rotular Conteúdo em Serviços de Inteligência Artificial Generativa".
Outubro: A administração Biden dos EUA emite uma Ordem Executiva abrangente sobre o desenvolvimento e uso seguros e confiáveis da IA.
Novembro: O governo do Reino Unido organiza a primeira Cúpula Global de Segurança de IA.
8 de novembro: O Banco Popular da China promulga a "Orientação sobre Divulgação de Informações para Aplicações Financeiras Baseadas em Algoritmos de Inteligência Artificial".
1º de dezembro: As "Medidas para Revisão de Ética Científica e Tecnológica (para Implementação Experimental)" da China entram em vigor.
2024
7 de fevereiro: O MIT Technology Review publica um artigo sobre as prioridades dos reguladores chineses de IA em 2024, incluindo o desenvolvimento de uma lei de IA abrangente.
27 de fevereiro: A Carnegie Endowment for International Peace publica "Tracing the Roots of China's AI Regulations", um artigo que explora as motivações e o processo de criação das regulamentações de IA chinesas.
19 de abril: O METI e o MIC do Japão publicam conjuntamente as "AI Guidelines for Business Ver1.0".
7 de abril: O Stanford HAI's 2025 AI Index revela um crescimento recorde nas capacidades, investimento e regulamentação de IA.
Maio: As "Diretrizes de IA para Negócios" do Japão são revisadas, abordando riscos e oportunidades da IA generativa.
Maio: A Califórnia promulga a "Colorado AI Act", com previsão de entrada em vigor em 1º de fevereiro de 2026.
Maio: O Comitê Técnico Nacional de Normalização da Segurança da Informação (NISSTC) da China emite um projeto de norma técnica para Requisitos de Segurança para IA Generativa.
9 de maio: A OCDE atualiza seus Princípios de IA, promovendo uma IA inovadora e confiável que respeita os direitos humanos e valores democráticos.
Junho: O Brasil apresenta seu "Plano Brasileiro de Inteligência Artificial" (2024-2028), com uma iniciativa de "Nuvem Soberana".
Junho: Clifford Chance publica "Understanding the New AI Operator Guidelines in Japan".
12 de julho: A Lei de Inteligência Artificial da UE (Regulamento (UE) 2024/1689) é publicada no Jornal Oficial da UE.
Agosto: CPREVIEW.ORG publica "Why the EU's AI Act Works Against Itself in the Context of the Global Economy".
1º de agosto: A Lei de IA da UE entra em vigor (a maioria das disposições aplicáveis a partir de 2 de agosto de 2026).
Setembro: O comitê nacional de governança da IA da China lança o "Quadro de Governança de Segurança da IA", estabelecendo princípios gerais e classificando riscos.
11 de outubro: O artigo "O que a China pode nos (des)orientar sobre o arquivamento de algoritmos de I.A.?" é publicado em Migalhas, analisando o repositório de algoritmos da China.
Novembro: O Secretário de Estado para a Ciência, Inovação e Tecnologia do Reino Unido, Peter Kyle, confirma que qualquer nova legislação de IA se concentraria em "modelos de fronteira".
Dezembro: O PL 2338/2023 do Brasil é aprovado no Senado Federal, aguardando votação na Câmara dos Deputados.
26 de dezembro: A Coreia do Sul aprova o "Framework sobre o Desenvolvimento da Inteligência Artificial e o Estabelecimento de uma Base para a Confiabilidade" pela Assembleia Nacional.
2025
Janeiro: O Reino Unido delineia seu Plano de Ação de Oportunidades de IA, com 50 recomendações para acelerar a adoção da IA.
6 de janeiro: O Japan AI Safety Institute (J-AISI) fornece uma visão geral de suas atividades.
21 de janeiro: O "Framework de IA" da Coreia do Sul é promulgado.
Fevereiro: A OCDE lança um quadro global para monitorar a aplicação do Código de Conduta de IA de Hiroshima do G7.
1º de fevereiro: A Colorado AI Act entra em vigor nos EUA.
5 de fevereiro: A Comissão de Proteção de Informações Pessoais (PPC) do Japão propõe novas emendas à Lei de Proteção de Informações Pessoais (APPI) para facilitar o desenvolvimento da IA.
Fevereiro: Adolescentes no Japão são detidos por usar IA generativa para fraudar linhas de celular.
Março: Relatórios indicam que os planos para a legislação de IA do Reino Unido podem ser adiados para alinhamento com a abordagem regulatória dos EUA.
4 de março: Um projeto de lei de iniciativa parlamentar individual é introduzido na câmara alta do Parlamento do Reino Unido, propondo a criação de uma Autoridade de IA.
7 de março: A Administração do Ciberespaço da China (CAC) e o Ministério da Indústria e Tecnologia da Informação divulgam o "Aviso sobre a emissão das 'Medidas para a Identificação de Conteúdo Gerado e Sintético por Inteligência Artificial'".
Março: Ações criminais são tomadas no Japão pelo uso indevido de IA generativa para criar ransomware, marcando a primeira condenação desse tipo.
Abril: Indivíduos no Japão são presos por distribuir materiais obscenos com imagens sexuais geradas por IA.
24 de abril: O projeto de lei "Lei de Promoção da Pesquisa, Desenvolvimento e Utilização de Tecnologias Relacionadas à Inteligência Artificial" (AI Promotion Act) do Japão é aprovado pela Câmara dos Representantes.
25 de abril: A Administração Estatal de Regulamentação do Mercado e a Administração de Padronização da China divulgam conjuntamente três padrões nacionais para segurança e governança de IA generativa.
5 de agosto: Durante a abertura da World AI Conference 2025 em Xangai, o primeiro-ministro da China, Li Qiang, propõe a criação de uma organização mundial para governança e cooperação internacional em IA.
Setembro: O Quartel-General da Estratégia de IA do Japão e o Plano Básico de IA estão programados para entrar em vigor.
1º de setembro: As novas "Regras de Rotulagem" para conteúdo gerado por IA na China entram em vigor.
Novembro: Os três novos padrões nacionais da China para segurança e governança de IA generativa entram em vigor.
Inverno: O Japão deverá formular um "Plano Básico de IA".
2026
1º de janeiro: A California AI Transparency Act entra em vigor nos EUA.
1º de janeiro: A Artificial Intelligence in Health Care Services (AB 3030) entra em vigor na Califórnia.
22 de janeiro: O "Framework de IA" da Coreia do Sul entra em vigor.
2 de agosto: A maioria das disposições da Lei de IA da UE será plenamente aplicável.
Elenco de Personagens
Li Qiang: Primeiro-ministro da China. Propôs a criação de uma organização mundial dedicada à governança e cooperação internacional em Inteligência Artificial (IA) durante a World AI Conference 2025 em Xangai.
Xi Jinping: Secretário Geral do Partido Comunista Chinês (PCC) e líder da nação. Sua visão de mundo e as estruturas ideológicas do PCC guiam a interpretação de eventos e a formulação de políticas de IA na China, priorizando a segurança e o controle.
Matt Sheehan: Pesquisador do Carnegie Endowment for International Peace, especializado em tecnologia global e no ecossistema de inteligência artificial da China. Autor de trabalhos sobre as regulamentações de IA da China.
Graham Webster: Acadêmico de pesquisa do Centro de Segurança e Cooperação Internacional da Universidade de Stanford. Especialista em regulamentações chinesas de IA, ele prevê que a lei abrangente de IA da China será elaborada em 2024, mas dificilmente será finalizada ou entrará em vigor.
Jeremy Daum: Pesquisador das leis chinesas no Paul Tsai China Center. Questiona a praticidade de uma lei única abrangente para IA, sugerindo que a regulamentação por aplicações específicas (como IA generativa) pode fazer mais sentido.
Kristy Loke: Pesquisadora do Centre for the Governance of AI (um think tank). Analisa a "lista negativa" de áreas e produtos que as empresas de IA devem evitar na China sem aprovação explícita do governo, vendo-a como um meio de reduzir a carga de conformidade regulatória.
Jeffrey Ding: Professor assistente de ciência política da Universidade George Washington. Sugere que o desenvolvimento de plataformas nacionais para testar e verificar a segurança dos modelos de IA, e o apoio a organizações de avaliação de terceiros, podem ser prioridades dos reguladores chineses em 2024.
Angela Zhang: Professora de direito da Universidade de Hong Kong. Espera que a China adote uma postura tolerante em relação aos direitos autorais na IA, com mais diretrizes políticas e decisões judiciais favoráveis às empresas para incentivar o crescimento do setor.
Cathy O'Neil: Auditora algorítmica. Critica a tentativa chinesa de manipular e arquivar algoritmos de IA como "impossível", argumentando que mesmo os próprios engenheiros têm dificuldade em controlar o comportamento dos sistemas.
Peter Kyle: Secretário de Estado para a Ciência, Inovação e Tecnologia do Reino Unido. Confirmou que a futura legislação de IA do Reino Unido provavelmente se concentraria em "modelos de fronteira" (IA mais avançada).
Vítor Fonseca Soares: Consultor Legislativo da Área XIV na Câmara dos Deputados do Brasil. Autor do estudo "Panorama Mundial da Legislação de Inteligência Artificial", que analisa as iniciativas de regulamentação de IA em diversas economias globais para subsidiar o esforço legislativo brasileiro.
Organismos e Entidades Importantes:
Administração do Ciberespaço da China (CAC): Principal regulador da tecnologia de IA generativa na China. Lidera a definição de regras, realiza avaliações de segurança e mantém o registro de algoritmos.
Ministério da Indústria e Tecnologia da Informação (MIIT) da China: Desempenha um papel crucial na promulgação de regulamentos de IA, especialmente aqueles relacionados a telecomunicações e aplicações móveis.
Ministério da Segurança Pública da China (MPS): Co-signatário de regulamentações como os Provimentos sobre Algoritmos de Recomendação e Síntese Profunda.
Administração Estatal de Regulamentação do Mercado da China (SAMR): Co-signatária dos Provimentos sobre Algoritmos de Recomendação e envolvida na liberação de padrões nacionais para IA.
Ministério da Ciência e Tecnologia da China (MOST): Desempenhou um grande papel nas primeiras políticas de IA e na criação de princípios de ética e governança.
Comissão de Proteção de Informações Pessoais (PPC) do Japão: Órgão que supervisiona a Lei de Proteção de Informações Pessoais (APPI) e propôs emendas para facilitar o desenvolvimento de IA.
Ministério da Economia, Comércio e Indústria (METI) do Japão: Lidera a política industrial e a governança de IA no Japão, publicando diretrizes para empresas.
Ministério de Assuntos Internos e Comunicações (MIC) do Japão: Co-publica as "AI Guidelines for Business" com o METI.
Quartel-General da Estratégia de IA (AI Strategy Headquarters) do Japão: Órgão central proposto para coordenar o planejamento e a implementação das políticas de IA do país.
Instituto Japonês de Segurança de IA (J-AISI): Entidade dedicada a apoiar os esforços dos setores público e privado para garantir a segurança da IA no Japão.
Ministério da Ciência e TIC (MSIT) da Coreia do Sul: Principal órgão responsável pela supervisão e aplicação do Framework de IA da Coreia do Sul.
Comissão Europeia: Atua na governança e fiscalização da Lei de IA da UE, incluindo a supervisão de modelos GPAI.
Autoridades Nacionais de Fiscalização de Mercado (UE): Designadas por cada Estado-Membro da UE para fiscalizar a aplicação da Lei de IA em seus territórios.
Autoridade Nacional de Proteção de Dados (ANPD) do Brasil: Órgão proposto para supervisionar a aplicação dos regulamentos de IA no Brasil.
Financial Conduct Authority (FCA) do Reino Unido: Regulador setorial existente para o setor financeiro, encarregado de aplicar os princípios de IA.
Office of Communications (Ofcom) do Reino Unido: Regulador setorial existente para as comunicações, encarregado de aplicar os princípios de IA.
Instituto de Segurança da IA (AI Safety Institute) do Reino Unido: Criado para examinar, avaliar e testar os riscos de modelos de IA avançados.
Comissão Federal de Comércio (FTC) dos EUA: Agência federal que emite orientações e frameworks de referência para IA.
Instituto Nacional de Padrões e Tecnologia (NIST) dos EUA: Emite o NIST AI Risk Management Framework, um guia voluntário para gerenciamento de riscos de IA.
Departamento de Saúde e Serviços Humanos (HHS) dos EUA: Emite orientações sobre não discriminação no uso de IA em programas de saúde.
Departamento do Tesouro dos EUA: Solicitou informações sobre o uso de IA no setor de serviços financeiros.
World AI Conference: Conferência anual realizada em Xangai, China, que serve como plataforma estratégica para a diplomacia digital chinesa e debates sobre governança de IA.




Comentários