
Fonte: It Forum
Por Francisco Camargo*
Antes de regular, é preciso planejar: países líderes em IA apostam em estratégias nacionais para garantir soberania e competitividade

Agora que se discute a regulamentação da inteligência artificial, no Brasil, é interessante verificarmos o que já é feito em outros países, seja para copiá-los ou fugir de suas abordagens.
Como avalia Fabio Gabliardi Cozman1,“Uma regulamentação muito restritiva pode dificultar a inovação local, levando à necessidade de importação de tecnologias”.
Descrevemos, assim, os caminhos tomados pelos Estados Unidos, Reino Unido e França.
Estados Unidos: inovação, inovação e inovação
Os Estados Unidos adotaram uma abordagem descentralizada, baseada em setores já regulamentados. Ao invés de uma legislação federal única dedicada à IA, o país optou por regular o seu uso por meio de leis e diretrizes já existentes, complementadas por iniciativas e recomendações de agências federais.
Estrutura regulatória atual
- Não tem regulamentação específica, porem tem estratégia e direcionamento com o AMERICA’S AI ACTION PLAN de julho de 2025.
- Ausência de lei federal específica: até o momento, não existe uma lei federal abrangente sobre IA. A regulamentação é fragmentada, baseada em setores regulamentados e controlados por agências federais como saúde, finanças e transportes, como o FDA (Food and Drug Administration), o USDOT (Departamento de Transporte) e a FTC (Federal Trade Commission) emitem normas que podem envolver IA.
- Diretrizes: o governo federal emitiu documentos como o “Blueprint for an AI Bill of Rights” (2022), com princípios para garantir direitos básicos dos cidadãos, como proteção contra discriminação algorítmica, privacidade de dados e explicabilidade;
- Pesquisa e ética: o NIST (National Institute of Standards and Technology) propõe frameworks voluntários para o desenvolvimento responsável da IA, focando em segurança, confiabilidade, transparência e equidade.
Desafios e perspectivas
Os Estados Unidos priorizam a promoção da inovação, temendo que uma regulamentação restritiva possa sufocar startups e empresas de tecnologia.
Reino Unido: flexibilidade e autorregulamentação
O Reino Unido quer se posicionar como líder global em IA, com uma abordagem regulatória flexível, baseada em princípios e proporcional ao risco, com ênfase na autorregulação e na colaboração entre governo, setor privado e academia.
Estratégia nacional
- Estratégia nacional de IA. Em 2021, o governo britânico lançou uma estratégia detalhada para fomentar pesquisa, investimento e implementação ética da IA. O documento prioriza a inovação responsável, desenvolvimento de competências e a criação de um ambiente regulatório adaptável.
- No white paper “A Pro-Innovation Approach to AI Regulation” (2023), o governo propõe princípios regulatórios para IA centrados em segurança, transparência, justiça, responsabilidade e contestabilidade, com diretrizes adaptáveis a diferentes setores. Não há intenção de se criar uma agência reguladora para IA.
Estrutura regulatória
- Regulamentação por setor: órgãos existentes, como a ICO (Information Commissioner’s Office), OPSS (Office for Product Safety and Standards) e CMA (Competition and Markets Authority), têm papéis importantes na supervisão do uso de IA em seus respectivos setores.
- Foco em proporcionalidade: a abordagem do Reino Unido busca equilibrar a necessidade de proteção dos cidadãos e a promoção da inovação, ajustando as normas de acordo com o risco apresentado por diferentes aplicações de IA.
Desafios e perspectivas
O Reino Unido vê a regulação da IA como um processo dinâmico, que deve evoluir em paralelo com os avanços da tecnologia. O país busca um papel para influenciar na criação de padrões globais, especialmente em temas ligados à segurança, à ética e à governança internacional.
França: responsabilização e investimentos públicos
A França lidera a Europa na formulação de políticas públicas e regulamentações de IA alinhando-se com iniciativas como o AI Act, a Lei de inteligência artificial da União Europeia.
Estrutura regulatória nacional e europeia
A França é um dos principais defensores do AI Act
- Abordagem baseada em riscos, classificando sistemas de IA conforme o potencial de dano que podem causar, com obrigações rígidas para aplicações que eles entendem de alto risco, como biometria, saúde e sistemas de crédito.
- Estratégia Nacional de IA (2018 e 2021): a França lançou a estratégia nacional para promover a pesquisa, o desenvolvimento ético e a soberania tecnológica em IA, com investimentos públicos significativos e iniciativas para formação de profissionais.
- CNIL (Commission Nationale de l’Informatique et des Libertés): órgão que atua na proteção de dados pessoais e na fiscalização do uso de IA, garantindo conformidade com o GDPR (LGPD europeia) e outras normas.
Responsabilidade
A preocupação principal da França é a responsabilização de desenvolvedores, fornecedores e usuários de sistemas de IA.
Desafios
A maior complexidade regulatória da Europa é vista de um lado como proteção aos cidadãos, e de outro como um enorme desafio para a competitividade das empresas europeias.
A França defende padrões internacionais robustos para não perder competitividade.
Resumindo
As abordagens dos três países são diferentes, com três modelos principais, mas o que chama a atenção é que os três países têm uma estratégia nacional de Inteligência Artificial e buscam soberania tecnológica em IA.
Antes de regulamentar a IA no Brasil, deveríamos ter uma estratégia nacional de Inteligência Artificial, baseada no estímulo à inovação e no empreendedorismo, formação de especialistas e na busca pela criação de padrões globais, para o Brasil não perder competitividade.
Porém, esses padrões globais só serão úteis se os Estados Unidos e a China aderirem, se não, os países que aderirem se tornarão de baixa competitividade.
A IA está na sua infância, sua velocidade de crescimento e inovação é exponencial, temos uma mínima ideia do seu potencial e os EUA querem ser o líder nas palavras do Presidente Donald Trump:
As our global competitors race to exploit these technologies, it is a national security imperative for the United States to achieve and maintain unquestioned and unchallenged global technological dominance. To secure our future, we must harness the full power of American innovation.”
É interessante nesse documento, entre os fundamentos da estratégia americana, verificarmos o primeiro parágrafo do Pillar I:
Pillar I: Accelerate AI Innovation
Remove Red Tape and Onerous Regulation
O dinamismo da Inteligencia Artificial pede uma regulação dinâmica, que acompanhe esse crescimento e não prejudique a inovação e o empreendedorismo brasileiro.
O melhor para o Brasil, neste momento, é ter uma Estratégia de Soberania Tecnológica em Inteligencia Artificial, dar ênfase à autorregulação e não fazer nenhuma lei que tolha a inovação e ir monitorando o que os EUA e a China estão fazendo.
_____
*Fundador e CEO da CLM e Diretor Tesoureiro da ABES – Associação Brasileira da Empresas de Software.





