Selo IA

Fonte: It Forum
Por Francisco Camargo*

Antes de regular, é preciso planejar: países líderes em IA apostam em estratégias nacionais para garantir soberania e competitividade

 

Agora que se discute a regulamentação da inteligência artificial, no Brasil, é interessante verificarmos o que já é feito em outros países, seja para copiá-los ou fugir de suas abordagens.

Como avalia Fabio Gabliardi Cozman1,“Uma regulamentação muito restritiva pode dificultar a inovação local, levando à necessidade de importação de tecnologias”. 

Descrevemos, assim, os caminhos tomados pelos Estados Unidos, Reino Unido e França. 

Estados Unidos: inovação, inovação e inovação

Os Estados Unidos adotaram uma abordagem descentralizada, baseada em setores já regulamentados. Ao invés de uma legislação federal única dedicada à IA, o país optou por regular o seu uso por meio de leis e diretrizes já existentes, complementadas por iniciativas e recomendações de agências federais. 

Estrutura regulatória atual 

  • Não tem regulamentação específica, porem tem estratégia e direcionamento com o AMERICA’S AI ACTION PLAN de julho de 2025.
  • Ausência de lei federal específica: até o momento, não existe uma lei federal abrangente sobre IA. A regulamentação é fragmentada, baseada em setores regulamentados e controlados por agências federais como saúde, finanças e transportes, como o FDA (Food and Drug Administration), o USDOT (Departamento de Transporte) e a FTC (Federal Trade Commission) emitem normas que podem envolver IA. 
  • Diretrizes: o governo federal emitiu documentos como o “Blueprint for an AI Bill of Rights” (2022), com princípios para garantir direitos básicos dos cidadãos, como proteção contra discriminação algorítmica, privacidade de dados e explicabilidade; 
  • Pesquisa e ética: o NIST (National Institute of Standards and Technology) propõe frameworks voluntários para o desenvolvimento responsável da IA, focando em segurança, confiabilidade, transparência e equidade. 

Desafios e perspectivas

Os Estados Unidos priorizam a promoção da inovação, temendo que uma regulamentação restritiva possa sufocar startups empresas de tecnologia 

Reino Unido: flexibilidade e autorregulamentação

Reino Unido quer se posicionar como líder global em IA, com uma abordagem regulatória flexível, baseada em princípios e proporcional ao risco, com ênfase na autorregulação e na colaboração entre governo, setor privado e academia. 

Estratégia nacional  

  • Estratégia nacional de IA. Em 2021, o governo britânico lançou uma estratégia detalhada para fomentar pesquisa, investimento e implementação ética da IA. O documento prioriza a inovação responsável, desenvolvimento de competências e a criação de um ambiente regulatório adaptável. 
  • No white paper “A Pro-Innovation Approach to AI Regulation” (2023), o governo propõe princípios regulatórios para IA centrados em segurança, transparência, justiça, responsabilidade e contestabilidade, com diretrizes adaptáveis a diferentes setores. Não há intenção de se criar uma agência reguladora para IA. 

Estrutura regulatória 

  • Regulamentação por setor: órgãos existentes, como a ICO (Information Commissioner’s Office), OPSS (Office for Product Safety and Standards) e CMA (Competition and Markets Authority), têm papéis importantes na supervisão do uso de IA em seus respectivos setores. 
  • Foco em proporcionalidade: a abordagem do Reino Unido busca equilibrar a necessidade de proteção dos cidadãos e a promoção da inovação, ajustando as normas de acordo com o risco apresentado por diferentes aplicações de IA. 

Desafios e perspectivas

O Reino Unido vê a regulação da IA como um processo dinâmico, que deve evoluir em paralelo com os avanços da tecnologia. O país busca um papel para influenciar na criação de padrões globais, especialmente em temas ligados à segurança, à ética e à governança internacional. 

França: responsabilização e investimentos públicos

A França lidera a Europa na formulação de políticas públicas e regulamentações de IA alinhando-se com iniciativas como o AI Act, a Lei de inteligência artificial da União Europeia. 

Estrutura regulatória nacional e europeia 

A França é um dos principais defensores do AI Act 

  • Abordagem baseada em riscos, classificando sistemas de IA conforme o potencial de dano que podem causar, com obrigações rígidas para aplicações que eles entendem de alto risco, como biometria, saúde e sistemas de crédito. 
  • Estratégia Nacional de IA (2018 e 2021): a França lançou a estratégia nacional para promover a pesquisa, o desenvolvimento ético e a soberania tecnológica em IA, com investimentos públicos significativos e iniciativas para formação de profissionais. 
  • CNIL (Commission Nationale de l’Informatique et des Libertés): órgão que atua na proteção de dados pessoais e na fiscalização do uso de IA, garantindo conformidade com o GDPR (LGPD europeia) e outras normas. 

Responsabilidade

A preocupação principal da França é a responsabilização de desenvolvedores, fornecedores e usuários de sistemas de IA 

Desafios

A maior complexidade regulatória da Europa é vista de um lado como proteção aos cidadãos, e de outro como um enorme desafio para a competitividade das empresas europeias.  

A França defende padrões internacionais robustos para não perder competitividade. 

Resumindo

As abordagens dos três países são diferentes, com três modelos principais, mas o que chama a atenção é que os três países têm uma estratégia nacional de Inteligência Artificial e buscam soberania tecnológica em IA.

Antes de regulamentar a IA no Brasil, deveríamos ter uma estratégia nacional de Inteligência Artificial, baseada no estímulo à inovação e no empreendedorismo, formação de especialistas e na busca pela criação de padrões globais, para o Brasil não perder competitividade.

Porém, esses padrões globais só serão úteis se os Estados Unidos e a China aderirem, se não, os países que aderirem se tornarão de baixa competitividade.

A IA está na sua infância, sua velocidade de crescimento e inovação é exponencial, temos uma mínima ideia do seu potencial e os EUA querem ser o líder nas palavras do Presidente Donald Trump:

As our global competitors race to exploit these technologies, it is a national security imperative for the United States to achieve and maintain unquestioned and unchallenged global technological dominance. To secure our future, we must harness the full power of American innovation.” 

É interessante nesse documento, entre os fundamentos da estratégia americana, verificarmos o primeiro parágrafo do Pillar I: 

Pillar I: Accelerate AI Innovation 

Remove Red Tape and Onerous Regulation  

O dinamismo da Inteligencia Artificial pede uma regulação dinâmica, que acompanhe esse crescimento e não prejudique a inovação e o empreendedorismo brasileiro. 

O melhor para o Brasil, neste momento, é ter uma Estratégia de Soberania Tecnológica em  Inteligencia Artificial, dar ênfase à autorregulação e não fazer nenhuma lei que tolha a inovação e ir monitorando o que os EUA e a China estão fazendo.

_____
*Fundador e CEO da CLM e Diretor Tesoureiro da ABES – Associação Brasileira da Empresas de Software.

Compartilhe