Por Anderson Röhe*
A União Europeia (UE) aprovou no dia 14 de junho deste ano um projeto pioneiro na regulamentação da Inteligência Artificial (IA)[1], uma vez que serão as primeiras regras no mundo ocidental acerca da temática[2]. Visto que, em breve, a China terá regras próprias, competindo em paralelo, motivada pelo desejo de regular a IA Generativa (a exemplo do chatGPT, indisponível no país), passando por uma inspeção de segurança antes de comercializá-la em território chinês[3].
A própria UE acelerou seu processo de tramitação de regulação da IA, iniciado desde 2021[4], motivada pelo “pânico moral” gerado em torno do avanço e rápida popularização das Inteligências Artificiais (chatGPT, sobretudo)[5]. Primeiro com a IA preditiva (reconhecimento facial e vigilância pública). E, agora, a IA generativa, produtora de textos e de imagens sintéticas.
Ainda assim, os planos para que a regulação europeia entre em vigor estão previstos só para 2026[6]. Por tal razão, muitos especialistas defendem a ideia de um código de conduta provisório e voluntário, dado que os altos riscos da IA não poderiam esperar por leis que ainda não estão vigentes[7].
A norma aprovada pelo Parlamento Europeu, após 499 votos favoráveis, 28 contrários e 93 abstenções[8], e que regulará o uso da IA no bloco europeu, entra agora, no entanto, em uma fase complicada e decisiva, visto que precisa ser negociada com todos os representantes de seus vinte e sete estados membros. Um processo longo e complexo, a ser acompanhado de perto, pois nem todos os países estão no mesmo grau de nivelamento e/ou amadurecimento institucional de proteção de dados, privacidade e meio ambiente, de autonomia da autoridade reguladora, de segurança da informação e de soberania digital. E, sobretudo, quais salvaguardas serão priorizadas no caso concreto: se de legalidade, legítimo interesse do Estado, de necessidade, razoabilidade, proporcionalidade, dentre outras.
A classificação pelo risco de cada aplicação da Inteligência Artificial proposta pela UE, e já aventada à época da consulta pública pelo Senado, acerca do marco regulatório da IA no Brasil[9] – é bem recebida por alguns setores[10], embora não haja ainda consenso quanto à efetividade deste critério de classificação ou categorização entre baixo, médio e alto risco.
Na hipótese de alto risco, por exemplo, o perigo a que se é exposto atualmente torna-o inaceitável ou mais difícil de ser tolerado pela sociedade civil, principalmente em um ambiente sem salvaguardas, regras específicas ou onde existe um hiato legislativo a respeito que, em tese, ameaçaria a democracia, os direitos humanos, a liberdade individual e as garantias fundamentais. Como no caso desistemas de IA de reconhecimento de emoções, de policiamento preditivo e devigilância biométrica em locais públicos que ameaçam a privacidade e proteção de dados do cidadão[11].
E que, por isso, o framework europeu deverá, ou ao menos deveria, ser recepcionado com mais cautela (vide o princípio da precaução), uma vez que a abordagem pelo risco (conhecida como risk-based approach)[12] irá variar segundo: a) o setor envolvido, como o de saúde – que necessariamente envolve dados sigilosos e pessoais sensíveis – ou b) a área a ser aplicada, indo desde os videogames aos carros autônomos[13].
Não por acaso, os especialistas em IA estão, agora, divididos entre considerar o modelo regulatório europeu um modelo promissor e que irá legitimar processos regulatórios semelhantes em outros países[14]. Sobretudo por influência do chamado “Efeito Bruxelas”, ao tomar a regulação europeia como melhor exemplo de boas práticas internacionais no setor (benchmarking). Já outros[15] preferem aguardar seus desdobramentos, uma vez que não pode haver um processo de replicação automático ou de espelhamento, aos moldes do “copia e cola”, já que as especificidades locais precisam ser ponderadas antes que tal modelo vire, de fato, política pública domesticamente.
O Brasil, ao contrário da União Europeia, e como exemplo de país em desenvolvimento, tradicionalmente mais consumidor do que produtor de inovação tecnológica (e, portanto, mais vulnerável e suscetível ao risco), acometido pela fragilidade das instituições, pela violência urbana e insegurança pública, não pode se dar ao luxo de estimular (via nugde ou políticas governamentais de incentivo) o uso exclusivo de internet por dispositivos móveis, de aproximação para pagamentos, de migração e armazenamento de dados pessoais em nuvem, visto que o roubou e furto de celulares é uma realidade nacional em grandes cidades como Rio e São Paulo. Basta, assim, “quebrar” a senha ou pegar um smartphone desbloqueado para se ter acesso a todo um histórico de vida e hábitos de consumo do indivíduo vítima de crime ou infração.
O problema, então, a ser enfrentando adiante estará nos critérios de cada órgão, entidade ou país para se valorar esse risco entre tolerável (geralmente de baixo e médio impacto) e intolerável (de risco alto e/ou inaceitável). E do estágio de uso e desenvolvimento da nova tecnologia. O que, certamente, irá variar da realidade prática e cotidiana de uma região para outra. Se país do Norte ou do Sul Global. E, por conseguinte, a depender dos mecanismos de medição de impacto e classificação de risco existentes, de auditagem e de transparência algorítmica para a sua implementação efetiva.
__
[1] European Commission. Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL
LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS. Disponível neste link.
[2] European Parliament. AI Act: a step closer to the first rules on Artificial Intelligence. Disponível neste link.
[3] AFP apud G1 Globo. China quer regulamentar uso da inteligência artificial. Disponível neste link.
[4] AFP apud Istoé. Parlamento Europeu aprova projeto para regulamentar uso da IA. Disponível neste link.
[5] TI INSIDE Online. Por que Big Data sem curadoria vale pouco com avanço da inteligência artificial. Disponível neste link.
[6] Op. cit. Disponível neste link.
[7] JN Agências. EUA e UE anunciam código de conduta comum para Inteligência Artificial. Disponível neste link.
[8] Op. cit. Disponível neste link.
[9] GEDI Mack – GRUPO DE PESQUISA DE DIREITO E INOVAÇÃO. Contribuição à Consulta Pública sobre o Marco Regulatório da Inteligência Artificial. Disponível neste link.
[10]CNN Brasil. Regulamentação da inteligência artificial é urgente e complexa, diz especialista. Disponível neste link.
[11] Op. cit. Disponível neste link.
[12] Op. cit. Disponível neste link.
[13] Op. cit. Disponível neste link.
[14] Op cit. Disponível neste link.
[15] Röhe, Anderson. O Futuro em Prospecção diante de uma Declaração Global para a Internet. Disponível neste link.
____
*Pesquisador fellowship do GT de Inteligência Artificial do Think Tank ABES