
Fonte: It Forum
Por Thomaz Côrte Real*
A confiança em sistemas de IA começa com governança responsável — e quem se antecipa às regulações sai na frente

O desenvolvimento de sistemas que utilizam inteligência artificial já faz parte da realidade de muitas empresas no Brasil e no mundo. Essas soluções estão presentes em diversos setores da economia e impactam diretamente as nossas vidas, seja na oferta de serviços, na análise de perfis, na tomada de decisões automatizadas ou no suporte a processos internos. Diante desse cenário, cresce a necessidade de que as empresas desenvolvedoras adotem boas práticas de governança desde a concepção das soluções, garantindo que a inovação caminhe lado a lado com a responsabilidade.
A governança de IA compreende um conjunto de diretrizes, estruturas e responsabilidades destinadas a garantir que o desenvolvimento, a implantação e o uso de sistemas de inteligência artificial estejam alinhados com princípios éticos, legais e sociais. Para as empresas desenvolvedoras de sistemas de IA, isso representa um novo paradigma, pois além de projetar algoritmos eficientes, é preciso torná-los compreensíveis, auditáveis, seguros e justos.
Um dos primeiros pilares dessa governança é a transparência, que deve ser encarada em duas frentes: quanto ao uso e quanto à operação. A transparência quanto ao uso exige informar o usuário que está diante de um sistema de IA e qual seu nível de autonomia. Já a transparência quanto à operação trata de aspectos internos do sistema, como ele funciona, quais dados utiliza e quais são os critérios de decisão. Ainda que a explicabilidade total nem sempre seja possível em modelos mais complexos (como os baseados em deep learning), as empresas devem documentar decisões de projeto, selecionar modelos mais interpretáveis sempre que possível e adotar práticas como logs de decisão, testes de vieses e validações externas, sempre preservando os segredos do negócio e propriedade intelectual.
Outro princípio essencial é a prestação de contas (accountability). A governança exige que seja possível identificar quem é responsável pelo comportamento do sistema e quais medidas foram tomadas para mitigar riscos. Isso implica estruturar equipes multidisciplinares, revisar dados de treinamento quanto a preconceitos estruturais e prever canais para contestação humana de decisões automatizadas, medidas que devem ser consideradas desde as etapas iniciais de desenvolvimento.
Para apoiar essa jornada, recomenda-se a estruturação da governança em fases bem definidas: Planejamento: Definição de objetivos, escopo do sistema e identificação de riscos éticos e jurídicos; Design responsável: Escolha de modelos e dados alinhados a critérios de privacidade e explicabilidade; Implementação técnica com responsabilidade: Documentação de decisões, avaliação de vieses e testes de robustez; Monitoramento contínuo: Auditorias internas, canais de denúncia, medição de impacto e atualização do modelo; Engajamento e comunicação: Diálogo com stakeholders, usuários e órgãos reguladores, garantindo confiança e clareza.
É importante reconhecer que a intensidade das medidas de governança deve ser proporcional ao risco que o sistema de IA oferece. Sistemas que impactam diretamente direitos fundamentais, como os usados em áreas de saúde, crédito ou segurança pública, naturalmente exigirão um grau mais elevado de controle, transparência e supervisão. Por outro lado, soluções de baixo impacto, como ferramentas de apoio administrativo interno por exemplo, pode adotar estrutura de governança mais leve, desde que preserve princípios básicos de responsabilidade e segurança. Essa abordagem baseada em risco evita excessos regulatórios e permite que a inovação floresça de maneira equilibrada, respeitando os limites éticos e jurídicos relacionados.
O Brasil avança com o PL 2338/2023, que propõe a regulação do uso de sistemas de inteligência artificial, sobretudo aqueles classificados como de alto risco. O projeto traz princípios como não discriminação, supervisão humana, segurança e transparência, estabelecendo obrigações que impactam diretamente a atividade das empresas desenvolvedoras. Paralelamente, normas técnicas como a ISO/IEC 22989:2022, que estabelece definições, classificações e princípios fundamentais sobre sistemas de IA, oferecem suporte conceitual e terminológico para o desenvolvimento ético, transparente e seguro.
Por isso, é fundamental que empresas desenvolvedoras de sistemas de IA não esperem a aprovação de uma regulação definitiva para adotar boas práticas de governança. O momento é de antecipar riscos, incorporar critérios éticos ao design de sistemas e compreender que a confiança do mercado e da sociedade será o novo diferencial competitivo.
A governança de IA não é uma barreira à inovação, é um caminho para que ela aconteça de forma sustentável, inclusiva e segura, sendo que as empresas que desenvolvem sistemas de IA têm papel central nesse processo.
____
*Consultor jurídico da Associação Brasileira das Empresas de Software (ABES)





