Por Loren Spindola*

“Só sei que nada sei”, teria dito Sócrates ainda antes de Cristo. Mas, de qualquer forma, retrata sua humildade intelectual e sua busca constante por conhecimento, e pode ser interpretada como a aceitação de que, apesar dos nossos esforços para a total compreensão, ainda há muito que não sabemos.

A frase socrática não poderia ser mais atual. À medida que tecnologias são desenvolvidas, ou que descobertas científicas são feitas, novas possibilidades e desafios surgem e demandam que a sociedade como um todo permaneça aberta a novas abordagens. E, somente assim, continue aprendendo. Apesar das inúmeras mudanças positivas advindas da tecnologia, ainda haverá sempre algo mais a ser explorado e descoberto.

Pegando carona na humildade intelectual de Sócrates, que acreditava que é necessário questionar as certezas, as opiniões e os pré-conceitos, chegamos à conclusão de que a diversidade exige inovação. Diferentes olhares trazem novas visões. A diversidade de raça, gênero, orientação sexual e polícia, status social, aliada à diversidade na formação acadêmica e experiência profissional, são, hoje em dia, fundamentais para a descoberta de novas alternativas para problemas antigos. Afinal, é impossível para um ser humano saber tudo e sobre tudo.

E é aí que entra a Inteligência Artificial. Por ser um campo interdisciplinar por excelência, que envolve diversas áreas do conhecimento – como ciência da computação, estatística, matemática, psicologia, filosofia, ética etc. —, cada disciplina pode contribuir para o desenvolvimento de algoritmos mais justos e imparciais. Portanto, para além da inovação, a multidisciplinaridade desempenha um papel fundamental na redução de vieses na IA, é necessária mais diversidade, para se chegar à mais perspectivas e, em última análise, um conhecimento mais vasto.

Por exemplo, a ciência da computação pode fornecer os conhecimentos necessários para criar algoritmos eficientes. A estatística pode ajudar a identificar e mitigar vieses estatísticos em conjuntos de dados, como a falta de diversidade ou a distribuição desigual de classes. A psicologia pode contribuir para entender como os seres humanos percebem e tomam decisões, o que pode ajudar a identificar possíveis vieses cognitivos que possam estar presentes nos algoritmos de IA. A filosofia pode ajudar a questionar e a definir conceitos éticos e morais envolvidos na tomada de decisões automáticas, enquanto a ética pode ajudar a identificar e a avaliar as consequências das decisões automatizadas em diferentes grupos da sociedade.

Ao reunir diferentes especialistas e, portanto, diversas perspectivas, a multidisciplinaridade pode ajudar a criar sistemas de IA mais justos e inclusivos, evitando a perpetuação de discriminações. Além disso, a colaboração multidisciplinar pode ajudar a promover a transparência na tomada de decisões automatizadas, permitindo que os desenvolvedores e os usuários entendam como as decisões são tomadas e avaliem as consequências sociais dessas decisões.

Os principais organismos internacionais reconhecem a importância da multidisciplinaridade para o desenvolvimento de IA responsável e fazem recomendações nesse sentido. Nessa toada, ONU, OCDE, UNESCO e a própria União Europeia recomendam a inclusão de perspectivas multidisciplinares na discussão sobre o futuro da IA, por exemplo.

Aqui no Brasil, em que pese o esforço colegiado e diverso em curso no âmbito das ações da Estratégia Brasileira de IA e do grupo de estudos de IA na ABNT, parece que estamos a caminhar na contramão: temos uma proposta de regulação da IA elaborada por um grupo formado apenas por juristas, que — assim como eu — têm uma visão “limitada” da tecnologia, justamente pela falta de conhecimento técnico de como ela funciona e é desenvolvida.

O fato de o tema ter sido amplamente debatido em audiências públicas e seminários internacionais, com a presença de especialistas nacionais e internacionais, no intuito louvável de trazer o olhar sociotécnico da tecnologia, infelizmente não garantiu que a representatividade das falas estivesse presente em nenhum dos 45 artigos da proposta de regulação apresentada.

Da época de nossa monarquia, ainda trazemos a expressão “para inglês ver”, que usamos para dizer que alguém fez algo apenas para cumprir formalidades, sem realmente fazer esse algo de forma efetiva. O debate gerou um relatório de 900 páginas que traz todas as visões dos participantes – na parte dos anexos – mas parece não ter havido o devido cuidado com o princípio da neutralidade ao se negligenciar todos os lados impactados por uma regulação e ao se rascunhar a proposta, que acabou se revelando perigosamente engessada e enviesada.

A proposta já parte do pressuposto de que a IA fará mal a alguém, trazendo uma extensiva lista de direitos e prerrogativas das “pessoas afetadas”, mas esquecendo das pessoas desenvolvedoras, empreendedoras, estudiosas, pesquisadoras e beneficiadas pela tecnologia, que igualmente precisam de um ambiente seguro e propício para o exercício de suas atividades. Além de consumidores e cidadãos que podem ser positivamente afetados por uma IA responsável, ética e segura.

Para além do viés negativo ao considerar apenas os riscos da IA, a proposta traz um modelo restritivo inédito no mundo, com obrigações tecnicamente desafiadoras de se cumprir e responsabilidades fora do escopo de atuação dos agentes envolvidos. Pontos que podem ser facilmente explicados por uma equipe de engenheiros da computação e cientistas de dados.

É preciso também estar atento às consequências das sobreposições regulatórias. Temos o Código de Defesa do Consumidor, o Código Civil, o Código Penal, o Marco Civil da Internet, a Lei Geral de Proteção de Dados e, muito em breve, a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, que juntos versam regras e obrigações para o relacionamento com consumidor, responsabilidade e atuação das empresas.

Estamos diante de uma possibilidade positiva, talvez única, de construir juntos uma regulação moderna, flexível, adaptada aos novos tempos, que permita ao mesmo tempo proteger os direitos fundamentais e trazer segurança para os cidadãos, e criar um ambiente favorável para as empresas desenvolverem e investirem na tecnologia no Brasil. Mas é preciso envolver todos os atores na construção de uma nova proposta equilibrada.

O viés é inerente ao ser humano e por isso — voltando a Sócrates —, é fundamental estarmos conscientes das nossas limitações para superá-las por meio de diferentes perspectivas e opiniões. Curiosamente, já estamos desenvolvendo formas de mitigá-lo nas aplicações de sistemas de IA, para termos sistemas justos e imparciais.

Mas de nada adianta dar voz a todas as partes, se não for para realmente ouvi-las. O objetivo da proposta apresentada foi trazer segurança jurídica, por meio de governança e proteção dos direitos fundamentais, e ninguém é contra isso. É o “como” que precisa ser cuidadosamente planejado para que “o tiro não saia pela culatra”.

____
*Líder do Grupo de Trabalho Inteligência Artificial da ABES

Compartilhe