Fonte: Comunique-se
Apesar de todos os avanços da tecnologia, ainda enfrentamos desafios para garantir um ambiente digital mais diverso e seguro. Formas de violência virtual, como o cyberstalking (perseguição pelas redes sociais), o doxxing (divulgação de dados pessoais, como endereço) e, mais recentemente, a pornografia deepfake, demonstram a vulnerabilidade de meninas e de mulheres no ambiente digital e, também, a dificuldade da legislação em acompanhar o avanço da tecnologia, criando mecanismos protetivos.
No Dia Internacional pelos Direitos da Mulher, precisamos refletir não apenas sobre os direitos conquistados, mas também sobre desafios atuais e novas formas de opressão que surgem com o avanço das ferramentas digitais. Afinal, a criação de novas tecnologias, se feita sem o devido cuidado, pode significar a consolidação de novos modos de abuso e violência contra mulheres.
“A internet e a Inteligência Artificial, tornaram-se novas plataformas para a livre manifestação de vontade, que podem tanto ser usadas para o bem como para o mal, especialmente quando há excessos da liberdade, impunidade e falta de vigilância e fiscalização pelas autoridades. Infelizmente, estas ferramentas podem ter um impacto devastador quando usadas para disseminar comportamentos machistas e misóginos, por seu alcance global e seu efeito instantâneo ”, explica a Dra. Patricia Peck, advogada especialista em Direito Digital e CEO do Peck Advogados.
Pornografia deepfake: Uso abusivo da IA para agredir mulheres
A pornografia deepfake é um exemplo de um fenômeno que não é apenas on-line, mas diretamente ligado à violência de gênero que acomete as mulheres no mundo real diariamente.
Da mesma forma que o assédio no mundo físico causa traumas psicológicos, ansiedade, depressão e medo constante, o assédio digital e as deepfakes também podem gerar esses reflexos, além comprometer carreiras e reputações.
De acordo com a especialista, a baixa presença de mulheres e a falta de diversidade no mercado de tecnologia pode ser um dos fatores que perpetua a violência de gênero no ambiente digital. “Quando os tomadores de decisão em uma empresa de tecnologia são exclusivamente homens, quem vai elencar os riscos que uma ferramenta pode trazer para mulheres? Quem vai pensar sobre as possibilidades de violência que essa inovação pode gerar?”, ela reflete.
Formas de superar o cenário
A pesquisa “Diversidade de Gênero no setor TIC em 2023”, feita pela Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (Brasscom), indicou que as mulheres são apenas 39% das trabalhadoras no mercado de Tecnologia da Informação e Comunicação, enquanto os homens representam 61% dos profissionais.
“Apesar de a representação feminina no setor de tecnologia estar crescendo no Brasil, com aumento de 7,7% entre 2020 e 2023, segundo a Brasscom, ainda há um longo caminho até que a representação seja mais igualitária”, afirma a Dra. Patricia Peck.
Sistemas de inteligência artificial treinados por um time sem diversidade de gênero podem conter dados enviesados, perpetuar estereótipos e reforçar preconceitos existentes, incluindo a discriminação de gênero. Quando algoritmos são criados e validados sem diversidade nas equipes de desenvolvimento, os resultados tendem a refletir visões de mundo limitadas, excluindo as necessidades e perspectivas de grupos historicamente marginalizados, como as mulheres.
Para reverter esse cenário e trazer mais representação para a área de tecnologia — o que pode evitar o machismo estrutural que também está acaba refletido nas redes sociais, programas de inteligência artificial e outras iniciativas —, é necessário um esforço conjunto entre setor público e privado. “Incentivos em faculdades, empresas privadas e programas voltados para a profissionalização e contratação feminina ajudam a alcançar esse objetivo”, destaca Patricia Peck.
No âmbito corporativo, é essencial estabelecer uma governança robusta para plataformas e inovações tecnológicas, garantindo que a ética e a segurança sejam prioridades desde a concepção dos sistemas.
“Diferentes perspectivas ajudam a identificar potenciais ameaças e impactos negativos antes que se tornem problemas reais. Quando há pluralidade na tomada de decisão, as soluções criadas são mais equilibradas, criativas, inclusivas e menos suscetíveis a perpetuar desigualdades. Assim, boas práticas de governança fortalecem a proteção de empresas e usuários, bem como impulsionam a responsabilidade e a competitividade do setor”.
O que diz a lei?
A legislação brasileira já possui mecanismos para punir criminosos que usam inteligência artificial e outras ferramentas tecnológicas para agredir mulheres. A Lei do Stalking (14.132/2021), por exemplo, criminaliza o cyberstalking (as perseguições on-line), e a Lei Maria da Penha pode ser aplicada para defender vítimas de violência psicológica e moral no meio digital.
No entanto, o arcabouço legal ainda não é o ideal. “A legislação brasileira precisa avançar muito para acompanhar todas as novas possibilidades de crimes contra mulheres que a IA criou. É verdade que alguns projetos de lei já tramitam, como o PL 3.821/2024, que tipifica como crime a criação e divulgação de imagens íntimas falsas geradas por inteligência artificial, com aumento de pena em casos agravantes. Porém, é necessário que esse e outros projetos avancem com urgência e que sejam constantemente atualizados para acompanhar a evolução tecnológica e proteger, de forma efetiva, as mulheres”, conclui a especialista.