Selo IA

Fonte: Inovativos
Por Victor Lima

No campo da regulação digital, os conceitos de opt-in e opt-out fazem parte das discussões sobre privacidade e inteligência artificial. O modelo opt-in muita gente conhece, mas você sabe como funciona o opt-out

No campo da regulação digital, os conceitos de opt-in e opt-out fazem parte das discussões sobre privacidade e inteligência artificial. No modelo opt-in, o titular precisa autorizar previamente o uso de seus dados ou informações. Já o opt-out parte da lógica oposta: o uso é presumido até que o titular manifeste sua recusa, pedindo para ser excluído de determinado tratamento ou base de dados.

No contexto da proteção de dados pessoais, a regra geral é o opt-in. A Lei Geral de Proteção de Dados Pessoais (LGPD) determina que o tratamento de informações pessoais depende do consentimento informado e inequívoco do titular, salvo hipóteses legais específicas. Este modelo reforça a autodeterminação informativa e garante que o cidadão mantenha o controle sobre como e para que seus dados são utilizados.

Em geral, empresas que desenvolvem sistemas de inteligência artificial também seguem o opt-in para tratar dados pessoais de usuários. Contudo, o avanço da IA generativa trouxe novos desafios. O treinamento desses modelos depende de grandes volumes de dados, incluindo textos, imagens, fonogramas e outras obras protegidas por direitos autorais. Diante da dificuldade de obter autorização individual para cada obra, surge o debate sobre a adoção de uma lógica opt-out para o uso de conteúdos protegidos.

Nesse modelo, as criações poderiam ser utilizadas para fins de treinamento de IA, salvo manifestação contrária dos autores. A proposta busca equilibrar o desenvolvimento tecnológico e a proteção autoral, mas enfrenta críticas: o opt-out pode fragilizar o controle dos criadores sobre suas obras, permitir exploração massiva sem remuneração adequada e dificultar a exclusão efetiva, dada a natureza automatizada dos conjuntos de dados utilizados.

Alternativamente, outra corrente defende que o uso de conteúdos protegidos por direitos autorais, quando disponíveis na internet ou em bancos de dados, para fins de treinamento de IA, poderia ser enquadrado como fair use. Nesse cenário, não seria necessária a autorização prévia dos autores ou titulares, nem o pagamento de remuneração ou a remoção dos materiais utilizados para treinamento e geração de respostas pelos sistemas de IA.

No Brasil, o tema é tratado no Projeto de Lei n. 2338/2023, que visa criar o marco legal da inteligência artificial. O texto aprovado no Senado e atualmente em análise na Câmara dos Deputados prevê que desenvolvedores de IA divulguem as bases de dados utilizadas no treinamento e permitam que titulares de obras se oponham ao uso de seus conteúdos, aproximando-se de um modelo opt-out. Também há previsão de mecanismos de transparência e eventual remuneração em casos de uso comercial. Especialistas alertam, contudo, para a dificuldade técnica de identificar contribuições individuais, já que modelos de IA não armazenam cópias diretas das obras, mas apenas padrões derivados delas.

O debate segue intenso entre juristas, pesquisadores e representantes do setor produtivo. O desafio é encontrar um equilíbrio que garanta inovação e segurança jurídica, promovendo o avanço tecnológico sem comprometer os direitos autorais e a proteção de dados dos cidadãos. Para quem desenvolve ou utiliza sistemas de IA, acompanhar a tramitação do projeto e as ações judiciais sobre o tema tornou-se essencial.

Compartilhe