Fonte: Futurecom
Por Philipe Moura

Acordar princípios de como incorporar a IA nas nossas vidas é um passo importante para que avancemos produtivamente nesse debate. Leia mais!

Em março de 1942, o escritor Isaac Asimov – um dos três maiores nomes da ficção científica –,  publicou uma estória curta chamada “Runaround”, em que ele introduz o conceito das três leis da robótica.[i]

A tensão da narrativa ocorre porque um robô entra em parafuso[ii] por não ter elementos suficientes para decidir entre obedecer uma ordem (que, até então, não havia sido estabelecida como ‘vida ou morte’) e sua autopreservação. A resultante incapacidade de agir da máquina colocou a vida dos humanos em risco, e foi somente explorando esse ângulo que os protagonistas resolveram seu imbróglio. (Vou me limitar a essa rasa sinopse, mas ressalto que Asimov, no geral, e este conto, em particular, merecem ser lidos ou relidos pelos caros leitores, e meu breve comentário aqui não lhes faz jus).

O conto nos lembra que, mesmo partindo de princípios gerais, os dilemas éticos que vão envolver a IA não são de simples resolução.

Sobre o tema, o MIT deu início, em 2014, a uma pesquisa que batizaram de “máquina moral”:

A ideia era criar uma plataforma semelhante a um jogo que coletasse informações quanto às decisões dos participantes sobre quem carros autônomos deveriam priorizar em diferentes variações do “Dilema do Bonde”. Neste processo, os dados gerados forneceriam percepções sobre as prioridades éticas coletivas de diferentes culturas. [iii], [iv]

A pesquisa do MIT registrou mais de 40 milhões de respostas vindas de mais de 200 países, e traz à luz as possíveis diferenças nos valores e sua priorização entre países e regiões do mundo. Por exemplo, os resultados indicam que países com culturas mais individualistas são mais propensos a salvar os jovens (em detrimento dos idosos), e mostram também quais países prefeririam salvar pedestres ao invés de passageiros.

Independentemente do que cada sociedade pensa em termos de valores coletivos, a realidade dificilmente será tão evidente: haverá, em cada cenário, centenas de variáveis a serem calculadas, e cada indivíduo inserido nesse contexto mereceria sua própria análise de probabilidade. Mas, seja lá qual desfecho um caso que se aproxime disso na vida real vier a ter, haverá responsabilização – alegar que “a culpa é da IA” não será resposta razoável. E, nesses cenários, também não seria inconcebível que uma inteligência artificial venha a tomar uma decisão que seus programadores, usuários ou outros tomadores de decisão considerariam reprovável ou sub-ótima (neste caso, por exemplo, uma decisão objetivamente inferior a um reflexo humano).

Há outras considerações que complicam essa relação da IA com a noção de o que é certo e errado e com a tomada de decisão baseada nisso. Vale colocar o tema em perspectiva: ensinar moralidade para máquinas é tarefa intricada, visto que nós humanos já temos dificuldade de ensinar ética a outros humanos.[v] Há também o risco de elas aprenderem (ou se ensinarem) errado sobre moralidade – e ainda se deve considerar a discussão de possíveis vieses dos desenvolvedores ou dos bancos de dados e problemas usados no aprendizado. Se isso não fosse suficiente, existe ainda o risco de a IA, como instrumento, ser mal utilizada por humanos (neste caso, o problema não está na tecnologia, mas no uso que se faz dela). Um exemplo banal disso é a Tay, IA da Microsoft que foi criada para interagir com os humanos no Twitter, e que em menos de 24 horas aprendera com a internet a admirar Hitler e a propagar discursos nazistas.[vi] Já imaginaram as implicações que teria um Projeto Manhattan 2.0 com armamento nuclear autônomo para os cálculos do Relógio do Apocalipse?[vii]

Acordar princípios de como incorporar a IA nas nossas vidas é um passo importante para que avancemos produtivamente nesse debate – não é o primeiro passo, e muito menos deveria ser o último. Mas vale lembrar do caso exposto por Asimov: mesmo escolhendo apenas três princípios (as leis acima mencionadas), e considerando que deve haver a priorização da primeira lei sobre as duas seguintes (uma forma rudimentar de governança), isso não foi suficiente para que os personagens do conto evitassem o perigo de morte.

Esse tipo de discussão precisa acontecer hoje – na teoria –, e continuar acontecendo – inclusive na prática, com as IAs que já temos rodando no nosso dia-a-dia –, para que possamos seguir aprumando o rumo do nosso barco, e decidindo para onde queremos ir como sociedade. Se há uma lição a tirar da ficção científica é que o custo da inação pode ser bem alto.

***
No mês passado, eu escrevi para essa coluna sobre música e inteligência artificial. É um assunto difícil de esgotar, e meus leitores lembraram de mais um caso divertido e interessante: em 2019, o Google fez um doodle interativo em comemoração ao aniversário de Johann Sebastian Bach. Na brincadeira, era possível compor um cantus firmus em 8 ou 12 compassos, e a IA completava a composição adicionando contraponto e harmonia, e imitando o estilo de Bach – aprendido pela máquina a partir de mais de 300 composições do icônico músico analisadas.[viii]

Em maio deste ano, a banda britânica Duran Duran lançou um novo single cujo videoclipe foi integralmente criado por uma inteligência artificial.[ix]

[i]As leis da robótica de Asimov são assim postas:

1) um robô não pode ferir um humano ou permitir que um humano sofra algum mal;

2) os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei; e

3) um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores.

[ii]Caro leitor, aviso de antemão que não será o último trocadilho que farei nesta coluna, mas tentarei contê-los a um mínimo para que se mantenha a civilidade.

[iii]Leia sobre: https://mittechreview.com.br/o-carro-autonomo-deveria-atropelar-o-bebe-ou-a-velhinha-depende-de-onde-voce-se-encontra/ 

[iv]O dilema do bonde, para os que não o conhecem, é um experimento imaginário em que o participante se depara com um bonde em movimento e é obrigado a escolher entre inação (ignorar que o bonde, se mantido na trajetória original, matará cinco pessoas amarradasaos trilhos) ou ação pré-determinada (escolher apertar um botão que altera a direção do bonde, mas mata uma pessoa amarrada na outra pista).

[v]Um seriado recente (“The Good Place”) explora o tema com bom humor.

[vi]Leia sobre: https://www.tecmundo.com.br/inteligencia-artificial/102782-tay-twitter-conseguiu-corromper-ia-microsoft-24-horas.htm 

[vii]Leia sobre: https://www.bbc.com/portuguese/geral-40606193 

[viii]O Google explica mais sobre o projeto: https://www.youtube.com/watch?v=XBfYPp6KF2g 

[ix]Assista o clipe: https://www.youtube.com/watch?v=SMCd5zrsFpEe11

Compartilhe