Fonte: It forum
Por Rodolfo Fücher*
Quando decisões automatizadas moldam vidas, a verdadeira inovação está em garantir que a ética não fique fora da equação

Tem gente sendo barrada pelo computador. Gente invisível para uma planilha. Gente que não sabe que foi preterida porque o sistema disse não, sem dizer por quê.
Seja no acesso ao crédito, na fila do transplante ou na busca por um emprego, no carro autônomo, há uma inteligência invisível decidindo. Mais rápida. Mais eficiente. Supostamente mais justa. Mas será?
A tecnologia virou o novo oráculo. E ninguém contesta o algoritmo. A decisão já veio com carimbo de “objetiva”. Mas convém lembrar o alerta de John F. Kennedy, em 1962:
“A tecnologia não tem consciência. Pode ser usada para o bem ou para o mal. Depende do ser humano.”
O problema é que estamos terceirizando essa escolha.
Quem decide quando ninguém decide?
Norbert Wiener, pai da cibernética, já avisava: quanto mais automatizamos a decisão, mais abdicamos da responsabilidade. E Hannah Arendt, ao falar sobre a banalidade do mal, nos lembrou que o perigo mora na omissão: seguir ordens sem pensar nas consequências. Hoje, a ordem vem do código. E o mal é digital, limpo, silencioso.
Governança para aquilo que (ainda) não entendemos
Estamos acostumados a governar o que é visível: ativos, processos, riscos conhecidos. Mas a IA exige lidar com o invisível — dados enviesados, modelos que aprendem sozinhos, impactos secundários que só se revelam depois.
É hora de ampliar a atuação dos conselhos. Não basta saber que um algoritmo está operando. É preciso perguntar:
- Estamos entendendo o que os algoritmos estão aprendendo?
- Há supervisão humana qualificada com autonomia real para intervir?
- Estamos promovendo diversidade nos dados, nas equipes e nas perspectivas?
- Existe um canal para que usuários contestem decisões automatizadas?
- Quem repara quando o sistema discrimina?
A governança da IA não é mais uma atribuição da área de tecnologia. Ela pertence ao centro da estratégia. Conselhos e lideranças empresariais precisam assumir o protagonismo, garantindo que os valores da organização sejam refletidos, e não distorcidos, pelas decisões automatizadas.
O que aprendemos com “security by design” precisa evoluir para “ethic by design”: ética incorporada desde a concepção do sistema. Não como um selo ao final, mas como premissa estrutural. Como cultura.
O algoritmo é seu espelho — e também seu projeto
Quer saber o que sua empresa valoriza? Olhe para os algoritmos que ela usa. Eles revelam mais do que dashboards, revelam escolhas, prioridades, preconceitos.
A IA pode ser alavanca. Mas também pode ser armadilha. Vai depender de quem a guia.
Quando o algoritmo decide por nós, o mínimo que se espera é que alguém esteja cuidando da ética. Se não for você, quem será?
A boa notícia: é possível fazer diferente. E é exatamente nesse ponto que empresas e conselhos têm um papel intransferível. Governar algoritmos com propósito, transparência e responsabilidade é o novo teste de integridade corporativa. Não se trata apenas de inovação. Trata-se de reputação, confiança e licença para operar num mundo cada vez mais sensível à forma como decidimos, mesmo quando quem decide é uma máquina.
Porque no fim, o algoritmo é só uma ferramenta. O que ainda é humano, e insubstituível, é a coragem de perguntar o que é certo. E agir a partir disso.
____
*Vice-presidente do Conselho da Associação Brasileira das Empresas de Software (ABES).





