A ascensão da inteligência artificial (IA) trouxe ganhos expressivos em eficiência, mas também abriu um debate urgente: quais limites não podem ser delegados às máquinas? Para a estrategista de inovação, Marcia Cavalcante, Head de Open Innovation da Bertha Capital, a resposta é clara: “As máquinas não podem assumir a responsabilidade moral por suas decisões. Algoritmos processam dados, mas não compreendem dilemas humanos nem consequências sociais de longo prazo”, afirma.
Segundo ela, cabe ao ser humano definir o que é justo, aceitável e humano em cada decisão. “Um motor de crédito pode avaliar riscos com precisão, mas só um comitê humano pode flexibilizar regras diante de um microempreendedor vulnerável. Essa sensibilidade não é programável”, exemplifica.
Confiança cega em algoritmos
A especialista alerta para o risco de uma confiança cega na lógica algorítmica. “O equilíbrio exige o exercício constante do mais óbvio: a humanidade. A IA preserva eficiência, não valores sociais”, diz. Em contextos críticos, como a guerra, isso se torna ainda mais evidente: sistemas automatizados podem interceptar mísseis, mas a decisão de atacar um alvo civil jamais deveria ser tomada sem intervenção humana.
Para Marcia, a construção de mecanismos de governança é essencial. Ela aponta três pilares: accountability (responsabilização clara de quem responde pelas decisões apoiadas em IA), explainability (mecanismos que permitam entender como e por que uma decisão foi tomada) e auditoria contínua.
No Brasil, a especialista cita programas sociais como o Bolsa Família e o Cadastro Único, que já utilizam algoritmos para definir elegibilidade. “É preciso garantir transparência nos critérios, auditorias independentes e mecanismos de recurso para cidadãos. Sem isso, corre-se o risco de exclusões injustas”, alerta.
Outro exemplo está no Sistema Único de Saúde (SUS), onde modelos de IA têm sido usados para organizar filas de atendimento. “Nesses casos, a explicabilidade e a revisão humana são fundamentais para que a priorização de pacientes não amplie desigualdades”.

Escolhas éticas humanas
Marcia reforça que as escolhas éticas humanas moldam diretamente o impacto social da tecnologia. “São elas que definem se a IA será um acelerador de desigualdades ou um vetor de inclusão.” Ela cita como exemplo positivo empresas que validam algoritmos de recrutamento com equipes diversas, evitando que vieses sejam reproduzidos em escala.
Quando a ética fica em segundo plano, os riscos são múltiplos: perda de confiança social, crises legais, danos reputacionais e, principalmente, a ampliação das desigualdades. Para a especialista, as redes sociais são um caso emblemático. “Ao priorizarem o engajamento algorítmico acima da ética, abriram espaço para a disseminação de desinformação em escala global”.
Ao conclui, Marcia assegura que diante do avanço acelerado da IA, a sociedade precisa reafirmar um princípio simples, mas decisivo: “A tecnologia não substitui a humanidade. Apenas humanos podem decidir o que é justo. A estratégia é sensível, a inovação pode ter alma, o capital pode ser justo e o poder pode vir com afeto”.
XVIII CONPARH
Marcia abordou o assunto em palestra no XVIII CONPARH – Congresso Paranaense de Recursos Humanos, realizado em outubro, em Curitiba. A proposta desta edição do evento, tradicionalmente organizado pela Associação Brasileiras de Recursos Humanos do Paraná – ABRH-PR, foi celebrar o ser humano como o verdadeiro centro das organizações, da inovação e da liderança, destacando que a nossa capacidade de sentir, criar, se relacionar e transformar nos diferencia em um mundo digitalizado.

