Ouça este conteúdo
Nos últimos meses, pipocaram nas redes sociais diversos vídeos acompanhados da frase “Vendi meu olho”.
As postagens mostravam pessoas que procuraram os 53 pontos de “escaneamento de íris” espalhados por São Paulo desde novembro do ano passado. Em troca de criptomoedas, no valor equivalente a cerca de R$ 500, elas cederam seus dados biométricos para um projeto chamado World ID — cujo objetivo a maioria não soube explicar muito bem.
Por trás dessa operação, estava a start-up de tecnologia Tools for Humanity, de propriedade do empreendedor americano Sam Altman. Para quem não está ligando o nome à pessoa, Altman é o CEO da OpenAI, empresa responsável pela plataforma que revolucionou o acesso à inteligência artificial no planeta: o ChatPT.
De acordo com a big tech, a proposta do World ID é criar um sistema global de identificação para diferenciar humanos de robôs em um futuro dominado pela IA. Ou seja: emitir uma espécie de passaporte que servirá como uma “prova de humanidade”, caso repliquem nossa imagem, voz e movimentos em, por exemplo, um vídeo fake.
Preocupada com a transparência do processo, a Autoridade Nacional de Proteção de Dados (ANPD), vinculada ao Ministério Justiça, determinou no dia 25 de janeiro a suspensão do pagamento pela coleta de íris no Brasil.
Segundo o órgão, “a empresa pode interferir na livre manifestação de vontade dos indivíduos, por influenciar na decisão quanto à disposição de seus dados biométricos, especialmente em casos nos quais potencial vulnerabilidade e hipossuficiência tornem ainda maior o peso do pagamento oferecido”.
Trocando em miúdos, o governo vê o expediente como uma forma de exploração, em que indivíduos movidos pela necessidade financeira imediata acabam cedendo informações sensíveis sem o conhecimento total das consequências.
Na semana passada, o Procon de São Paulo também entrou em campo, reunindo-se com representantes do projeto para entender como a tecnologia foi explicada ao público e se há garantias adequadas sobre o uso e a segurança dos dados coletados. O órgão também destacou a ausência de um contrato de compra e venda durante a transação.
Diante da controvérsia, a Tools for Humanity anunciou a interrupção temporária de seus serviços no país. Questionada sobre o número de participantes registrados no World ID até a proibição da compensação financeira, a companhia divulgou um número surpreendente: quase meio milhão de brasileiros já “vendeu o olho” para o grupo de Sam Altman.
Especialistas falam em “capitalismo biométrico”
A biometria da íris é considerada única e imutável, o que a torna extremamente valiosa para empresas e governos. Ao mesmo tempo, o vazamento dessas informações pode ter consequências perigosas, como fraudes, crimes virtuais, invasão de privacidade, controle social por parte de regimes autoritários, perseguição política e até o uso em guerras cibernéticas.
Em termos econômicos, a prática de comercializar dados íntimos pode inaugurar o que os especialistas já nomearam de “capitalismo biométrico” — no qual o corpo humano se torna uma matéria-prima e a biologia é transformada em commodity.
No campo ético/filosófico, também se discute o impacto dessa prática na autonomia individual. Afinal, a perda de controle sobre a própria biometria pode limitar escolhas futuras.
Em um cenário de vazamento de dados, uma pessoa pode ser impedida de acessar serviços financeiros ou digitais, e até mesmo ser barrada em fronteiras por estar em uma lista de risco. É a chamada "predestinação algorítmica", na qual as decisões não são tomadas pelo sujeito, mas por um sistema que o enquadra em categorias.
Estes e outros perigos da “venda da íris” motivaram governos mundo afora a tomarem providências regulatórias com relação ao World ID. Portugal, Quênia, Hong Kong e Índia determinaram suspensões temporárias, e até mesmo permanentes, das operações do projeto.
Já Argentina e Coreia do Sul foram mais rigorosas, e multaram a companhia de Sam Altman em milhões de dólares por violação de leis de privacidade.

Para professor de Filosofia, falta uma legislação menos genérica sobre o tema
Estudioso de áreas como filosofia da inteligência artificial e ética dos algoritmos, o professor Kleber Candiotto, da Pontifícia Universidade Católica do Paraná (PUCPR), lembra que todos nós já entregamos dados para as big techs há muito tempo — comprando pela internet, fazendo uma busca no Google ou somente navegando pelas redes sociais.
“Quando acessamos esse tipo de serviço, de certa forma já temos uma certa ciência de quais dados vão ser utilizados, principalmente para direcionar conteúdo e publicidade”, diz Candiotto, docente do programa de mestrado e doutorado da PUCPR.
Mas, segundo ele, no caso da venda de informações biométricas, ainda não se conhece a extensão das informações capturadas pelas grandes corporações.
“A câmera utilizada nesse processo, chamada Orb, é extremamente avançada. Ela não capta somente a íris, e sim toda a expressão facial e os diversos movimentos da cabeça. São dados muito mais específicos do que os coletados na internet, porém ainda não se tem uma transparência exata sequer sobre a técnica utilizada no processo. Está tudo muito vago”, afirma.
Na opinião do professor, há uma questão ética importante, porém pouco discutida na imprensa, com relação ao projeto World ID: o foco na camada mais pobre da sociedade.
“Os R$ 500 oferecidos fazem uma diferença absurda para essas pessoas. Elas não estão ligando muito para o consentimento, assinam aquilo e pronto. O consentimento, nessa situação, não é tão esclarecido assim.”
Para Candiotto, é preciso criar leis menos genéricas para evitar o uso indevido, e por tempo indeterminado, de informações biométricas coletadas consensualmente. Do contrário, as big techs avançarão com ainda mais ímpeto sobre os dados de quem vendê-los.
“A engenheira Grace Hopper [1906-1992, pioneira da ciência da computação], costumava dizer: ‘É mais fácil pedir perdão do que permissão’. A tecnologia hoje é assim. Primeiro ela vai em frente, depois vê os estragos que fez. E a gente que dê um jeito”, diz.