Quem está usando seu rosto? A terrível verdade sobre reconhecimento facial

por Madhumita Murgia

link original aqui

Enquanto estava de férias em fevereiro, a ativista americana Jillian York, de 36 anos, recebeu uma mensagem inesperada. Seu amigo Adam Harvey, também ativista e pesquisador, encontrou fotos dela numa base de dados do governo americano usada para treinar algoritmos de reconhecimento facial, e a questionou se ela sabia disso.

Jillian, que trabalha em Berlim para a Electronic Frontier Foundation – uma organização não-governamental sobre direitos digitais – não sabia. Ela ficou estarrecida ao descobrir que essa base de dados continha quase uma dúzia de imagens dela, entre fotografias e frames de vídeos do YouTube, cobrindo um período de quase dez anos. Quando foi atrás de saber para que servia esse banco de dados, ficou claro para ela que seu rosto tinha ajudado a construir um sistema usado pelo governo federal americano para reconhecer feições de interesse – incluindo suspeitos de crimes, terroristas e invasores ilegais.

“O que me ocorreu na hora foi a amplitude de tempo que eles usam”, diz ela. “As primeiras imagens eram de 2008 e iam até 2015”. Duas das fotos, tiradas por um amigo fotógrafo, tinham sido obtidas do Google. “Elas foram tiradas em momentos privados. Eram definitivamente privados no sentido de que era eu me divertindo com amigos, não num palco”, acrescenta.
Mais uma meia dúzia de fotos vinha de vídeos do YouTube em que ela falava em eventos, sobre assuntos que incluíam liberdade de expressão, privacidade digital e segurança. “É perturbador para mim que alguém estivesse assistindo a vídeos de mim e salvando imagens com esse propósito”, diz.

Para ensinar uma máquina a reconhecer e interpretar melhor um rosto humano, ela precisa ser “treinada” usando centenas de milhares de rostos. Para alimentar esse sistema faminto, surgiu um abundante repositório de rostos, contendo imagens de fontes que iam de campi universitários a cafés e redes sociais. Jillian é uma das 3.500 pessoas nesse banco de dados, chamado de Iarpa Janus Benchmark-C (IJB-C). O Iarpa é um órgão do governo americano que financia pesquisa de inovação voltada a fornecer uma vantagem competitiva aos serviços de inteligência, e Janus – referência ao Deus romano de duas caras – é o seu projeto de reconhecimento facial.

O conjunto de dados, compilado por um subcontratante do governo chamado Noblis, tem um total de 21.294 imagens de rostos (e também outras partes do corpo), sendo em média seis imagens e três vídeos por pessoa, e está disponível para pesquisadores dessa área. Em suas próprias palavras, seus criadores escolheram “pessoas com diversas ocupações, evitando a armadilha de focar em celebridades da mídia, o que pode ser menos representativo da população global.”

O banco de dados também inclui três membros do conselho do EFF, um jornalista da Al-Jazeera, um escritor e futurista de tecnologia, e ao menos três ativistas políticos do Oriente Médio, incluindo um cientista que participou dos protestos da praça Tahir em 2011, todos confirmados pelo Financial Times. Nenhuma dessas pessoas estava ciente de sua inclusão nesse banco de dados. Suas imagens foram obtidas sem consentimento explícito, pois foram compartilhadas sob os termos de licença Creative Commons, um tratado de direitos autorais na internet que permite a cópia e uso de imagens para uso acadêmico e comercial por qualquer pessoa.

O principal uso das tecnologias de reconhecimento facial é em segurança e vigilância, tanto por empresas privadas, como de revendedores e casas de eventos, quanto por órgãos públicos como forças policiais à procura de criminosos. Governos tem continuamente ampliado o uso dessas tecnologias para identificar pessoas em segurança nacional e de fronteiras.

O maior entrave tecnológico a um reconhecimento preciso, até agora, é a incapacidade dos equipamentos em identificar rostos humanos quando estes estão apenas parcialmente visíveis, envoltos em sombras ou cobertos por vestuário, ao contrário dos retratos frontais em alta resolução que foram usados para treinar os computadores.

Para ensinar um computador a ler e reconhecer melhor um rosto nessas condições, ele deve ser treinado usando centenas de milhares de rostos de todas as formas, tamanhos, cores, idades e gêneros. Quanto mais naturais, variados e espontâneos são os rostos, melhor eles simulam cenários reais do cotidiano nos quais poderá haver vigilância, e mais precisos serão os modelos para o reconhecimento facial.

Para alimentar esse sistema faminto, uma abundância de repositórios de rostos – como o IJB-C – foi surgindo, com imagens selecionadas e agrupadas manualmente de fontes variadas como campi universitários, praças, mercados, cafés, registros de polícia e redes sociais como o Flickr, Instagram e YouTube.

Para entender o que esses rostos vem ajudando a construir, o FT trabalhou com Adam Harvey, o pesquisador que foi o primeiro a perceber as fotos de Jillian no IJB-C. Americano radicado em Berlim, passou anos acumulando mais de 300 bancos de dados de rostos e identificou aproximadamente 5.000 artigos em que são citados. Descobrimos que as imagens são usadas para treinar e fornecer referências a algoritmos voltados a diversos fins relacionados a dados biométricos, reconhecimento facial no controle de passaportes, vigilância de multidões, direção automatizada, robótica, até mesmo análise de emoções para fins publicitários. Esses dados foram citados em artigos de empresas comerciais incluindo o Facebook, Microsoft, Baidu, SenseTime e IBM, assim como por acadêmicos ao redor do mundo, do Japão aos Emirados Árabes Unidos e Israel.

“Temos visto os propósitos do reconhecimento facial mudarem”, diz Dave Maass, um pesquisador investigativo sênior no EFF, que ficou chocado ao descobrir que as feições de seus próprios colegas estavam no banco de dados da Iarpa. “Eram usados inicialmente para de identificação…Agora o rosto da pessoa está sendo usado como um código de rastreio para que seja vigiada enquanto ela se move por vários locais no vídeo, o que é uma grande mudança. Pesquisadores não precisam pagar às pessoas por seu consentimento, não precisam procurar por modelos, nenhuma firma tem de pagar para coletar esses dados, todo mundo consegue de graça.”

O pacote de arquivos contendo o rosto de Jillian é um entre vários compilados em nome da Iarpa (as primeiras séries sendo IJB-A e -B), que foram citados em trabalhos acadêmicos de 21 países diferentes, incluindo a China, Rússia, Israel, Turquia e Austrália. Foram usados por empresas como a de inteligência artificial chinesa SenseTime, que vende produtos de reconhecimento facial para a polícia local, e a empresa japonesa de inteligência artificial NEC, que fornece softwares para agências de aplicação das leis nos EUA, Reino Unido e Índia.
As imagens nesses pacotes chegaram a ser polidas pela Universidade Nacional de Tecnologia de Defesa da China, que é controlada pelo maior órgão militar da China, a Comissão Central Militar. Um de seus estudiosos participou, no ano passado, de um projeto que usou o IJB-A, entre outros pacotes, para desenvolver um sistema que, nas palavras de seus idealizadores, “permitiria um entendimento melhor de pessoas multidões”, com aplicações como “análise de comportamento de grupo” e “re-identificação da pessoa”.

Na China, um software de leitura facial teve papel importante na vigilância de massa e detenção de muçulmanos uighurs no extremo Oeste de Xinjiang. Câmeras fabricadas pela Hikvision, uma das maiores empresas de CFTV do mundo, e Leon, um antigo parceiro comercial do SenseTime, foram usadas para rastrear muçulmanos por toda a região, atuando no que defensores de direitos humanos descrevem como repressão sistemática de milhões de pessoas.

Essa semana, foi descoberto, que a SenseTime tinha vendido sua participação de 51% de ações em uma joint venture de segurança com a Leon em Xingjian após crescentes protestos internacionais na questão dos uighurs.

“Isso foi o mais chocante”, diz York, enquanto pondera as maneiras como múltiplas empresas e agências usaram esses dados. “Não é porque minha imagem está sendo usada, mas como”.

“As pessoas não esperavam que suas fotos numa festa pudessem rodar pelo mundo e nunca mais ser apagadas”, diz Adam Harvey, pesquisador de tecnologia e ativista pela privacidade radicado em Berlim.

Adam gosta de estar fora do mapa; prefere pagar em dinheiro, usa o navegador anônimo Tor e se comunica pelo aplicativo criptografado Signal, onde as mensagens desaparecem após algumas horas. Depois de estudar engenharia e fotojornalismo na Universidade do Estado da Pensilvânia, trabalhou como fotógrafo em eventos privados em Nova York.

“Na época, cada vez mais pessoas estavam colocando fotos online, porque câmeras digitais eram relativamente novas. O que me incomodava é que você não conseguia remover essas fotos uma vez que estivessem lá”, ele diz. “As pessoas não esperavam que suas fotos numa festa pudessem rodar pelo mundo nunca mais ser apagadas. Você perde controle sobre os seus dados, você perde controle sobre sua própria narrativa.”

Sua fascinação por tecnologia de vigilância resultou no CV Dazzle, seu primeiro projeto em biometria, em 2011, em que ele desenvolveu uma série de maquiagens e estilos de cabelo para permitir a pessoas comuns se esconderem de sistemas automáticos de reconhecimento facial. Seu último projeto, MegaPixels, para o qual recebeu financiamento da Mozilla Foundation, também visa dar poder aos cidadãos para que compreendam esse novo mundo que habitam.: foi lançado essa semana como uma base de dados buscável de qualquer artigo citando cada base de dados que ele foi capaz de escavar.

Ao longo dos próximos meses, ele pretende desenvolver uma ferramenta de busca que permita às pessoas descobrirem pelo nome se seus traços faciais foram usados para treinar um sistema de inteligência artificial em qualquer parte do mundo. “Quando todos falam em reconhecimento facial e vigilância, estão normalmente falando sobre a implementação. Mas se você recuar alguns passos, nada disso existiria sem os rostos, e esse projeto olha para a origem desses dados”, explica.

Um dos primeiros bancos de dados de grande escala foi criado pelo departamento de defesa americano nos anos 1990, pagando ao pessoal das forças armadas para posar para fotografias em estúdio. Em 2007, pesquisadores começaram a se dar conta de que as fotos de estúdio eram muito artificiais para usar como treinamento, e que sistemas de reconhecimento que se baseassem nessas fotos estavam fadados ao fracasso no mundo real. O que eles precisavam era de mais imagens “selvagens” – naturais, borradas e sem pose.

O mercado de reconhecimento facial vem crescendo 20% por ano nos últimos três anos, e seu valor está estimado em 9 bilhões de dólares até 2022. A velocidade e precisão desse software avançou graças a grandes saltos em aprendizagem de máquina.

Naquele ano, um novo pacote foi lançado pela Universidade de Massachussets, Amherst, chamado Labeled Faces In The Wild (LFW – Rostos Catalogados na Natureza, em tradução livre), um pacote de imagens recolhidos de notícias na internet, com cada rosto etiquetado. Essas imagens “naturais” mostravam indivíduos em diferentes posições e expressões faciais, em condições de iluminação variadas, e pesquisadores perceberam que tinham em mãos uma mina de ouro: a internet. Ali estava uma fonte de dados faciais que era variado, irrestrito e fácil de acesar. O LFW passou a ser a referência de bancos de dados faciais mais usada no mundo.

Depois do 11 de setembro, quando agências de defesa e inteligência foram incentivadas a investir mais em reconhecimento facial, milhões de dólares foram injetados em laboratórios com o objetivo explícito de coletar mais fotos naturais, para obter perfis biométricos mais robustos. Hoje, se você precisar de um pacote para treinar um sistema, a maneira mais comum é usar ferramentas de busca como o Google ou Bing, ou redes sociais como Flickr e YouTube, onde arquivos multimídia normalmente são exportados sob uma licença Creative Commons, e pegar o que precisar.

O mercado de reconhecimento facial vem crescendo 20% por ano nos últimos três anos, e seu valor será de 9 bilhões de dólares até 2022, de acordo com estimativas do Market Research Future. A velocidade e precisão do software avançou graças a saltos recentes em aprendizagem de máquina, a tecnologia pela qual computadores podem aprender a reconhecer objetos específicos – como rostos – treinando com grandes conjuntos de dados como o IJB-C.

“Em 2019, há dúzias de bancos de dados criados desse jeito que foram compartilhados pelo mundo, alguns deles financiados por departamentos de defesa, outros financiados diretamente por empresas de reconhecimento facial comercial, e algumas delas trabalhando com regimes controversos e ciber-autoritários como a China”, diz Adam. “Mas ninguém parou para pensar se era ético coletar fotos de casamento das pessoas e de álbuns de família com crianças, ou se as pessoas que subiram as fotos sequer sabiam o que estavam fazendo quando aceitaram aquela licença.”

Hoje, enquanto órgãos da lei e forças de repressão de governos estão interessados em ultrapassar os limites do reconhecimento facial para reduzir os custos e o tempo necessários para identificar suspeitos, o consenso é de que mesmo na internet os rostos não são tão “selvagens” porque as pessoas tendem a exibir fotos editadas. O apetite por dados faciais mais variados levou a um buraco cada vez mais fundo para capturar imagens tão naturais das pessoas quanto possível, muitas vezes sem o seu conhecimento.

Vamos pegar como exemplo o pacote UnConstrained College Students. Mais ou menos 1.700 alunos da Universidade do Colorado, em Colorado Springs, foram fotografadas em 20 dias diferentes, entre fevereiro de 2012 e setembro de 2013, usando uma “câmera de vigilância de alta resolução e longo alcance sem que eles soubessem”, de acordo com o criador do pacote, professor Terry Boult, cientista da computação na Universidade.

“Mesmo as fotos do LFW não são tão naturais porque as pessoas sabem que estão sendo fotografadas e expostas na internet. Mas neste caso, são alunos andando nas calçadas do campus, que não tem noção de que são parte de um banco de dados”, Boult me conta. “Quando você está vendo os alunos andando por ali, uma quantidade terrível deles está olhando para baixo para o celular. No Colorado, quando está frio e nevando, eles se enrolam naturalmente com chapéus e cachecóis. Nosso objetivo é fazer o sistema de reconhecimento facial mais irrestrito e realista do mundo.

O laboratório de Boult foi financiado pela marinha americana, assim como a Iarpa, que enviou sua pesquisa sobre reconhecimento facial ao Departamento de Segurança Nacional e outros órgãos do governo. Como estava filmando os estudantes em locais públicos (ainda que dentro da Universidade), ele diz que não necessitava de sua permissão contanto que não soubesse suas identidades, de acordo com a legislação do Estado do Colorado.

“Não deixamos nada publicamente disponível para download. Eles precisam entrar em contato por um site – e verificamos se são pesquisadores”, diz Boult. “Não é para uso comercial, mas se pesquisadores corporativos estão tentando melhorar o reconhecimento facial para os produtos de suas empresas, estamos de acordo que façam isso desde que publiquem [suas pesquisas].”

Essa relação aparentemente porosa entre o uso “acadêmico” de informações obtidas sem consentimento e a exploração comercial dos mesmos dados evidencia as complexas questões éticas em torno dos pacotes de dados faciais. O artigo para o qual que Boult utilizou esses dados foi citado em seis universidades no Chile, Itália e nos EUA e foi baixado por ao menos quatro empresas privadas situadas na Europa, China e EUA, nenhuma das quais parece ter publicado seus trabalhos.

Outro conjunto de dados de campus, a Duke-MTMC, foi coletado na Universidade Duke na Carolina do Norte. Parcialmente financiada pela Agência de Pesquisa do Exército dos Estados Unidos, acabou se tornando um dos kits de treinamento com pedestres mais populares, e foi citado por 96 instituições ao redor do mundo.

Pesquisadores usaram oito câmeras para filmar estudantes andando pelo campus, e os notificaram através de pôsteres espalhados pelo perímetro da área vigiada. Ergys Ristani, um dos autores, disse que o trabalho havia sido aprovado por um conselho institucional e, apesar dos cartazes, nenhum aluno pediu para ser excluído. Pelas filmagens, não está claro se os estudantes viram os cartazes ou estavam cientes de estar sendo filmados.

Em um terceiro caso, filmagens de clientes em um café chamado Brainwash [Lavagem Cerebral, em tradução livre], no distrito do Baixo Haight em São Francisco, obtidas por uma câmera de transmissão ao vivo, foram transformadas em um conjunto de dados de pedestrtes – o Brainwash – que foi citado por empresas incluindo a Huawei e a Qualcomm.

“Quando você está num espaço urbano você tem uma expectativa razoável de anonimato, o que é reconhecido na jurisprudência americana; é algo que é tão enraizado no senso comum que isso interfere na nossa capacidade de entender que nossas empresas de tecnologia estão afetando nossa privacidade, mesmo em espaços nominalmente privados”, aponta Adam Greenfield, escritor de tecnologia e urbanista. Greenfield recentemente se descobriu parte de um banco de dados de um milhão de rostos, chamado MSCeleb, criado pela Microsoft.

Pesquisadores apontam que tecnologias de análise facial não são apenas para vigilância – poderiam ser usadas para monitoramento de saúde, por exemplo, escaneando rostos para verificar se um indivídup está desenvolvendo demência ou diabetes tipo 2, ou para verificar sonolência ou embriaguez em motoristas.

Se os conjuntos de dados não fossem compartilháveis, corporações como o Google e Facebook, que possuem bilhões de fotos e vídeos de usuários enviados para os sites todos os dias, seriam as únicas organizações com acesso a um mar de dados de rostos em alta qualidade e portanto teriam os melhores algoritmos de reconhecimento facial, de acordo com alguns pesquisadores.

“Não estou preocupado com o governo, estou preocupado com o Google e o Facebook”, diz o professor Karl Ricanek, da Universidade Wilmington da Carolina do Norte, que montou dois conjuntos de dados faciais de acesso público. “Na minha opinião, eles tem mais informação sobre os cidadãos que o próprio governo, e não conseguimos influenciar a direção dessas empresas. Acho que o nosso governo pelo menos tem uma boa missão. De uma perspectiva acadêmica, estamos tentando resolver problemas que achamos que vão melhorar a vida das pessoas no mundo. A maioria de nós não está tentando fazer dinheiro.”

Apesar de empresas comerciais normalmente terem suas próprias fontes de dados, elas também vem progressivamente buscando na internet conjuntos de dados maiores e mais naturais usados como referência e treinamento de algoritmos. Por exemplo, o Facebook criou um pacote de dados chamado Pessoas nos Álbuns de Fotos, consistindo em mais de 37.000 fotos de 2.000 indivíduos, incluindo crianças, de fotos em álbuns pessoais do Flickr. “Enquanto houve recentemente muito progresso no reconhecimento facial frontal, vistas não-frontais são muito mais comuns em álbuns de fotos do que as pessoas imaginam”, descreveram pesquisadores do Facebook em seu artigo.

Seu conjunto de dados escolhe especificamente fotos com “grandes variações de posição, vestuário, resolução de imagem e iluminação”, e o artigo descreve um novo algoritmo que consegue reconhecer rostos com precisão mesmo quando parcialmente ocultos.

“Esperamos que esse conjunto de dados conduza a comunidade ao problema muito relevante e ainda não resolvido do reconhecimento de pessoas em ambiente aberto”, concluem os pesquisadores do Facebook. Esse conjunto no momento já foi reutilizado pelo mundo todo, incluindo pela Universidade Nacional de Tecnologia de Defesa da China para aprimorar a tecnologia de vigilância em vídeo.

“Para deixar claro, não estamos colaborando com o governo chinês no reconhecimento facial e nunca o fizemos”, diz uma fonte do Facebook. “Porém, sempre haverá um questionamento sobre se avanços nessa tecnologia deveriam ser amplamente compartilhados ou guardados a sete chaves. O Facebook e outras empresas líderes do setor acreditam que a comunidade científica pode compartilhar seus aprendizados para avançar na tecnologia, enquanto também trabalham para evitar abusos.”

Maass, o pesquisador da EFF, pontua: “Não é uma questão de legalidade mas de moral e ética. Não tenho certeza onde um projeto de pesquisa como esse iria parar, mas me pergunto se criar um kit para treinar equipamentos de segurança não é o mesmo que promover vigilância você mesmo.”
Nos casos em que as imagens foram escavadas da internet, os pesquisadores – mesmo de gigantes como Microsoft, IBM e Facebook – contaram com que as licenças Creative Commons servissem para substituir o consentimento do usuário. Mas a utilização dessas fotos como dados de treinamento para monitoramento e análise facial está tão distante do que a licença foi inicialmente criada para proteger que o próprio Creative Commons, uma organização sem fins lucrativos, recentemente divulgou uma nota para esclarecer a mudança.

“As licenças CC foram pensadas visando uma restrição específica, o que fazem muito bem: desbloqueando direitos autorais restritivos. Mas direitos autorais não são uma boa ferramenta para proteger privacidade individual, visando ética de pesquisa em inteligência artificial, ou para regular o uso de ferramentas de monitoramento empregadas online”, escreveu o chefe executivo Ryan Merkley em março. “Esses assuntos pertencem por direito à esfera das políticas públicas […] esperamos discutir com aqueles que estão usando nosso conteúdo de maneira objetiva, e falar a respeito das […] questões importantes sobre privacidade, vigilância e inteligência artificial que afetam o compartilhamento de trabalhos na web.”

Em última instância, especialistas acreditam que é tarde demais para colocar essas informações de volta no armário, ou para restringir sua movimentação através de fronteiras. “Precisamos confiar na instituição que reúne ou obtém essas informações, e talvez tenhamos consentido com uma imagem inicial, mas a custódia sobre esses dados acaba vazando”.


Deixe uma resposta

Notice: Comments reflect the opionions of those who did wrote theme. Allowing people comment here, doenst mean, that we also agree with them.

Your email address won't be displayed. Required fields are marked with this sign: *

More information

Arquivo de posts