Notícias

Como a internet sabe sua raça?

Por Alethea Lange e Rena Coen para Center for Democracy and Technology

“A mensagem certa, ao usuário certo, no momento certo” é a regra de ouro para os anunciantes. Setores inteiros, incluindo os impérios da internet, são construídos sobre os alicerces compostos por dólares de publicidade e a publicidade segmentada permite às empresas conectar pessoas com conteúdos de forma muito granular. Muitos dos anúncios que você vê on-line são adaptados com base nas informações que você compartilha, consciente ou inconscientemente. Seus dados pessoais alimentam uma indústria multi-bilionária de profiling e publicidade segmentada que inclui não só a informação que você compartilhou diretamente, mas também características coletadas pela análise de dados e comportamentos agregados.


Sua raça está entre muitas características que podem ser inferidas e usadas para entregar a você conteúdo personalizado. Em um relatório de 2014, a Comissão Federal de Comércio norte-americana [Federal Trade Comission ou FTC, na sigla em inglês] descreveu uma série de classificações usadas pelos corretores de dados que incluíam “categorias potencialmente sensíveis (…) como ‘caos urbano’ e ‘miscigenado’, as quais incluem uma alta concentração de latino-americanos e afro-americanos com baixa renda.” Esta prática deixa as pessoas desconfortáveis, apesar de seu uso generalizado e persistente em publicidade, tanto on-line, como off-line. Uma pesquisa recente do Center for Democracy and Technology e uma equipe da Universidade da Califórnia em Berkeley mostra que esta prática continua a levantar preocupações no público. Pediu-se que 748 pessoas dissessem como se sentiam em relação à personalização on-line com base em uma variedade de características e a personalização com base em raça alcançou os resultados mais consistentemente negativos.


O Facebook é um grande ator na publicidade on-line, obtendo bilhões em receita publicitária e abrigando mais de um bilhão de usuários. Para ajudar os anunciantes a direcionar conteúdo para usuários, ele usa uma categoria chamada “afinidade étnica.” Embora a empresa afirme que a utilização desta categoria não é segmentação baseada em raça, ela tem enfrentado reação semelhante pelo público. No segundo trimestre deste ano, o Facebook enfrentou um problema de grandes proporções com o desconforto descrito acima depois que anunciou uma parceria com a Universal Pictures para mostrar versões do trailer do filme Straight Outta Compton – A História do N.W.A. de acordo com afinidades étnicas. Na esteira do anúncio, jornalistas, defensores dos direitos civis e acadêmicos levantaram preocupações sobre os riscos de segregação de nossa experiência on-line com base em interesses relativos a etnias.


A opção do Facebook de segmentar usuários com base em “afinidades étnicas” pode ter grande impacto na forma como indivíduos percebem o mundo. As opções nesta categoria são: não-multicultural, afro-americanos, asiático-americanos e latino-americanos (Ars Technica ressaltou que não-multicultural “significa presumivelmente usuários brancos.”) Mais uma vez, o Facebook teve o cuidado de afirmar que sua categoria de afinidade étnica não é o mesmo que raça. Por exemplo, se você “curtiu” a página da BET [Black Entertainment Television, emissora norte-americana a cabo voltada ao público afro-americano] no Facebook, é possível que o algoritmo segmente você como parte da audiência multicultural “afro-americana”, não importa como você se descreveria. Embora esta seja uma melhoria em relação à segmentação racial flagrante conduzida por corretores de dados, esta distinção sutil pode não ser intuitiva para os usuários.


Apesar de alguma controvérsia, é razoável assumir que a personalização continuará a influenciar nossas experiências digitais e que, pelo menos, alguns conteúdos serão adaptados a nós com base em nossas experiências. Além de um debate político de maior porte, o caso Straight Outta Compton levanta questões sobre como empresas usam nossos dados pessoais. A maioria das empresas não pergunta aos usuários sua etnia ou raça – logo, como estão categorizando as pessoas? E como as pessoas se sentem em relação a esta prática?

Reconhecimento facial


Seu primeiro instinto pode dizer que empresas usam software de reconhecimento facial para categorizar indivíduos em grupos de afinidade étnica. Alerta de spoiler: não é provável.


A tecnologia de reconhecimento facial compara atributos de um rosto, como forma e distância entre órgãos, com grandes bancos de dados de fotos que foram previamente identificadas de alguma forma. Por exemplo, as fotos de comparação podem ser marcadas com um traço, como raça (tanto pela auto-identificação, como pela categorização das imagens por terceiros). Em seguida, programadores instruem algoritmos a identificar traços comuns entre as fotos “precisamente” identificadas (este conjunto de dados é chamado de “dados de treinamento”), aplicar estas métricas a uma população não-categorizada e desenvolver um palpite quanto à raça nas fotos não-identificadas. Esta tecnologia tem muitas aplicações e há algumas evidências de que inferir raça a partir de dados de mídia social está entre elas. Pesquisadores da Universidade de Rochester recentemente analisaram fotos de perfil raspadas do Twitter para classificar e descrever os dados demográficos de seguidores de candidatos políticos.


Embora seja tecnicamente possível usar reconhecimento facial para inferir raça, não vemos uma grande quantidade de evidências de uso comercial desta aplicação da tecnologia. Além disto, não há evidência de que o reconhecimento facial seja usado para determinar as afinidades étnicas no Facebook. (Vale a pena notar que características faciais seriam úteis para descrever o fenótipo de alguém, que pode ou não se alinhar com sua raça ou afinidade étnica. O Facebook está especificamente concentrado nesta última variável.)


Substitutos


Existem características que são tão fortemente correlacionadas com raça que saber delas torna possível inferir a raça de alguém com precisão razoavelmente alta – código postal, língua e sobrenome podem ser usados como substitutos diretos para raça. As instituições podem comparar traços discretos dos indivíduos a um conjunto de dados agregados (como dados do censo) e inferir sua raça de forma confiável (ainda que com alguma possibilidade de erro).


Esta técnica pode ser usada para proteger consumidores, bem como para construir perfis mercadológicos. A Agência de Proteção Financeira do Consumidor norte-americana publicou sua metodologia para inferir raça e etnia a partir de uma combinação de informações de localização e sobrenome. O propósito de identificar raça neste contexto é “conduzir a análise de crédito justo a fim de identificar potenciais práticas discriminatórias na concessão e nos juros de empréstimos.” (Na maioria dos casos, credores nos EUA estão proibidos de considerar raça em um pedido de empréstimo e muitas vezes não coletam dados do tipo para evitar questionamentos.)

Aprendizado de máquina

O método acima se baseia em inferir uma característica diretamente a partir de uma outra informação relacionada ou de uma combinação simples. No entanto, raça pode ser e às vezes é inferida pela combinação de grandes quantidades de informação e análise de correlações encontradas nos dados.


Assim como acontece com programas de reconhecimento facial, outros modelos de aprendizado de máquina começam com dados de treinamento. Uma empresa pode usar dados de treinamento que incluem raça auto-descrita dos indivíduos para inferir esta informação. Alternativamente, indicadores de raça podem ter sido descritos em uma rubrica para relações entre atributos. (Estas rubricas apresentam uma oportunidade para que estereótipos se infiltrem no processo, particularmente quando se tenta inferir raça.) Finalmente, algoritmos sofisticados podem inferir a raça de um indivíduo, comparando seu comportamento on-line (que pode incluir expressões sobre seus hábitos, preferências e interesses) aos de outras pessoas em um grupo racial ou étnico, conhecido ou presumido.


Esta última técnica pode ser inteiramente basead
a em uma correlação estatística com nenhuma lógica intencional tendo em vista a conexão que se pretende estabelecer. Algoritmos podem digerir e analisar diversas combinações de dados para estabelecer correlações e as conexões que fazem podem não ter uma relação óbvia com os dados subjacentes. Considere um exemplo hipotético: um conjunto de dados grande o bastante pode demonstrar uma correlação entre rapidez com que se desloca por uma página e sexo. Este tipo de descoberta provavelmente não seria intuitiva para um usuário médio, que pode não perceber que o marketing seria então baseado em informações que não compartilhou (seu sexo), deduzidas por tecnologias que pode não compreender.


Como as pessoas se sentem?


Preocupações
com discriminação baseada em dados não se limitam a exemplos de grande porte, como o caso Straight Outta Compton. Há evidências de que as pessoas têm uma reação forte, visceral contra a personalização racialmente determinada em outros contextos também. No estudo que o Center for Democracy and Technology conduziu com a equipe de Berkeley, pedimos a indivíduos que avaliassem se era justo personalizar anúncios, resultados de pesquisa ou preços com base em raça. Como é possível ver neste gráfico, as pessoas tinham opiniões variáveis sobre personalização de acordo com cada contexto (houve menor variação baseada na origem das informações – se foram dadas pelos usuários, inferidas com precisão ou inferidas sem precisão). A pesquisa sugere que as pessoas se sentem em grande parte desconfortáveis com a personalização baseada em raça e substitutos, independentemente da origem e da precisão. Mesmo que um usuário tenha divulgado diretamente sua raça, a personalização com base nesta característica permanece impopular.

Em que ponto estamos?

Uma coisa está clara: as pessoas não ficam felizes quando descobrem que anúncios são direcionados a elas com base em raça. Vários participantes do estudo tiveram reações extremas à ideia de segmentação baseada em raça – um respondente observou que a divulgação de notícias baseada em raça “soa como algo que a Ku Klux Klan faria.” Em face de opiniões fortes como esta, é improvável que a sutil distinção entre afinidade étnica e raça se sustente diante da avaliação da opinião pública.


Pode ser particularmente difícil destacar a distinção quando indivíduos não entendem o processo usado na categorização ou as nuances das próprias categorias. Ao passo que conjuntos de dados crescem e algoritmos mais complexos consideram um número maior de características, a relação entre a informação que compartilhamos e os traços inferidos a partir delas torna-se nebulosa, quase totalmente obscura. Consequentemente, inferências baseadas nestes modelos podem compreensivelmente surpreender e preocupar as pessoas.


Dito isto, a tecnologia em si não é culpad
a pelas reações das pessoas. Existem usos que promovem os direitos civis (como o exemplo da Agência de Proteção Financeira do Consumidor usado acima) ou conveniências de forma inclusiva. Por exemplo, uma empresa que fabrica um produto para determinado tipo de cabelo ou pele pode querer saber quem são seus clientes em potencial. É possível que, em alguns casos, as pessoas respondam mais positivamente se entenderem as questões técnicas por trás da inferência de afinidade étnica como explicadas neste artigo, mas de qualquer forma, é evidente que as empresas terão que superar uma reação instintivamente negativa a esta prática.

Artigo AnteriorPróximo Artigo

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

dois × quatro =