Dados tendenciosos: a possibilidade de perder a privacidade, o contato social e a democracia

Dados tendenciosos: a possibilidade de perder a privacidade, o contato social e a democracia

A importância do conhecimento na navegação das redes sociais

 

Autor: Heitor Augusto Colli Trebien

Tempo estimado de leitura: 16 min.

 

Fonte: https://storyset.com/illustration/data-extraction/rafiki

 

O avanço tecnológico impactou as pessoas de modo geral devido as suas multiplicidades de uso no dia a dia. A internet e as redes sociais trouxeram uma comunicação imediata em nível global e a programação permitiu automatizar atividades humanas complexas. A informação e os dados pessoais se tornaram o bem mais valioso da atualidade, um ser humano só é considerado alguém a partir de seus dados. Somos identificados através deles.

Os códigos de programação algorítmicos organizam esses dados, sejam imagens, números, textos ou outras informações, e esse algoritmo encontra padrões nas nossas atitudes e busca uma resposta a partir desse cálculo, que não é exato e nem neutro. 

O documentário Coded Bias (2020), disponível atualmente na Netflix, discute como esses dados são enviesados no seu processo de criação: a sociedade em si carrega, historicamente, diversos problemas, que podem ser automatizados e recriados no processo de difusão da informação e na tomada de decisões corporativas.

Joy Buolamwini é uma das pesquisadoras que participa do referido documentário. Ela realizou suas pesquisas com códigos e algoritmos enviesados a partir de um projeto acadêmico chamado Aspire Mirror (espelho da inspiração, em tradução livre), um projeto que ela criou para projetar rostos digitais sobre o seu reflexo, como leões, efeitos especiais ou pessoas que a inspiram para durante as manhãs se sentir bem. 

A pesquisadora observou, durante seus experimentos, que as webcams e os softwares de reconhecimento facial não identificavam o seu rosto. Somente quando colocava uma máscara branca o aparelho identificava sua face. Ela já vivenciou essa experiência mais de uma vez, na graduação e mesmo em eventos científicos.

Em pessoas brancas, principalmente homens, os softwares funcionavam normalmente, até chegar a vez dela. Como as máquinas e os aparelhos foram criados, testados e desenvolvidos por uma maioria heterossexual e branca, rostos como o dela não eram facilmente identificados. 

Para compreender o processo de aprendizagem de máquina (machine learning) devemos considerar que o aprendizado artificial acontece a partir de padrões expostos ao algoritmo. Como os rostos usados eram de homens brancos, outras faces étnicas não eram identificadas de imediato, o que gera códigos enviesados e a consequente automação e propagação de estereótipos, preconceitos e estigmas que já deveriam ter sido superados.

Para resolver esse problema, durante o treinamento dos robôs deve-se treiná-los com uma diversidade de rostos para refletir uma ação mais inclusiva que compreenda a variedade humana. 

O problema se tornou ainda maior quando descobriram que os departamentos de polícia dos Estados Unidos e da Inglaterra usavam esse mecanismo de reconhecimento facial nas câmeras das ruas, sem a autorização da população ou do governo, com o intuito de vigiar as pessoas e fazer um experimento social. Queriam observar se o aparelho poderia captar os rostos de foragidos e criminosos, com o objetivo de identificar quais rostos teriam maiores inclinações a realizar crimes. 

Muitas pessoas foram taxadas pelo maquinário como criminosas sem nunca terem cometido um crime. Caso um passante decidisse cobrir o rosto, por causa do frio, era multado pela polícia, o que indica abuso de poder por parte dos policiais. As pessoas negras eram taxadas com maior disposição a reincidência criminosa quando comparado às pessoas brancas, independente do que realmente aconteceu e do crime realizado.

Considerando as possibilidade de enviesamento dos dados, Joy Buolamwini criou a Liga da Justiça Algorítmica (The Algorithmic Justice League) com o intuito de solucionar esses problemas de exclusão. Devemos refletir sobre quem fez os códigos, como foram feitos e porquê foram criados. Caso queiram saber mais, além do documentário Coded Bias, acessem o vídeo How I’m fighting bias in algorithms (2017), disponível no canal TED.

 

Fonte: https://pixabay.com/pt/vectors/programador-computador-mulher-apoio-3607627/

 

Outra pesquisadora de dados – Cathy O’Neil – também participou do documentário Coded Bias e apresentou uma fala sobre sua pesquisa no canal TED The era of blind faith in big data must end (A era da fé cega no big data deve acabar). Na sua obra Weapons of Math Destruction (Algoritmos de destruição em massa), Cathy discute como a presença dos algoritmos afeta diversos aspectos da nossa vida. 

Algoritmos têm sido usados para contratar e demitir professores, assim como outros profissionais de modo geral. Muitos candidatos a um novo emprego nem são chamados para a etapa da entrevista, devido a seleção do maquinário algorítmico. Também são usados para saber de quem uma loja virtual pode cobrar mais ou menos pelo mesmo produto.

O banco usa essa ferramenta para decidir empréstimos e disponibilidade de crédito. O preço do seguro pode ser maior ou menor. Estamos sendo classificados mercadologicamente sem saber exatamente quais parâmetros estão sendo usados e nem exatamente como a máquina funciona e como categoriza nossos dados. 

Depois que colocamos as informações nos softwares, não sabemos com precisão como ela irá calcular e obter determinado resultado. Ou seja, estamos sendo rotulados sem oportunidade de entrar com recursos contra muitos abusos automatizados por vieses dos quais não nos damos conta. Durante o documentário, Cathy comenta que a Amazon, por muito tempo, deixou de contratar mulheres pois o software privilegiava os currículos masculinos para contratação. 

Os algoritmos em si não são machistas, sexistas, entre outros adjetivos que promovam exclusão, no entanto, a história da humanidade envolve todos esses problemas que ainda não foram resolvidos. As pessoas mais pobres sofrem a consequência de pagar mais pelos produtos, graças ao cálculo algorítmico de quem possui poder sobre o código. A cientista, considerando todas essas questões, defende que o uso de dados deve ser sempre regulamentado e responsável, para evitar abusos em sua prática de uso. 

Não existem algoritmos 100% corretos. O que ocorre é a busca de uma probabilidade, que pode ser bem sucedida ou não. Que pode promover segregação ou não. Algoritmos, como a cientista comenta, são opiniões embutidas em códigos. Não são, necessariamente, verdadeiros, científicos e objetivos, muitas vezes nem honestos. A cientista cita o caso de uma escola em Nova Iorque onde os professores eram avaliados por uma fórmula conhecida como “value added model” – “modelo de valor agregado”. 

Ninguém tinha acesso a esse método, mesmo sendo solicitado pela coordenação da escola. Os professores foram taxados como ruins ou bons e foram expostos no The New York Post. A Secretaria da Educação (Department of Education) precisou ser processada para expor o método e reavaliá-lo. Os algoritmos se mostraram ineficazes e produziram, junto com o posicionamento da Secretaria da Educação de Nova Iorque, injustiças contra os professores. 

O aspecto positivo é que os algoritmos podem ser fiscalizados, questionados, reformulados e treinados para serem justos. Eles podem ser reparados e aperfeiçoados para não cometerem os mesmos erros históricos de opressão e segregação. Cathy cunhou essa ideia de auditoria de algoritmos em que se deve checar a integridade dos dados, repensar a definição de sucesso e considerar o rigor e a precisão do uso da informação. 

Deve-se partir do pressuposto de que todos os algoritmos erram e pensar na frequência e com quem eles mais erram. Outro questionamento é: qual o preço dessa falha? Qual o efeito a longo prazo? Que tipo de ciclo vicioso ele pode gerar e como essa situação pode ser contornada? Essas questões ajudam no processo de criação, desenvolvimento e atualização dos softwares de dados para que funcionem de modo mais ético e inclusivo. Cathy defende que os cientistas de dados atuem como tradutores dos debates éticos que acontecem na sociedade.

 

Fonte: https://storyset.com/illustration/javascript-frameworks/amico

 

Outra cientista de dados que também participou do documentário Coded Bias é Zeynep Tufekci. Ela apresenta alguns mitos da inteligência artificial e também realizou uma apresentação para o canal TED – We’re building a dystopia just to make people click on ads (2017) (Estamos construindo uma distopia só para fazer as pessoas clicarem em anúncios), no qual comenta sobre os efeitos que esses mitos podem ter na prática. 

No imaginário coletivo de muitas pessoas existe o sentimento de medo da inteligência artificial, pois no dia a dia assistimos aos filmes de ficção científica como Exterminador do futuro, Star Wars, Transformers, Star Trek que nos trazem batalhas épicas com robôs que, ao mesmo tempo, cometem massacres e salvam a humanidade. Na prática, não é exatamente assim que as coisas acontecem. Tufekci (2017) ainda estabelece uma comparação entre o que acontece hoje com a obra distópica 1984, de George Orwell – uma ditadura que observa cada passo humano. 

Da mesma forma que as outras obras de ficção científica, a atualidade não necessariamente segue à risca o que foi narrado nesse livro ou como a relação entre homem e máquina foi retratada na ficção científica, no entanto, devemos nos atentar sobre como as pessoas com poder usam a inteligência artificial a seu favor, exercendo controle e manipulação da opinião pública do modo que lhes convém. Como a tecnologia avançou muito, esses mecanismos de controle passaram a ser sutis, quase imperceptíveis, mas são reais e apresentam consequências brutais em alguns casos. 

Empresas como Facebook, Google e Amazon usam a inteligência artificial para vender seus dados a outras empresas e determinar o que você deve comprar e o que mais se assemelha com você. Se pensarmos sobre os anúncios online, eles parecem inofensivos, mas, como a pesquisadora comenta, o problema é que nos habituamos a essa forma de manipulação relativamente simples e barata. 

Mesmo que determinado tipo de produto já tenha sido comprado, os anúncios continuam aparecendo, o que podemos entender como arquitetura da persuasão persuasion (architecture). O mesmo ocorre com as prateleiras de supermercados no final do caixa: elas foram desenhadas na altura das crianças, repletas de doces, para que elas possam pedir aos pais mais algumas coisas antes de fechar as compras. 

Entretanto, no mundo digital, muitas barreiras físicas são quebradas e as arquiteturas da persuasão podem afetar bilhões de pessoas, uma a uma, a partir da tela de um celular, por exemplo. A empresa que detém esse poder pode, por exemplo, se aproveitar das fraquezas e necessidades de cada um individualmente: o que aparece para mim não necessariamente é mostrado para você. O Facebook tem o poder de analisar dados que você mesmo excluiu e usar para o lucro da empresa sem você saber ou poder recorrer. 

O documentário da Netflix Privacidade hackeada (2019) expõe o escândalo da Cambridge Analytica de 2016, na campanha de Donald Trump, quando a empresa de mineração e análise de dados usou a informação para manipular a opinião pública a favor do candidato. Essa manipulação foi realizada através do Facebook, Google, Instagram e Twitter, com o auxílio de testes de personalidade. A partir dos testes, a Cambridge Analytica traçava perfis psicológicos e pontuava as pessoas como “persuadíveis” e enviavam informações que apenas aquela pessoa poderia ver. Informações que ficaram mundialmente conhecidas como fake news

Essa tática pode ser comparada a estratégias de guerra para influenciar determinado tipo de público a realizar determinado tipo de ato. Em uma guerra, você pode ou ter um posicionamento bruto e usar armas ou manipular as pessoas para que elas usem armas contra algum rival político. No caso do uso da informação através dos testes de personalidade, campanhas políticas manipularam e intensificaram comportamentos conservadores e agressivos de alguns grupos de pessoas contra outras.

Incentivaram, por exemplo, comportamentos homofóbicos, machistas, antissemitas, racistas e disseminarem fake news pelas redes. No Brasil, o WhatsApp, também pertencente ao atual Meta (antigo Facebook) também realizou esse tipo de prática. 

O caso começou a ser descoberto quando o professor de design de mídia David Carroll decidiu processar a Cambridge Analytica por não ter mais acesso aos seus dados após responder um quiz pelo Facebook. Ainda hoje, o professor não tem acesso aos seus dados, no entanto, a Cambridge Analytica anunciou seu fechamento em 2018. 

Outra pessoa de suma importância para as investigações foi Brittany Kaiser, a ex-diretora de desenvolvimento de negócios da Cambridge Analytica. Foi ela quem delatou grande parte do que acontecia dentro da empresa e ofereceu subsídios para o indivíduo ter posse dos seus próprios dados. Kaiser afirmou que os dados deveriam sempre pertencer ao indivíduo e não à empresa para a qual essa informação é compartilhada. Assim a pessoa poderia revogar quando quisesse e a empresa, seja qual for, não poderia usar os dados indevidamente e sem consentimento. 

Nos Estados Unidos, todo o histórico de navegação de bilhões de pessoas são analisados diariamente e vendidos para quem desejar comprá-los. O mesmo acontece na Europa, no entanto, de modo geral, a União Europeia possui regras mais rígidas. O Brasil parece seguir o exemplo europeu quanto à proteção dos dados. Uma proposta de regulamentação do uso da informação surgiu com a Lei Geral de Proteção de Dados, a LGPD, da qual discutimos no artigo: O que precisamos saber sobre as diretrizes da lei geral de proteção de dados, a LGPD?

Um dos objetivos da lei é garantir que as informações e os dados pessoais sejam das pessoas e não da empresa que os manuseia, como o Facebook. Assim, a foto que você postou no Facebook pertence a você e não à empresa. Uma de suas inspirações foi a General Data Protection Regulation (GDPR), desenvolvida pela União Europeia para evitar o abuso de poder no uso dos dados.

 

Fonte: https://storyset.com/illustration/secure-data/amico

 

Tufekci (2017) ainda comenta os perigos do uso dessa tecnologia nos contextos políticos. Em 2016, a pesquisadora participou de comícios do presidente Donald Trump para investigar como acontecia o movimento de apoio a ele. Ela decidiu assistir alguns vídeos dele no YouTube e automaticamente a plataforma começou a recomendar vídeos de supremacia branca em ordem crescente de radicalismo. Ela fez o mesmo com Hillary Clinton e Bernie Sanders: o Youtube começou a recomendar e reproduzir automaticamente vídeos de conspiração de esquerda. 

A mesma lógica pode acontecer, por exemplo, se você assistir um vídeo sobre vegetarianismo. Logo em seguida, você poderá receber vídeos de como ser vegano. O método algorítmico do Youtube é privado, assim a hipótese da pesquisadora é a de que o algoritmo descobriu que, para persuadir o indivíduo a permanecer mais tempo no canal, algo mais extremo deve ser mostrado. Isso aumentaria a tendência do usuário a procurar mais vídeos e navegar por mais tempo na plataforma.

Ou seja, mesmo que você não tenha pesquisado determinado assunto, o YouTube encontra um modo de ir além, para o usuário ficar mais tempo em seu site. É uma lógica parecida quando o Google mostra anúncios de produtos dos quais você já pesquisou.

Se a ética não for levada em consideração, esses sites podem traçar perfis de determinados tipos de públicos, como antissemitas e agravar essas tendências a partir de anúncios e vídeos. Pessoas que antes tinham ideias antissemitas não tão explícitas agora poderão expressar essa característica com mais afinco porque o algoritmo percebe a tendência individual a partir daquilo que é colocado.

O próprio Facebook pode manipular a opinião das pessoas com uma metodologia algorítmica semelhante, pois ele pode sugerir como aumentar a audiência de algum tipo de público (seja qual for). Ele analisa algoritmicamente os posts dos seus usuários e expõe os conteúdos de acordo com o que ele acredita que irá induzir a pessoa a permanecer mais tempo na plataforma. O que o algoritmo te mostra pode afetar suas emoções, comportamentos e pensamentos. 

Em 2010, como Tufekci (2017) menciona, nas eleições intercalares dos EUA, o Facebook fez um “experimento” com 61 milhões de seus usuários. O site expunha uma tela com a frase Today is Election Day com um botão I voted. Criaram dois tipos de designs: um era uma versão mais simples e o segundo tinha uma modificação – adicionaram os rostos dos amigos do usuário que clicaram no botão I voted.

Essa barra com as fotos dos amigos foi a única mudança e influenciou 340 mil eleitores a votarem em determinado candidato. Em 2012 o mesmo experimento foi repetido e 270 mil eleitores foram influenciados da mesma forma. Detalhe: nessas eleições o resultado presidencial foi decidido por aproximadamente 100 mil votos de diferença.   

O Facebook poderia, desse modo, apoiar um candidato e mobilizar apoiadores sem as pessoas saberem conscientemente sobre isso. Ou seja, como cidadãos nós não sabemos se estamos recebendo a mesma informação, pois o site se adapta algoritmicamente às tendências individuais, o que dificulta uma base comum de informação e como consequência, dificulta o debate público.

Tufekci (2017) menciona que estamos criando uma distopia apenas para fazer as pessoas clicarem em anúncios. Essa distopia não seria como a de George Orwell, seria muito mais sutil. As pessoas com poder poderiam nos ver, nos julgar e nos incitar de acordo com as probabilidades algorítmicas, o que significa manipular a pessoa a partir de inferências estatísticas sobre as vulnerabilidades de cada um. 

Deve-se ressaltar que as plataformas digitais são importantes – nós as usamos para manter contato com amigos e familiares no mundo inteiro. As redes sociais também são cruciais para os movimentos sociais da atualidade e tem potencial para contornar a censura ao redor do mundo. Entretanto, para isso, devemos encarar as intenções e a transparência sobre como esses algoritmos são usados.

Atualmente, estamos sendo vendidos para quem pagar mais, nós viramos o produto para quem quiser nossa informação. O sistema de economia digital precisa ser pensado eticamente, para não ser usado como máquina opressora de manipulação.

 

Fonte: https://storyset.com/illustration/followers/pana

 

O documentário O dilema das redes (2020) menciona, com mais profundidade, os problemas que as redes sociais trouxeram ao serem usadas indiscriminadamente. O filme conta com a participação de Tristan Harris (atual presidente e cofundador da Center for Humane Technology e que já trabalhou para o Google como especialista em design ético), Jaron Lanier (um dos precursores da realidade virtual), Tim Kendall (ex-presidente do Pinterest e ex-Diretor de monetização do Facebook), Justin Rosenstein (cofundador da empresa Asana e ex funcionário do Google) entre outros nomes importantes relacionados ao funcionamento das redes sociais e do mundo digital na atualidade.

As redes de internet foram criadas com o intuito de competir, manipular e direcionar nossa atenção. Grandes empresas como Google, Netflix, YouTube, entre outras competem entre si para nos fazer passar mais tempo em suas plataformas. Elas buscam, cada vez com maior precisão e acurácia, atingir níveis inconscientes de persuasão no nosso cérebro.

Por exemplo, causar sentimento de indignação é algo que causa engajamento, pois precisamos desabafar com algum amigo sobre isso. Assim, quando abrimos nossas redes, existe a chance de ficarmos indignados com alguma matéria que aparece em nosso feed de notícias. As fake news são mais lucrativas e são difundidas mais rapidamente do que informações verdadeiras, o que pode gerar um sistema de informação baseado na mentira e na manipulação. 

Nós somos estimulados pelo que o algoritmo interpreta que gostamos, e existem estímulos que são mais lucrativos do que outros. Por exemplo, é mais difícil construir amor familiar do que destruir, então a polarização e o distanciamento são mais fáceis, eficazes e rápidos de acontecer.

Assim, cada um fica dentro de uma bolha personalizada vendo só o que interessa e quando outra pessoa surge e parece nos tirar desse enclausuramento, uma reação comum é nos afastarmos dela. Entretanto, continuamos submersos nas redes sociais, que nesse caso pode ter sido a causa do distanciamento. O que deveria supostamente nos unir agora nos separa, se não tomarmos cuidado na forma como as usamos.

 

REFERÊNCIAS

BUOLAMWINI, Joy. How I’m fighting bias in algorithms. YouTube, TED, 29 mar. 2017. Disponível em: <https://www.youtube.com/watch?v=UG_X_7g63rY>. Acesso em: 8 dez. 2021.

CARROLL, David. How I sued Cambridge Analytica over my personal data. TED, 2019. Disponível em: <https://www.ted.com/talks/david_carroll_how_i_sued_cambridge_analytica_over_my_personal_data>. Acesso em: 10 dez. 2021. 

CODED Bias. Direção: Shalini Kantayya. Produção: 7th Empire Media. EUA, China, Reino Unido. 26 jan. 2020. Disponível na Netflix.  

HARRIS, Tristan. How a handful of tech companies control billions of minds every day. TED, abr. 2017. Disponível em: <https://www.ted.com/talks/tristan_harris_how_a_handful_of_tech_companies_control_billions_of_minds_every_day>. Acesso em: 10 dez. 2021

HARRIS, Tristan. How Better Tech could protect us from distraction. TED, dez. 2014. Disponível em: <https://www.ted.com/talks/tristan_harris_how_better_tech_could_protect_us_from_distraction>. Acesso em: 10 dez. 2021.

LANIER, Jaron. Por que precisamos recriar a internet. TED, abr. 2018. Disponível em: <https://www.ted.com/talks/jaron_lanier_how_we_need_to_remake_the_internet?language=pt-br>. Acesso em: 10 dez. 2021.

O DILEMA das redes. Direção: Jeff Orlowski. Distribuição: Netflix. EUA, 9 set. 2020. 

O’NEIL, Cathy. The era of blind faith in big data must end. YouTube, TED, 7 set. 2017. Disponível em: <https://www.youtube.com/watch?v=_2u_eHHzRto>. Acesso em: 8 dez. 2021. 

PRIVACIDADE Hackeada. Direção: Karim Amer, Jehane Noujaim. Distribuição: Netflix. EUA. 19 jul. 2019.  

TUFEKCI, Zeynep. We’re building a dystopia just to make people click on ads. YouTube, TED, 17 nov. 2017. Disponível em: <https://www.youtube.com/watch?v=iFTWM7HV2UI>. Acesso em: 8 dez. 2021.