Questões que devem ser feitas antes de criar clones digitais ou deepfakes: formas éticas de refletir sobre a prática

Questões que devem ser feitas antes de criar clones digitais ou deepfakes: formas éticas de refletir sobre a prática

Heitor Augusto Colli Trebien

Continuação do texto A controvérsia das deepfakes

Continuando as pesquisas sobre as deep fakes, nessa matéria iremos discutir os clones digitais, isto é, pessoas recriadas artificialmente através da Inteligência Artificial. Tomsett comenta que os gêmeos digitais estão cada vez mais comuns e podem ser usados nas mais diferentes áreas, como no cinema, na música e na ciência. A companhia em que ele trabalha, a UneeQ recriou o Albert Einstein em versão digital, na língua inglesa.

Atualmente, existem duas formas de construir um clone digital: as deep fakes, com o mapeamento do rosto de alguém e a sobreposição no rosto de outro, criando um efeito hiper-realista e a tecnologia CGI (Computer-Generated Imagery), Imagens geradas por computador (IGC, em tradução livre), pertencente à área da computação gráfica.

A CGI, como Linares comenta, é amplamente utilizada em filmes e jogos eletrônicos e, de modo geral, se refere à capacidade do computador gerar imagens com o uso de ferramentas próprias. 

Um exemplo fascinante dessa tecnologia, provavelmente integrada com as deep fakes, é a recriação de Salvador Dalí pelo The Dalí Museum, em São Petersburgo, Flórida, USA. O artista foi tão bem construído que tira selfies com os visitantes e pode enviá-las via celular. A conversa é extremamente natural e realista, com definição de imagem altamente precisa.

Como essa tecnologia está se espalhando muito rápido, muitas questões éticas rodeiam essa temática. Tomsett propõe quatro questionamentos que devem ser feitos antes de usar essa tecnologia, para garantir que sua produção seja confiável e legal.

Os quatro questionamentos éticos de Tomset:

A primeira de todas é: você tem permissão para fazer isso? É essencial que os direitos de imagem da pessoa sejam respeitados e, portanto, deve haver o consentimento da pessoa. Claro, existem alguns casos em que isso não ocorre, por exemplo quando internautas produzem memes a partir de figuras públicas. Se a montagem não atacar a integridade da pessoa, essas deep fakes não são necessariamente nocivas. 

Existem outros casos ainda de figuras históricas que já morreram. O ideal é entrar em contato com os detentores dos direitos de imagem, como familiares. No caso da UneeQ, quando recriaram o Albert Einstein, procuraram a Universidade Hebraica de Jerusalém e os representantes da Greenlight Rights. Além das universidades, alguns museus também podem colaborar nesse processo. Isso contribui para o caráter legal, ético e fornece autenticidade ao projeto. A imagem virtual será mais confiável através da colaboração com essas instituições, por conhecerem a figura histórica e orientarem sua construção da melhor maneira possível.

A segunda pergunta é: a reconstrução áudio visual foi feita para enganar? O importante é não querer ludibriar ninguém. Mesmo que criem deep fakes de artistas, o ético é apontar que aquilo é uma deepfake e deixar claro que é uma montagem com intuito de entretenimento, por exemplo. Tomsett cita o caso da criação de uma deepfake do ator Tom Cruise. No vídeo, fica explícito que ele foi recriado a partir da inteligência artificial com o título “Very realistic Tom Cruise Deepfake | AI Tom Cruise” – em tradução livre: “Deepfake muito realista de Tom Cruise | Inteligência Artificial de Tom Cruise”. 

O próprio título revela que é uma deepfake. O autor do vídeo afirma que não quer enganar ninguém e se puder ajudar a identificar essas práticas, ele adoraria ajudar. Devemos desenvolver a consciência de que essa técnica pode ser usada por motivações políticas, para enganar as pessoas mostrando discursos ou falas que o político nunca pronunciou de fato. Os criadores de deepfake devem ser claros sobre quem são e o que fazem. 

Atualmente existem influenciadores virtuais, como Marques comenta, que deixam claro que são robôs em seus perfis no instagram. Temos o exemplo de Lil Miquela, de Noonoouri, de Shudu.gram, de Blawko22 entre vários outros. Esses casos sempre são explícitos sobre sua origem virtual. Como foram criados com o apoio de CGI, sua imagem mostra que não são totalmente humanos, apesar de a semelhança ser altamente bem-acabada. 

A terceira pergunta de Tomsett é se existe um caso de bom uso da deepfake. Ou ainda, antes de o clone digital de uma celebridade ou figura histórica ser criado, há uma boa razão para isso? Ou seja, pesquise bons casos desse uso e reflita se a sua criação irá beneficiar a sociedade de algum modo.

Realizar experimentações antes de publicar a deepfake para averiguar se de fato melhora a experiência do usuário é uma boa opção. É uma forma de verificar se o seu produto realmente atingiu a proposta para a qual ele foi feito. Caso o resultado mostre ser relevante e positivo, parte-se para a etapa de investimento.

A quarta e última questão elaborada por Tomsett é: a personalidade em questão é realmente central para a experiência do público? As pessoas não querem interagir com a tecnologia em si, por mais que ela seja fantástica. Normalmente, as pessoas buscam se relacionar com a personalidade, para ver como ele ou ela reagiria. O vínculo emocional, nesse caso, é muito forte para o cliente, que se sente muito mais propenso a usar a tecnologia. 

O personagem deve ser o centro da experiência, ele deve ter um propósito na forma como ele se relaciona, o que o deixará autêntico aos olhos de quem o vê. O ideal é ser honesto com o fato de ser artificialmente criado, mas manter a fidelidade dos traços humanos, como o modo de falar, as palavras, as expressões faciais e a linguagem corporal. Isso transforma a web em um ambiente muito mais interativo e agradável.

Em quais situações as deepfakes podem ajudar?

Uma situação específica onde as deepfakes puderam ajudar foi na proteção de denunciantes. A MIT Technology Review comentou sobre um documentário chamado Bem-vindo à Chechênia. Nele, ocorre a investigação dos crimes da República Russa, especificamente a Chechência, contra a comunidade LGBTQIA+. Com o intuito de proteger os participantes e ativistas, modificaram seus rostos para evitar que fossem encontrados e torturados, mortos ou presos. Desse modo, a tecnologia atingiu um novo contexto social, a de proteção de vítimas denunciantes. 

O Instituto ConversAções, em parceria com a Velip (empresa na qual trabalho), estão produzindo o Projeto Rede Diversidades. A atendente virtual é a Iris, que no futuro irá orientar grupos minoritários a encontrar informações de qualidade e lugares amigáveis à causa LGBTQIA+ entre outros contextos, relacionados à infância, racismo, saúde e deficiência.  

A Katalís, citada na matéria anterior, está construindo humanos artificiais com o rosto de cientistas excluídos ou marginalizados devido a etnia, gênero ou condição social. Dentre as figuras científicas, temos a Wang Zhenyi, cientista chinesa que nasceu em 1768 e faleceu em 1797, com apenas 29 anos. Viveu durante a Dinastia Qing, Império que durou aproximadamente de 1644 à 1912 e considerada a última dinastia imperial da China. Muito dedicada, mesmo com os direitos das mulheres atacados, estudou matemática, física, astronomia e poesia. Dentre suas obras, conhecemos: Disputa da Procissão dos Equinócios, Disputa de Longitude e Estrelas e A Explicação de um Eclipse Lunar. Todos devem ter o direito ao estudo da ciência.