Em uma estrada, dirigindo versões diferentes do mesmo modelo de carro, Maria Rita e Elis Regina cantam "Como nossos pais", composição do cearense Belchior. O dueto de mãe e filha nada teria de excepcional se Elis não tivesse falecido em 1982, quando Maria Rita tinha apenas 4 anos de idade. A propaganda que trouxe Elis "de volta a vida" usou uma ferramenta de inteligência artificial (IA) que ficou conhecida como deepfake.
Nela, a IA é usada para inserir conteúdos artificiais, por exemplo, rostos de pessoas - com movimentação e expressões faciais - mesmo que elas não tenham participado da gravação.
O recurso não é novo - nem sempre utilizou inteligência artificial para existir. É o que lembra o professor titular da Vice-Reitoria de Pesquisa e Inovação da Universidade de Fortaleza (Unifor), Tarcísio Pequeno. "Isso já foi feito no cinema desde sempre. Desde sempre se faz personagens, o ator conversando com ele mesmo, como se fosse um irmão gêmeo ou duplo, ou um clone", cita.
A diferença - e também o perigo - da deepfake reside na acessibilidade cada vez maior da técnica, sendo, muitas vezes, necessário apenas um equipamento digital com o software correto para fazer a inserção. "E aí vulgariza isso e, ao vulgarizar, torna o controle quase impossível", alerta, o que tem impactos em diversos campos da sociedade, inclusive no político-eleitoral.
Os possíveis usos da deepfake
Apesar da repercussão da propaganda com Maria Rita e Elis Regina, a deepfake já tem sido utilizada há alguns anos - com maior ou menor realismo. Existem casos como o de um jornal na Coreia do Sul, no qual a apresentadora habitual do programa foi substituída pela própria deepfake.
Por outro lado, existem casos em que o uso da deepfake é criminoso. A novela da Globo Travessia mostrou um pedófilo que se passa por uma adolescente em uma videochamada por meio da técnica. Apesar da produção ser fictícia, a tecnologia já existe e é uma preocupação no combate a crimes sexuais contra crianças e adolescentes.
A deepfake já chegou, é claro, na política e, mais precisamente, no processo eleitoral. Em 2022, um vídeo falso da apresentadora do Jornal Nacional, Renata Vasconcellos, foi modificado por meio de deepfake. Nele, a jornalista lia a pesquisa de intenção de voto para a presidência da República - algo que foi de fato divulgado no programa.
Contudo, o vídeo adulterado trazia o então candidato à reeleição Jair Bolsonaro (PL) como primeiro colocado, com Luiz Inácio Lula da Silva (PT) na segunda colocação - o resultado foi o contrário do divulgado no vídeo produzido por deepfake.
"O impacto da deepfake vai ser o próximo front das eleições", projeta a coordenadora da área de Cultura e Conhecimento do InternetLab, Alice Lana. "Com tecnologias mais acessíveis, como efeitos de imagem, efeitos de voz, a desinformação terá mais essa arma, que pode ser usada de forma eleitoral (e de maneira) assustadora para a gente hoje".
Ela cita que será possível, por exemplo, produzir um vídeo de um político falando algo, mesmo que aquilo nunca tenha ocorrido, ou de um candidato fazendo algo que possa ter impacto eleitoral - como traindo a esposa ou marido.
Neste ano, o editor de vídeo estadunidense Justin Brown usou uma plataforma de IA chamada Midjourney para criar imagens falsas de figuras políticas dos Estados Unidos traindo os cônjuges. Entre as figuras, estão os ex-presidentes Barack Obama e Donald Trump e o atual presidente Joe Biden.
Uso para a desinformação
O uso difundido da deepfake pode tornar “a fake news uma coisa realmente absurda de controlar”. “Você pode fazer fake news que são indistinguíveis da realidade. A gente tende, por atavismo até da evolução, acreditar no que os olhos veem e no que os ouvidos ouvem”, ressalta Tarcísio Pequeno.
O apontamento do professor é confirmado por pesquisa, divulgada no início de 2022, pela empresa de segurança digital Kaspersky. O estudo feito na América Latina queria medir o quanto as pessoas reconhecem a utilização da deepfake.
De acordo com os dados obtidos, 66% dos brasileiros sequer conheciam a existência da técnica. Mesmo entre aqueles que conhecem a ferramenta, o reconhecimento de um vídeo adulterado usando deepfake não ocorre. Segundo o estudo, 71% dos brasileiros não sabem quando um vídeo foi editado digitalmente por meio desse recurso.
"As táticas que envolvem vídeos e som em si não são maliciosas, já que permitem à indústria cinematográfica, por exemplo, oferecer experiências cada vez mais incríveis. No entanto, o uso do deepfake tende a ficar cada vez mais imperceptível e, como acontece com qualquer tecnologia inovadora, seu uso indevido implica riscos", disse o diretor da equipe global de pesquisa e análise da Kaspersky na América Latina, Dmitry Bestuzhev, na divulgação da pesquisa.
Regulamentação das tecnologias
Alice Lana ressalta que, por isso, se torna urgente a regulamentação da inteligência artificial e a criação de regras das ferramentas que usam da IA, como a deepfake. Uma medida que ela considera que pode ser "paliativa" para isso é exigir que qualquer produção utilizando inteligência artificial tenha que informar isso aos usuários.
Ela cita, por exemplo, que a propaganda que traz o dueto de Elis Regina e Maria Rita não tem avisos quanto a isso. "É necessário que essas produções produzidas por IA venham com uma marca", ressalta. O projeto de lei que cria um marco regulatório da inteligência artificial, apresentado pelo presidente do Senado Federal, Rodrigo Pacheco (PSD), traz uma referência a essa identificação.
Segundo a proposta, será exigido, como forma de garantir a transparência, que as pessoas sejam informadas quando tiverem contato com qualquer tecnologia de inteligência artificial - o que valerá também para conteúdos produzidos usando deepfake. "Claro que quando falamos de campanha política, nem tudo é na claridade da lei. Existem redes de ódio, redes de desinformação", completa a pesquisadora.
Tarcísio Pequeno ressalta, no entanto, que apesar da importância da regulamentação de regras para a IA, o mais urgente é a regulamentação das plataformas digitais - o que pode ajudar diretamente no combate à desinformação feita com o uso da técnica de deepfake.
"Primeiro, é preciso atribuir uma responsabilidade civil a tudo que é postado. Há uma responsabilidade da plataforma, porque a plataforma tem instrumentos de verificação, tem poderes, tem tecnologia de verificação e, a própria plataforma, tem que exercer não a censura, mas um filtro naquilo que ela divulga. Então, a primeira coisa, é preciso atribuir responsabilidades às plataformas por aquilo que é divulgado nelas, pelo uso que é feito delas".
"Em segundo lugar, há que responsabilizar também o indivíduo ou grupos ou organizações produtores de conteúdo que se valem da plataforma para difundir conteúdo malicioso, conteúdo maldoso, conteúdo intencionalmente falso, mentiras, fake news, etc. É preciso encontrar, estabelecer uma dosagem para responsabilizar esses dois atores", completa o professor.