Para especialistas, vídeos manipulados são exemplos de como a inteligência artificial pode ser usada para prejudicar candidados, tendo em vista o baixo custo e a capacidade de disseminar fake news e discurso de ódio
Em dezembro, oito meses antes do início da campanha eleitoral e um dia após uma manifestação de professores contra a prefeitura de Manaus, um suposto áudio atribuído ao prefeito da capital amazonense, David Almeida (Avante), ganhou rápida tração em aplicativos de mensagem. O conteúdo, carregado de insultos contra profissionais da educação, era falso, mas imitava a voz de Almeida e poderia enganar um usuário desavisado das redes sociais.
O caso culminou em uma operação de busca e apreensão da Polícia Federal (PF) contra três empresas de publicidade suspeitas de usarem inteligência artificial (IA)para produzir difamação eleitoral. Este foi um dos primeiros usos de deepfake para distribuir desinformação com impacto neste pleito – um problema que pode inundar os tribunais durante a campanha e ganhar protagonismo nas eleições municipais.
Levantamento feito pela DW encontrou ao menos outras sete acusações de uso de inteligência artificial com objetivos eleitorais que já estão na Justiça antes mesmo da largada oficial das campanhas. As decisões inauguram o entendimento dos tribunais sobre o tema e servem como termômetro para o período eleitoral, que começa em 16 de agosto.
Maringá, no norte do Paraná, por exemplo, também esteve exposta a conteúdos falsos. Um áudio que circulou nas redes sociais simulava a voz do prefeito Silvio Barros (Progressistas) em que ele supostamente abriria mão de concorrer ao pleito neste ano. A Justiça concedeu liminar para que o WhatsApp, aplicativo da empresa Meta, identificasse o primeiro responsável por divulgar o conteúdo, mas a empresa disse que não é possível rastrear a mensagem.
Caso parecido aconteceu na cidade de Costa Rica, no Mato Grosso do Sul, onde circulou um vídeo manipulado, no qual o atual prefeito, Cleverson Alves dos Santos (PP), teria comparado a população a cachorros. A Justiça determinou multa de R$ 10 mil pelo compartilhamento do conteúdo. Na opinião do juiz eleitoral Francisco Soliman, casos como este contaminam a percepção dos eleitores.
“Embora estejamos longe das eleições, dúvida não há de que a utilização de conteúdos desta estirpe, compartilhados irresponsavelmente em grupos de Whatsapp, (…) alcançam um número significativo de pessoas, e como tal, podem deturpar a regularidade do futuro processo eleitoral”, escreveu na decisão.
Já em Guarulhos, na região metropolitana de São Paulo, um vídeo compartilhado pelo prefeito Guti (PSD) mostrava um coro de vozes entoando o grito “fora PT”, com imagens de uma multidão criada por meio de inteligência artificial. Para o juiz eleitoral Gilberto Costa, o uso dos vídeos artificiais estava evidente, mas o prefeito falhou ao não indicar que se tratava de um conteúdo manipulado. A publicação precisou ser removida.
Em nota, a prefeitura afirmou que o vídeo se tratava de um meme que circulava à época e que o vídeo não mencionava candidatos da oposição. Também disse que o atual prefeito não será candidato.
Outros dois casos envolvendo IA e campanha eleitroal tramitam em São Paulo e um em Pernambuco.
Nova resolução embasa decisões
O julgamento sobre este tipo de conteúdo foi possível graças a uma resolução do Tribunal Superior Eleitoral (TSE) deste ano, a primeira sobre o tema no Brasil, que proíbe o uso de deepfakes, como vídeos e áudios manipulados por IA. A Corte também restringiu o uso de robôs para simular diálogos com os eleitores e obrigou candidatos a informar se há conteúdos gerados artificialmente nas propagandas eleitorais.
Em nota, os Tribunais Regionais Eleitorais informaram ainda que, caso um candidato use deepfake, poderá ter o registro ou o mandato cassado. Em março, a Justiça Eleitoral criou o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia, que auxiliará sobre a utilização da inteligência artificial durante o pleito.
O centro reúne iniciativas de diversas instituições para combater a desinformação no período eleitoral, bem como discursos de ódio e antidemocráticos. A unidade poderá receber denúncias e solicitar providências das plataformas de redes sociais sobre determinados conteúdos.
Problema generalizado
O problema é mundial. Na Eslováquia, dois dias antes do início da eleição presidencial em 2023, um áudio manipulado de um dos candidatos à eleição viralizou. Na gravação, o político supostamente discutia sobre como fraudar o resultado da eleição. Na Moldávia, vídeos manipulados da presidente cfalando mal dos cidadãos e anunciando uma falsa renúncia também circularam.
Nas eleições para o Parlamento Europeu, a inteligência generativa foi usada para criar imagens artificiais de imigrantes invadindo edifícios dos escritórios da União Europeia. Segundo o jornal britânico The Guardian, na Alemanha, especialistas derrubaram uma campanha de desinformação pró-Russia que usava bots e contas falsas no X. Na eleição indiana de junho deste ano, publicações na imprensa local indicam que até 50 milhões de dólares foram investidos pelos partidos em conteúdo gerado por inteligência artificial.
Até o final de 2024, 40% da população mundial terá ido às urnas. De dimensões continentais, o Brasil entra nesta conta em um cenário particular, dada a dificuldade de fiscalização em uma eleição que abrange 5.570 municípios. Somente nas eleições municipais de 2020, foram inscritos 517 mil candidatos. Para especialistas ouvidos pela DW, estes casos dão o tom dos desafios impostos pela IA no país.
Discurso de ódio e escalada da desinformação são desafios
Para a pesquisadora em democracia digital da Democracy Reporting International Beatriz Saab, a tecnologia preocupa dado seu potencial de automação, distribuição personalizada de conteúdo e produção a baixo custo. Isso ganha fôlego em um país marcado por diferenças sociais como o Brasil.
“Pode existir um aumento do uso da inteligência artificial durante as eleições municipais. O Brasil tem um contexto muito específico, a população brasileira utiliza muito as redes sociais para o consumo da informação. Então existe a dificuldade em relação ao controle”, disse à DW.
Um estudo da Democracy Reporting Internationalidentificou os principais riscos que o mau uso da inteligência artificial pode trazer para a democracia brasileira. Além da produção de deepfakes e de conteúdo falso, o medo é que a IA seja usada também para disseminar discursos de ódio ou escalonar a distribuição de anúncios políticos desinformativos. Isso porque, muitas vezes, o objetivo de um áudio falso, por exemplo, não é o de ser uma imitação perfeita da realidade, mas o de gerar confusão.
Segundo o texto, a IA pode aprimorar, por exemplo, a personalização das mensagens de campanha, permitindo uma comunicação direcionada em termos demográficos.
“Além disso, tecnologias de IA como deepfakes ou a geração de conteúdo automatizado podem ser usadas para criar conteúdo audiovisual enganoso ou integralmente fabricado, apresentando desafios importantes para a veracidade da informação”, escrevem as pesquisadoras.
Responsabilidade das plataformas
No centro desta discussão estão as plataformas digitais, já que a maior parte destes conteúdos circula em aplicativos como WhatsApp, Facebook, Instagram e X.
A resolução publicada pelo TSE neste ano considera que as empresas podem ser consideradas responsáveis se falharem em derrubar conteúdos considerados de risco durante as eleições. O Google decidiu proibir a veiculação de anúncios políticos após a decisão do TSE.
Um estudo publicado neste ano pela FGV Direito Rio, por exemplo, revelou falhas das plataformas para moderar anúncios, aceitando conteúdos que escapam das Políticas de Conteúdo. Os pesquisadores conseguiram, por exemplo, subir publicidades em português contendo discurso de ódio para veiculação no YouTube, além de submeter sem restrições anúncios com desinformação sobre o processo eleitoral.
“A gente consegue também enxergar um risco muito alto do uso da inteligência artificial para produzir esse conteúdo e para colocar em anúncios que vão ter um impacto político e que não necessariamente vão ser classificados como políticos pela plataforma”, explica Saab. “Como que você observa esse tipo de conteúdo para falar se é desinformativo ou não, violento ou não? Vai existir essa dificuldade de fiscalizar localmente o que está acontecendo”, completa.
Procurado, o Google não respondeu até a publicação desta reportagem. Em nota à imprensa divulgada à época, a empresa informou que combina inteligência artificial e revisores humanos para aplicar políticas e que, todos os anos, bilhões de anúncios são bloqueados antes de serem exibidos.
Estudos conduzidos pela cientista política Nara Pavão, da Universidade Federal de Pernambuco, indicam que o efeito da desinformação nos eleitores depende de sua predisposição. Em ambientes políticos polarizados, as notícias falsas provocam mais mobilização do que persuasão.
“O impacto da desinformação vai depender muito do nível de polarização e do nível de conhecimento que os eleitores têm sobre os candidatos. Em municípios muito pequenos, desconhecidos, a informação pode ter esse efeito.”
Isso acontece porque quando há alta polarização, como as disputas nacionais no Brasil têm se desenhado, dificilmente o eleitor muda de ideia em relação a um candidato, explica Pavão. Nesse caso, o eleitor procura informações que confirmem aquilo que já pensa sobre um candidato conhecido.
Já em um cenário de menor polarização, o eleitor precisa consumir mais informações para tomar uma decisão, o que aumenta a capacidade de a desinformação persuadir o voto. “As fake news desmobilizam o eleitor, fazem com que ele tenha menos disposição para se engajar politicamente a favor do seu candidato, sendo esse candidato vítima de uma notícia falsa”, afirma.
É nesse contexto que a inteligência artificial se torna um risco. “Peças de desinformação sempre existiram. O que a inteligência artificial faz é popularizar. Ela torna a produção destes conteúdos sintéticos menos custosos.”
+++++++