noticias falsas

Notícias falsas geradas pela IA: ainda não estamos livres delas

Embora especialistas em análise forense digital consigam distinguir facilmente notícias falsas geradas por computador (ou “fake news“), não é possível impedir a sua rápida propagação.

Depois de duas décadas, Hany Farid, especialista em análise forense digital, passou a conhecer os sinais reveladores de uma imagem falsa, geralmente utilizando as sombras para isso. “Elas dizem muito sobre a cena”, diz ele. “A natureza da luz na cena, de onde ela vinha.” Imagens falsas geralmente não tem sombra ou possuem sombras em locais improváveis.

Leia mais: Mulheres na TI: codando a igualdade

Na maior parte da carreira de Farid, a análise forense digital resumiu-se a uma pergunta simples. “O vídeo, a imagem ou a gravação de áudio foi manipulada desde que foi gravado?”, diz ele. Mas agora a questão não é mais “essa cena foi alterada?”, e sim “essa cena realmente existe?”

Notícias falsas- Manipulação de imagens

“Há toda uma nova série de maneiras de manipular as fotografias agora”, diz Farid. O Photoshop tornou mais fácil para qualquer um editar imagens de forma convincente o suficiente para enganar os olhos destreinados e pensar que eles estão vendo o negócio real.

O tipo de imagem em que Farid se encontra trabalhando para tribunais ou agências de notícias também mudou. Agora que todos têm uma câmera no bolso, muitas vezes ele é apresentado a cenas borradas tomadas em um local e horário desconhecidos e enviados para a Web de forma anônima.

Avanços recentes no aprendizado de máquina deixaram Farid particularmente preocupado. 2017 foi um ano excelente para a tecnologia de falsificação de imagens. Em julho, pesquisadores da Universidade de Washington treinaram uma inteligência artificial que converte áudio em movimentos da boca realistas, criando um vídeo de alguém dizendo palavras que nunca foram pronunciadas. Um artigo da empresa de placas gráficas Nvidia, lançado em outubro, mostrou que você pode usar o aprendizado de máquina para mudar automaticamente o clima em uma fotografia, transformando um dia de verão em uma cena invernal com neve empilhada e as árvores sem folhas.

Leia mais: Aprenda Java!! Tutorial completo aqui no Mulheres Programando

Outro grupo da Nvidia treinou um algoritmo de aprendizado de máquina para gerar imagens de celebridades desconhecidas. Treinado em um banco de dados de 30.000 fotos por 20 dias, o software aprendeu a criar ‘fotografias’ de alta resolução que pareciam quase indistinguíveis da forma real. Mas essas celebridades não existem no mundo real – elas são simplesmente a ideia de um algoritmo de como é uma celebridade.

Nvidia

noticia falsa

“A geração de imagens convincentes está ficando mais fácil e há décadas”, diz Jaakko Lehtinen, que liderou o grupo na Nvidia que criou o algoritmo. “Já é possível para qualquer pessoa com hardware adequado e habilidades de codificação fazer o download de seus próprios modelos e criar seu próprio [software]”.

No momento, o algoritmo gerador de celebridades de Lehtinen produz imagens mais ou menos ao acaso. O objetivo é criar imagens que correspondam ao conhecimento atual das fotos de celebridades, mas que também não reproduzem as fotos existentes. O resultado é uma estranha coleção de rostos que parecem familiares – como se eles pudessem ter participado de um filme de que você gostava – mas isso não existe na realidade.

Leia mais: Software livre e tecnologia também são assuntos de mulher

Com o tempo, Lehtinen diz que será possível instruir o algoritmo para incluir certos recursos. Em vez de pedir uma celebridade genérica, você pode pedir para criar uma foto de alguém com óculos, barba e pele negra. Dê-lhe material fonte suficiente, e o algoritmo poderia um dia aprender a gerar um mundo inteiro de humanos falsos.

O objetivo de longo prazo de Lehtinen é inventar algoritmos que sejam capazes de gerar coisas tão complicadas quanto as pequenas variações nos rostos humanos. Tal software tornaria muito mais fácil a geração de personagens de aparência humana em videogames, por exemplo, uma área de pesquisa próxima ao core business da Nvidia como fabricante de placas gráficas. Mas a geração de um número infinito de rostos humanos pode ser útil em muitas áreas diferentes, inclusive na pesquisa médica, onde os estudos muitas vezes exigem fotografias neutras de um grande número de pessoas. Vários psicólogos já entraram em contato com Lehtinen, perguntando se seu software poderia ser ajustado para uso em seu próprio trabalho.

Mas Lehtinen reconhece que há um lado mais sombrio em sua pesquisa. A mesma tecnologia que um dia nos permitiria gerar seres humanos de aparência realista em videogames também poderia ser usada por falsários para falsificar imagens de pessoas reais. “É extremamente importante que todos esses resultados estejam disponíveis e sejam explicados abertamente”, diz Lehtinen. “Claramente, se não foi discutido, alguém com más intenções faria isso de qualquer maneira.”

Farid está acostumado a ver o progresso da tecnologia de manipulação de imagens dessa maneira. Primeiro, aparece nos documentos de pesquisa e depois entra no software comercialmente disponível. Logo depois, as falsificações começam a aparecer. “Eu acho que isso é uma ameaça real, esse tipo de tecnologia”, diz ele. “Não vai demorar muito para que eles melhorem e, em seguida, eles serão comercializados”, diz ele.

Inteligência artificial

noticia falsa

Por enquanto os peritos forenses digitais têm uma vantagem quando se trata de detectar imagens geradas por máquinas, que podem acompanhar as notícias falsas. Sensores de câmera sempre introduzem artefatos de minuto em imagens, invisíveis ao olho humano, mas facilmente detectados se você souber o que procurar. Ao identificar esses artefatos, os pesquisadores podem descobrir o modelo do dispositivo que tirou uma imagem, às vezes até o número de série. As imagens geradas por algoritmos não têm esses artefatos, por isso são relativamente fáceis de identificar como falsas.

Leia mais: A importância da mulher na história da computação

Mas há o problema da propagação do conteúdo. Se um vídeo falso acaba virando viral, muitas vezes o dano é feito antes que alguém tenha a chance de analisar o conteúdo. “Na mídia, costumávamos ter vários dias para inspecionar o conteúdo e agora temos algumas horas”, diz ele. Se alguém falsificou um vídeo do presidente Trump dizendo: “Eu acabei de disparar armas nucleares na Coréia do Norte” e se tornou viral, as repercussões podem ser enormes.

Em vez de esperar por uma solução tecnológica para resolver a questão das notícias falsas, os indivíduos podem ter que se educar para serem mais céticos em relação às falsificações online. Um relatório do National Literacy Trust no Reino Unido publicado no final do ano passado descobriu que crianças e jovens não têm as habilidades necessárias para identificar notícias falsas.

Leia mais: Quer trabalhar com PHP? Então você precisa ver isso

Este mês, a Open University está lançando uma série de vídeos do YouTube projetados para ajudar as pessoas a tomar melhores decisões sobre as notícias que leem e compartilham.

Para Farid, são plataformas como Twitter e Facebook que têm o maior papel a desempenhar na contenção do fluxo de informações falsas on-line. Na semana passada, Mark Zuckerberg postou no Facebook, dizendo que estava determinado a “consertar o Facebook” este ano. O recente desempenho da gigante de tecnologia em frente ao Comitê de Assuntos Internos do Reino Unido sugere que está apenas lentamente despertando para o papel significativo que desempenhou ao permitir que informações falsas se espalhassem por suas plataformas. O dilúvio de desinformação, Farid teme, está apenas começando.

Leia mais: Crie um template WordPress totalmente do zero

“Eu sinto que se continuarmos indo pela estrada que estamos indo, as coisas vão continuar se deteriorando online ”.