Tech

Um pesquisador de IA enfrenta deepfakes eleitorais

Por quase 30 anos, Oren Etzioni esteve entre os mais otimistas pesquisadores de inteligência artificial.

Mas em 2019, o Dr. Etzioni, professor da Universidade de Washington e executivo-chefe fundador do Allen Institute for AI, tornou-se um dos primeiros pesquisadores a alertar que uma nova geração de IA iria acelerar a propagação da desinformação online. E em meados do ano passado, disse ele, estava angustiado porque os deepfakes gerados por IA iriam influenciar uma eleição importante. Ele fundou uma organização sem fins lucrativos, TrueMedia.org em janeiro, na esperança de combater essa ameaça.

Na terça-feira, a organização lançou ferramentas gratuitas para identificar a desinformação digital, com o plano de colocá-las nas mãos de jornalistas, verificadores de factos e qualquer outra pessoa que tente descobrir o que é real online.

As ferramentas, disponíveis no Site TrueMedia.org para qualquer pessoa aprovada pela organização sem fins lucrativos, são projetados para detectar imagens, áudio e vídeo falsos e adulterados. Eles revisam links para arquivos de mídia e determinam rapidamente se eles são confiáveis.

Etzioni vê essas ferramentas como uma melhoria em relação à defesa patchwork atualmente usada para detectar conteúdo de IA enganoso ou enganoso. Mas num ano em que milhares de milhões de pessoas em todo o mundo irão votar nas eleições, ele continua a pintar um quadro sombrio do que está por vir.

“Estou apavorado”, disse ele. “Há uma boa chance de vermos um tsunami de desinformação.”

Apenas nos primeiros meses do ano, as tecnologias de IA ajudaram a criar chamadas de voz falsas do Presidente Biden, imagens e anúncios de áudio falsos de Taylor Swift e uma entrevista totalmente falsa que parecia mostrar um funcionário ucraniano reivindicando crédito por um ataque terrorista em Moscovo. Detectar tal desinformação já é difícil – e a indústria tecnológica continua a lançar sistemas de IA cada vez mais poderosos que irão gerar deepfakes cada vez mais convincentes e tornar a detecção ainda mais difícil.

Muitos pesquisadores de inteligência artificial alertam que a ameaça está ganhando força. No mês passado, mais de mil pessoas – incluindo o Dr. Etzioni e vários outros pesquisadores proeminentes de IA – assinaram uma carta aberta pedindo leis que responsabilizassem os desenvolvedores e distribuidores de serviços de áudio e visuais de IA se sua tecnologia fosse facilmente usada para criar deepfakes prejudiciais.

Em um evento organizado por Universidade Columbia na quinta-feira, Hillary Clinton, a ex-secretária de Estado, entrevistou Eric Schmidt, o ex-presidente-executivo do Google, que alertou que os vídeos, mesmo os falsos, poderiam “impulsionar o comportamento eleitoral, o comportamento humano, o humor, tudo”.

“Não acho que estejamos prontos”, disse Schmidt. “Esse problema vai piorar muito nos próximos anos. Talvez ou talvez não até novembro, mas certamente no próximo ciclo.”

A indústria de tecnologia está bem ciente da ameaça. Mesmo enquanto as empresas correm para desenvolver sistemas generativos de IA, estão a lutar para limitar os danos que estas tecnologias podem causar. Anthropic, Google, Meta e OpenAI anunciaram planos para limitar ou rotular o uso de seus serviços de inteligência artificial relacionados às eleições. Em fevereiro, 20 empresas de tecnologia – incluindo Amazon, Microsoft, TikTok e X – assinaram um compromisso voluntário para evitar que conteúdo enganoso de IA perturbasse a votação.

Isso pode ser um desafio. As empresas frequentemente lançam suas tecnologias como software de “código aberto”, o que significa que qualquer pessoa é livre para usá-las e modificá-las sem restrições. Especialistas dizem que a tecnologia usada para criar deepfakes – resultado de enormes investimentos de muitas das maiores empresas do mundo – sempre superará a tecnologia projetada para detectar desinformação.

Na semana passada, durante entrevista ao The New York Times, Dr. Etzioni mostrou como é fácil criar um deepfake. Usando um serviço de um organização irmã sem fins lucrativos, CivAIque se baseia em ferramentas de IA prontamente disponíveis na Internet para demonstrar os perigos destas tecnologias, ele criou instantaneamente fotos suas na prisão – num lugar onde nunca esteve.

“Quando você se vê sendo enganado, é ainda mais assustador”, disse ele.

Mais tarde, ele gerou uma falsa imagem de si mesmo em uma cama de hospital – o tipo de imagem que ele acha que poderia influenciar uma eleição se fosse aplicada a Biden ou ao ex-presidente Donald J. Trump pouco antes da eleição.

Uma imagem deepfake criada pelo Dr. Etzioni dele mesmo em uma cama de hospital.Crédito…por Oren Etzioni

As ferramentas da TrueMedia são projetadas para detectar falsificações como essas. Mais de uma dúzia de start-ups oferecem tecnologia semelhante.

Mas Etzioni, ao comentar sobre a eficácia da ferramenta de seu grupo, disse que nenhum detector era perfeito porque era movido por probabilidades. Os serviços de detecção de deepfake foram enganados ao declarar que imagens de robôs se beijando e Neandertais gigantes são fotografias reais, levantando preocupações de que tais ferramentas possam prejudicar ainda mais a confiança da sociedade nos fatos e evidências.

Quando Etzioni alimentou as ferramentas da TrueMedia com um conhecido deepfake de Trump sentado em uma varanda com um grupo de jovens negros, eles o rotularam de “altamente suspeito” – seu mais alto nível de confiança. Quando ele carregou outro deepfake conhecido do Sr. Trump com sangue nos dedos, eles não tinham certeza se era real ou falso.

Um deepfake de IA do ex-presidente Donald J. Trump sentado em uma varanda com um grupo de jovens negros foi rotulado como “altamente suspeito” pela ferramenta da TrueMedia.
Mas uma deepfake de Trump com sangue nos dedos foi rotulada como “incerta”.

“Mesmo usando as melhores ferramentas, você não pode ter certeza”, disse ele.

A Comissão Federal de Comunicações proibiu recentemente as chamadas automáticas geradas por IA. Algumas empresas, incluindo OpenAI e Meta, agora estão rotulando imagens geradas por IA com marcas d’água. E os investigadores estão a explorar formas adicionais de separar o real do falso.

A Universidade de Maryland está desenvolvendo um sistema criptográfico baseado em códigos QR para autenticar gravações ao vivo inalteradas. A estudar lançado no mês passado pediu a dezenas de adultos que respirassem, engolissem e pensassem enquanto falavam para que seus padrões de pausa na fala pudessem ser comparados com os ritmos do áudio clonado.

Mas, como muitos outros especialistas, o Dr. Etzioni alerta que as marcas d’água das imagens são facilmente removidas. E embora tenha dedicado sua carreira ao combate aos deepfakes, ele reconhece que as ferramentas de detecção terão dificuldade para superar as novas tecnologias generativas de IA.

Desde que criou o TrueMedia.org, a OpenAI revelou duas novas tecnologias que prometem tornar o seu trabalho ainda mais difícil. Pode-se recriar a voz de uma pessoa a partir de uma gravação de 15 segundos. Outro pode gerar vídeos em movimento total que parecem algo retirado de um filme de Hollywood. A OpenAI ainda não está a partilhar estas ferramentas com o público, pois trabalha para compreender os perigos potenciais.

(O Times processou a OpenAI e a sua parceira, a Microsoft, por alegações de violação de direitos de autor envolvendo sistemas de inteligência artificial que geram texto.)

Em última análise, disse Etzioni, combater o problema exigirá uma cooperação generalizada entre os reguladores governamentais, as empresas que criam tecnologias de IA e os gigantes da tecnologia que controlam os navegadores web e as redes sociais onde a desinformação é espalhada. Ele disse, porém, que a probabilidade de isso acontecer antes das eleições de outono era pequena.

“Estamos tentando dar às pessoas a melhor avaliação técnica do que está à sua frente”, disse ele. “Eles ainda precisam decidir se é real.”

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button