Em setembro, à medida que aumentavam as especulações sobre o perigo de deepfakes, o Facebook desafiou os assistentes de inteligência artificial a desenvolver técnicas para detectar vídeos de deepfake. Em janeiro, a empresa também proibiu os deepfakes usados para espalhar informações erradas.
O Deepfake Detection Challenge do Facebook, em colaboração com a Microsoft, Amazon Web Services e a Partnership on AI, foi realizado através do Kaggle, uma plataforma para concursos de codificação pertencentes ao Google. Ele forneceu uma vasta coleção de vídeos de troca de face: 100.000 clipes deepfake, criados pelo Facebook usando atores pagos, nos quais os participantes testaram seus algoritmos de detecção. O projeto atraiu mais de 2.000 participantes da indústria e da academia e gerou mais de 35.000 modelos de detecção de deepfake.
O melhor modelo a surgir no concurso detectou deepfakes da coleção do Facebook em 82% das vezes. Mas quando esse algoritmo foi testado em um conjunto de deepfakes anteriormente não vistos, seu desempenho caiu para um pouco mais de 65%.
“Está tudo bem e bom para ajudar moderadores humanos, mas obviamente não está nem perto do nível de precisão que você precisa”, diz Hany Farid, professor da UC Berkeley e autoridade em forense digital, familiarizado com o Facebook- projeto liderado. “Você precisa cometer erros da ordem de um em um bilhão, algo assim.”
Os Deepfakes usam inteligência artificial para enxertar digitalmente o rosto de uma pessoa em outra pessoa, fazendo parecer que ela fez e disse coisas que nunca fez. Por enquanto, a maioria dos deepfakes é bizarra e divertida; alguns apareceram em inteligente anúncios.
A preocupação é que os deepfakes possam algum dia se tornar uma arma particularmente poderosa e potente para desinformação política, discurso de ódio ou assédio, se espalhando viralmente em plataformas como o Facebook. A barra para fazer deepfakes é preocupantemente baixa, com programas simples de apontar e clicar construídos sobre algoritmos de IA já disponíveis gratuitamente.
“Frustrado”
“Fiquei muito frustrado pessoalmente com a quantidade de tempo e energia que os pesquisadores inteligentes estavam dedicando a melhorar os deepfakes”, diz Mike Schroepfer, diretor de tecnologia do Facebook. Ele diz que o desafio teve como objetivo incentivar “o amplo foco da indústria em ferramentas e tecnologias para nos ajudar a detectar essas coisas, para que, se elas estiverem sendo usadas de maneira maliciosa, tenhamos escalado abordagens para combatê-las”.
Schroepfer considera impressionantes os resultados do desafio, já que os participantes tiveram apenas alguns meses. Os deepfakes ainda não são um grande problema, mas Schroepfer diz que é importante estar pronto para o caso de serem armados. “Quero estar realmente preparado para muitas coisas ruins que nunca acontecem, e não o contrário”, diz Schroepfer.
O algoritmo com maior pontuação do desafio deepfake foi escrito por Selim Seferbekov, engenheiro de aprendizado de máquina da Mapbox, que está em Minsk, Bielorrússia; ele ganhou $ 500.000. Seferbekov diz que não está particularmente preocupado com os deepfakes, por enquanto.
“No momento, o uso malicioso é bastante baixo, se houver”, diz Seferbekov. Mas ele suspeita que abordagens aprimoradas de aprendizado de máquina possam mudar isso. “Eles podem ter algum impacto no futuro, o mesmo que as notícias falsas escritas atualmente.” O algoritmo de Seferbekov será de código aberto, para que outros possam usá-lo.
Gato e rato
Capturar deepfakes com IA é como um jogo de gato e rato. Um algoritmo detector pode ser treinado para detectar falhas profundas, mas um algoritmo que gera falsificações pode ser potencialmente treinado para evitar a detecção. Schroepfer diz que isso causou alguma preocupação ao liberar o código do projeto, mas o Facebook concluiu que valia a pena o risco para atrair mais pessoas para o esforço.
O Facebook já usa a tecnologia para detectar automaticamente alguns deepfakes, de acordo com Schroepfer, mas a empresa se recusou a dizer quantos vídeos deepfake foram sinalizados dessa maneira. Parte do problema de automatizar a detecção de deepfakes, diz Schroepfer, é que alguns são simplesmente divertidos, enquanto outros podem causar danos. Em outras palavras, assim como outras formas de desinformação, o contexto é importante. E isso é difícil para uma máquina entender.
Criar um detector deepfake realmente útil pode ser ainda mais difícil do que o concurso sugere, segundo Farid, da UC Berkeley, porque novas técnicas estão surgindo rapidamente e um criador malicioso de deepfake pode trabalhar duro para superar um detector em particular.
Farid questiona o valor desse projeto quando o Facebook parece relutante em policiar o conteúdo que os usuários enviam. “Quando Mark Zuckerberg diz que não somos os árbitros da verdade, por que estamos fazendo isso?” ele pergunta.
Mesmo que a política do Facebook mude, Farid diz que a empresa de mídia social tem desafios mais urgentes de desinformação. “Embora os deepfakes sejam uma ameaça emergente, eu nos incentivaria a não nos distrairmos com eles”, diz Farid. “Ainda não precisamos deles. As coisas simples funcionam.
Esta história apareceu originalmente em wired.com.