More

    Deepfakes podem não ter virado a eleição de 2020 nos EUA, mas seu dia está chegando


    Muitos projetaram que vídeos deepfake desempenhariam um papel importante nas eleições de 2020, com a perspectiva de interferência estrangeira e campanhas de desinformação se aproximando do dia das eleições. No entanto, se houve uma surpresa nas táticas de campanha neste ciclo, é que esses vídeos gerados por IA desempenharam um papel muito menor, pouco mais do que uma participação especial (até agora, pelo menos).

    Vídeos Deepfake são muito mais convincentes hoje devido aos saltos gigantescos no campo das Redes Adversariais Gerativas. São vídeos gerados que são adulterados para alterar a realidade, mostrando acontecimentos ou retratando um discurso que nunca aconteceu. Como as pessoas tendem a dar crédito substancial ao que veem e ouvem, os deepfakes representam um perigo muito real.

    As preocupações sobre deepfakes influenciando as eleições têm borbulhado desde que a tecnologia surgiu há vários anos, mas houve poucos casos de deepfakes nas eleições de 2020 nos EUA ou em eleições globais. Um exemplo é uma falsificação profunda que mostra o ex-vice-presidente Joe Biden mostrando a língua, que foi retuitada pelo presidente. Em outro, o primeiro-ministro da Bélgica apareceu em um vídeo online dizendo que a pandemia COVID-19 estava ligada à “exploração e destruição de nosso ambiente natural pelos humanos”. Exceto que ela não disse isso, era uma mentira profunda.

    Essas foram as exceções. Até agora, os deepfakes políticos têm sido principalmente satíricos e entendidos como falsos. Alguns até foram usados ​​como parte de uma campanha de serviço público para expressar a importância de salvar a democracia.

    Criado para representUS, um grupo de anticorrupção e boa governança sem fins lucrativos e apartidário, por uma agência de publicidade usando tecnologia deepfake.

    A razão de não ter havido mais falsos fundos malévolos com motivação política, planejados para alimentar a opressão, a divisão e a violência é uma questão de conjectura. Um dos motivos pode ser a proibição que algumas plataformas de mídia social colocaram em mídias que foram manipuladas ou fabricadas e consideradas reais. Dito isso, pode ser difícil identificar um deepfake bem feito, e nem todos são detectados. Muitas empresas estão desenvolvendo ferramentas de IA para identificar esses deepfakes, mas ainda precisam estabelecer um método infalível. Uma ferramenta de detecção discutida recentemente afirma 90% de precisão ao analisar as diferenças sutis na cor da pele causadas pelo batimento cardíaco humano.

    Ao mesmo tempo, aqueles que criam deepfakes aprendem com os esforços de detecção publicados e continuam a aprimorar seus recursos para criar vídeos com aparência mais realista. E ferramentas mais avançadas para criar deepfakes também estão proliferando. Por exemplo, desenvolvimentos recentes projetados para melhorar a videoconferência podem ser usados ​​para criar deepfakes mais realistas e evitar a detecção.

    Outra razão pela qual podemos não ter visto mais deepfakes visando eleições é porque os meios tradicionais de falsificação parecem funcionar bem o suficiente por meio de edição seletiva. Não é difícil encontrar um videoclipe real que, por exemplo, mostre um candidato dizendo que aumentará os impostos. Cortar essas frases de efeito do contexto mais amplo do clipe original e redirecioná-las para impulsionar uma agenda é uma prática comum, embora antiética, de persuasão política.

    Também pode ser que mais energia esteja sendo canalizada para projetos que gerem benefícios comerciais mais imediatos, como a criação de imagens de mulheres nuas com base em fotos tiradas das redes sociais.

    Alguns veem o lado positivo dos deepfakes, com usos positivos, eventualmente, reduzindo o estigma associado à tecnologia. Esses usos positivos às vezes são chamados não de deepfakes, mas de “vídeos sintéticos”, embora a tecnologia subjacente seja a mesma. Já existem vídeos de treinamento corporativo sintéticos. E algumas pessoas afirmam que vídeos sintéticos podem ser usados ​​para aprimorar a educação, recriando eventos históricos e personalidades, trazendo figuras históricas de volta à vida para criar uma sala de aula mais envolvente e interativa. E existem os usos apenas para diversão, como transformar uma imagem de Elon Musk em um zumbi.

    Os deepfakes ainda são um problema?

    Em junho deste ano, quase 50.000 deepfakes foram detectados online, um aumento de mais de 330% no decorrer de um ano. Os perigos são reais. Vídeos falsos podem retratar falsamente uma pessoa inocente participando de uma atividade criminosa, mostrar falsamente soldados cometendo atrocidades ou mostrar líderes mundiais declarando guerra a outro país, o que poderia desencadear uma resposta militar muito real.

    Falando em uma recente conferência virtual da Cybertech, o ex-chefe do comando cibernético dos EUA, Maj.-Gen. (aposentado) Brett Williams disse: “inteligência artificial é a coisa real. Já está em uso por invasores. Quando eles aprenderem a fazer deepfakes, eu diria que isso é uma ameaça existencial ”.

    A implicação é que aqueles que usariam deepfakes como parte de um ataque online ainda não dominaram a tecnologia, ou pelo menos não como evitar qualquer migalha de pão que levaria de volta ao perpetrador. Talvez essas também sejam as razões mais convincentes – falta de tecnologia madura e medo de a fonte ser descoberta – pelas quais não vimos falsificações mais graves nas campanhas políticas atuais.

    Um relatório recente do Center for Security and Emerging Technology ecoa essa observação. Entre as principais conclusões do relatório, “fatores como a necessidade de evitar a atribuição, o tempo necessário para treinar um modelo de aprendizado de máquina e a disponibilidade de dados restringirão como os atores sofisticados usam deepfakes personalizados na prática”. O relatório conclui que deepfakes personalizados produzidos por atores tecnicamente sofisticados representarão uma ameaça maior no futuro.

    Mesmo que os deepfakes não tenham desempenhado um papel significativo nesta eleição, é provável que seja apenas uma questão de tempo antes que eles afetem as eleições, subvertam a democracia e talvez levem a engajamentos militares.

    Gary Grossman é o vice-presidente sênior de prática de tecnologia da Edelman e líder global do Edelman AI Center of Excellence.


    Como as startups estão escalando a comunicação:

    A pandemia está fazendo com que as startups analisem de perto o desenvolvimento de suas soluções de comunicação. Aprenda como



    Artigos Recentes

    Tratando seu estresse com tecnologia de IA

    Ansiedade, estresse, pensamento excessivo e trauma são palavras comumente usadas para descrever pessoas que sofrem de transtornos mentais que surgem por sobrecarga de...

    Guia de presentes: 5 presentes de tecnologia sólida para ajudar a diminuir o estresse e aumentar o sono

    Bem-vindo ao Guia de Presentes de Natal 2020 do TechCrunch! Precisa de ajuda com ideias para presentes? Nós estamos aqui para...

    Supercell investe $ 2,8 milhões na 2Up, um estúdio cooperativo de jogos móveis

    A Supercell está investindo $ 2,8 milhões no estúdio de jogos da Nova Zelândia 2Up Games, que está trabalhando em um jogo móvel...

    Como a Internet of Medical Things está melhorando os cuidados de saúde para pacientes e profissionais

    A esfera médica está passando por uma rápida transformação com a introdução de soluções tecnológicas conectadas. Conhecido como Internet of Medical Things...

    Pesquisadores da UC Berkeley detectam ‘fala silenciosa’ com eletrodos e IA

    Os pesquisadores da UC Berkeley dizem que são os primeiros a treinar IA usando palavras silenciosas e sensores que coletam...

    Artigos Relacionados

    DEIXE UMA RESPOSTA

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui