More

    Da mentira da eleição ao GameStop: como impedir que algoritmos de mídia social nos prejudiquem


    A desinformação, mentiras descaradas, teorias da conspiração e movimentos marginais sempre tiveram consequências no mundo real. Fascistas na Itália e na Alemanha, antes um pequeno bando de párias e moscas com chapéus e bigodes engraçados, conseguiram sequestrar os sistemas políticos desses países após a Primeira Guerra Mundial, colocando-os em rota de colisão com as democracias liberais do mundo. Podemos estar nessa encruzilhada mais uma vez.

    Pequenos grupos de entusiastas comprometidos estão usando o poder da mídia social e seus algoritmos para fazer com que suas idéias, de outra forma quixotescas e bizarras, se tornem o mainstream. Esses tipos de movimentos se tornaram mais comuns e sua velocidade aumentou. O caso mais recente: o grupo WallStreetBets do Reddit de merrymen (e mulheres) levando o preço das ações da GameStop para a estratosfera em uma tentativa de espremer fundos de hedge de posições de venda a descoberto. Enquanto o primeiro grupo de pessoas que bombou o estoque o fez sem cumplicidade algorítmica, o frenesi de compras rapidamente se espalhou além de seu círculo, graças à IA selecionando e recomendando histórias, notícias e depoimentos que glamorizaram a campanha populista.

    Os investidores tradicionais já estão se machucando à medida que o valor de mercado da GameStop cai como uma pedra e mais uma vez reflete seu valor contábil. As mentiras espalhadas online sobre a “eleição roubada” reduzirão ainda mais o apelo do Partido Republicano nos subúrbios, tornando menos provável que ele ganhe as eleições presidenciais e enfraquecendo nossa democracia no processo, que depende do equilíbrio fornecido por dois partidos competitivos. Isso se soma ao preço que a Grande Mentira já cobrou, incluindo a rebelião do Capitólio.

    Então, o que fazer com os danos colaterais que às vezes ocorrem quando a mídia social amplifica mentiras e ideias marginais por meio do uso de algoritmos? Até agora, as soluções que legisladores e analistas avançaram são opressivas e, muitas vezes, centradas na proibição total de tecnologia inovadora. Eles correm o risco de agravar a desinformação e as teorias da conspiração.

    O problema da amplificação algorítmica

    Entender por que essas soluções são insuficientes exige que reformulemos o problema em si. Os usuários das redes sociais, tanto os que postam quanto os que os consomem, se beneficiam com a troca de informações – sejam notícias reais que os informam sobre o mundo ou teorias da conspiração que satisfazem suas fantasias e desejos mais básicos. Embora essa interação possa ser relativamente inofensiva para esses indivíduos, ela cria o que os economistas chamam de externalidade negativa. Isso ocorre quando as ações de duas ou mais partes em uma troca econômica criam repercussões prejudiciais que afetam outras pessoas na sociedade. Pense em um protesto ocorrendo na vida real organizado em uma página do Facebook de teóricos da conspiração. A externalidade negativa ocorre quando o protesto se torna violento e resulta em danos materiais e mortes.

    Existem várias maneiras de lidarmos com a minimização de externalidades negativas no mundo real; o mundo digital não é diferente. (Veremos algumas dessas possíveis correções em um momento.)

    Seja qual for a solução definitiva, precisamos primeiro entender o que muitos especialistas em tecnologia afirmam ser a fonte dos danos à sociedade decorrentes da disseminação das mentiras digitais: a amplificação algorítmica. Para maximizar o envolvimento em seus sites, as empresas de mídia social precisam descobrir como compartilhar conteúdo com seus usuários, em vez de colocar sobre eles o ônus de procurá-lo intencionalmente. As plataformas digitais tendem a fazer isso de uma forma que gera mais receitas de anúncios; os anunciantes, por sua vez, buscam mais visualizações e cliques. As plataformas empregam estratégias que mostram aos usuários o conteúdo que eles acharão relevante e interessante, e que serve como uma porta de entrada para mais conteúdo.

    Insira a inteligência artificial (IA): ela seleciona e recomenda conteúdo personalizado para cada usuário (seja postado por conexões de um usuário ou postagens que suas conexões gostam), ou conteúdo postado por pessoas que o usuário segue. A ideia é que os consumidores tenham mais chances de clicar naquele material e compartilhá-lo. Considere o YouTube: embora os padrões da comunidade impeçam seu algoritmo de recomendar o chamado conteúdo limítrofe (por exemplo, mentiras sobre Covid-19), a plataforma foi projetada para envolver os usuários em termos de tempo que passam no site e em geral interação com base no que eles assistem.

    Como o YouTube tende a recomendar vídeos com mais curtidas, comentários e tempos de exibição, ele pode alimentar os usuários com conteúdo mais forte e extremo. Como o conteúdo mais envolvente costuma ser o mais polarizador, sexualizado e, de outra forma, extremo, o algoritmo do YouTube pode recomendar vídeos que glorificam a violência e defendem teorias da conspiração. Uma pessoa pode começar assistindo a um conteúdo “alt-light” questionando a veracidade das eleições de 2020 e, em pouco tempo, ser exposta a vídeos de “extrema direita” elogiando os neo-nazistas. Pode haver radicalização e polarização.

    Por que matar a amplificação algorítmica não é uma solução

    Não é de admirar que algumas pessoas que trabalham no espaço digital apontem para a amplificação algorítmica como o culpado final dos danos produzidos online pelas mídias sociais. Eles, portanto, querem bani-lo, ou pelo menos impor uma moratória. Mas ainda não foi estabelecido que a amplificação algorítmica é de fato a fonte do problema e, mesmo que seja, bani-la seria a solução certa.

    Primeiro, não está claro se a amplificação algorítmica é a causa da disseminação da desinformação / desinformação. As teorias da conspiração precedem de longe as plataformas digitais e a internet; eles são tão antigos quanto a palavra escrita. Políticos que espalharam teorias da conspiração e incitaram a violência por meios modernos incluem Mussolini (rádio / filme), Hitler (rádio / filme), Perón (rádio / televisão), Milosovic (televisão) e o Poder Hutu de Ruanda (rádio). Também aprendemos em 6 de janeiro que, quando os políticos e seus tagalongs fazem discursos na carne, eles também podem espalhar mentiras e inspirar o caos. Sua capacidade de ampliar as teorias da conspiração à moda antiga pode ser mais poderosa do que qualquer algoritmo.

    Além disso, pessoas suscetíveis a acreditar em conspirações também podem ser o tipo de pessoa com maior probabilidade de permanecer em sites como o YouTube por um período mais longo, caso em que pesquisariam ativamente por conteúdo hardcore sem a ajuda de um algoritmo.

    Em segundo lugar, mesmo que a amplificação algorítmica seja responsável pela disseminação de falsidades, não é óbvio que os custos da seleção de conteúdo auxiliada por IA superem seus benefícios. Todos os tipos de empresas que comercializam e vendem seus produtos no Facebook contam com seu algoritmo para capturar os olhos para seus anúncios e direcionar o tráfego para seu site. A proibição ameaça milhões de empregos e a satisfação do consumidor, uma vez que a IA também pode divulgar a verdade e o conteúdo que não é apenas altamente valorizado pelos usuários, mas que é socialmente benéfico.

    Terceiro, sempre há armadilhas não intencionais para banir comportamentos, mesmo quando eles claramente contribuem para o dano social. Tome drogas narcóticas. O tratamento da toxicodependência acarreta custos para a saúde pública, independentemente de as drogas serem legais. Mas há custos adicionais se forem proibidos, desde proibições até violentas guerras territoriais de cartéis.

    Da mesma forma, banir a amplificação algorítmica em sites de mídia convencional criaria incentivos para fornecedores selvagens de teorias da conspiração para evitar a regulamentação, lançando novas plataformas que usariam algoritmos proibidos com abandono imprudente. Isso poderia alimentar mentiras ainda mais fortes por meio da IA, que não seria impedida por padrões e moderação da comunidade. Os viciados em hardcore seguirão seu rastro. Parler e Gab são a prova viva.

    Além disso, não está claro que, mesmo se pudéssemos dizer com certeza que a amplificação algorítmica cria um dano social líquido, a melhor maneira de resolver o problema é por meio de uma proibição. Em vez disso, os formuladores de políticas têm ferramentas adicionais para limitar os “males sociais” que, até onde sabemos, ainda não foram discutidos com relação às grandes tecnologias, mas que podem fornecer melhores soluções.

    Soluções mais promissoras

    Os reguladores podem limitar a quantidade de “mal social” produzido e permitir que o mercado aloque seu uso. Como? Estabelecendo um limite para a quantidade geral de conteúdo impróprio, alocando o direito de distribuí-lo e permitindo que as trocas do mercado decidam quem exerce esse direito. Isso reflete um sistema de limite e comércio que limita as emissões de carbono a uma determinada quantidade e permite que os poluidores negociem as permissões de emissão. Com as plataformas online, isso pode envolver o limite da amplificação algorítmica. Isso permitiria às plataformas de tecnologia que não se importam em pagar caro para comprar “permissões de IA”, mas também poderia incentivar outras plataformas a investir em novas maneiras de selecionar conteúdo – envolvendo mais discrição humana – muito como limitar e negociar em carbono emissões impulsionam a inovação em energia limpa.

    Os formuladores de políticas poderiam, alternativamente, impor um imposto sobre a seleção de conteúdo de IA, aumentando seu custo indiretamente. O “mal social” ficaria mais caro, reduzindo sua quantidade. “Impostos sobre o pecado” sobre as vendas de cigarros têm trabalhado para reduzir o consumo de cigarros por fumantes ocasionais. Esse imposto não apenas atenua os danos aos fumantes individuais que param de fumar, mas também reduz o fumo passivo e os cuidados de saúde mais caros devido a doenças pulmonares.

    Como funcionaria esse imposto? De forma mais simples, taxe cada uso de inteligência artificial que identifica e recomenda conteúdo pelas empresas de mídia social. As plataformas provavelmente repassariam o imposto para seus clientes, seja por meio de um acesso pago ou, mais provavelmente, com anúncios mais caros. Por sua vez, isso incentivará as plataformas de tecnologia a priorizar sugestões de conteúdo feitas por editores que selecionam e recomendam notícias de alta qualidade. Já existe um precedente para isso na forma de um imposto especial de consumo sobre transações financeiras que incide sobre a compra de instrumentos financeiros como ações, títulos e derivativos. E o melhor de tudo é que ele explora a pegada digital dessas transações, o que cria um modelo viável para a Big Tech.

    Os esforços das plataformas digitais para relatar a seleção de conteúdo de IA não precisam ser onerosos. As empresas poderiam rastrear o uso da amplificação algorítmica e enviá-la ao IRS, semelhante aos Impostos sobre Valor Agregado (IVAs) nos países europeus, onde as empresas registram e, por fim, relatam cada transação em uma cadeia de valor às autoridades fiscais (muitas vezes eletronicamente e em reais Tempo). Felizmente, as empresas de mídia social provavelmente já rastreiam o uso da amplificação algorítmica de alguma maneira e auditorias ocasionais do IRS podem mantê-los honestos.

    Finalmente, a dinâmica que traduz a amplificação algorítmica em efeitos negativos do mundo real pode ser semelhante a uma crise de liquidez ou corrida ao banco, onde os efeitos de feedback negativo amplificam a desinformação. Coisas que não são verdadeiras podem receber mais atenção do que aquelas que são. Nesse caso, então, em vez de limite e comércio ou tributação, os melhores instrumentos regulatórios poderiam ser mais próximos daqueles usados ​​pela SEC e pelo Federal Reserve: requisitos para arquivar (algoritmos) antes de serem usados; disjuntores quando a desinformação se torna viral e um depósito de informações centralizado como um “contador da verdade de último recurso”. Pode ser tão simples quanto adotar uma regra segundo a qual, uma vez que um determinado conteúdo atinja algum “limite de compartilhamento”, ele deve estar sujeito à aprovação regulatória antes que as empresas de mídia social possam continuar a recomendá-lo a seus usuários.

    Especialistas jurídicos, legisladores, cidadãos comuns e grandes empresas de tecnologia podem desempenhar um papel no aprimoramento do discurso online. Mas, aconteça o que acontecer com a regulamentação da amplificação algorítmica ou qualquer outra tentativa do governo de influenciar os modelos de negócios e o comportamento das plataformas de tecnologia, é imperativo usar uma abordagem sistemática enraizada no estudo da economia política das externalidades.

    James D. Long é professor associado de ciência política e cofundador do Fórum de Economia Política da Universidade de Washington. Ele hospeda o programa “Nem livre nem justo?” podcast sobre segurança eleitoral e democracia global; ele observou eleições no Quênia, Gana, Afeganistão, Uganda, Egito e África do Sul.

    Victor Menaldo é professor de ciência política, cofundador do Fórum de Economia Política da Universidade de Washington e coautor de “Autoritarismo e as Origens de Elite da Democracia”. Atualmente, ele está escrevendo um livro sobre a “Quarta Revolução Industrial”.

    VentureBeat

    A missão da VentureBeat é ser uma praça da cidade digital para que os tomadores de decisões técnicas obtenham conhecimento sobre a tecnologia transformadora e façam transações. Nosso site oferece informações essenciais sobre tecnologias e estratégias de dados para orientá-lo à medida que lidera suas organizações. Convidamos você a se tornar um membro de nossa comunidade, para acessar:

    • informações atualizadas sobre os assuntos de seu interesse
    • nossas newsletters
    • conteúdo líder de pensamento fechado e acesso com desconto a nossos eventos premiados, como o Transform
    • recursos de rede e muito mais

    Torne-se um membro


    Artigos Recentes

    Daily Crunch: Square adquire Tidal

    A Square compra uma participação majoritária no Tidal de Jay-Z, o WhatsApp melhora seu aplicativo para desktop e Hopin levanta ainda mais fundos....

    Cor da lâmpada Wyze: a única lâmpada inteligente barata que vale a pena por aí

    “É tão bom e barato que talvez você nunca mais volte para a Philips Hue.” Saída realmente brilhante As cores estão muito saturadas Não requer ponte Preço...

    Yield Guild Games permitirá que os jogadores ganhem dinheiro com jogos NFT

    Chegou a hora de ganhar dinheiro com jogos, de acordo com a Yield Guild Games, que arrecadou US...

    UFC PPV: Quanto custa na ESPN +?

    A nova temporada do UFC começou oficialmente com o UFC 259: Blachowicz vs. Adesanya - o terceiro grande evento pay-per-view de 2021 com...

    Artigos Relacionados

    DEIXE UMA RESPOSTA

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui