More

    AI Weekly: Palantir, Twitter e construção da confiança pública no processo de design de IA


    O ciclo de notícias desta semana pareceu agarrar as pessoas pelo colarinho e sacudi-las violentamente. Na quarta-feira, Palantir foi a público. A empresa secreta com ligações com os militares, agências de espionagem e ICE depende de contratos governamentais e tem a intenção de acumular dados e contratos mais confidenciais nos Estados Unidos e no exterior.

    Após uma blitz de vigilância como serviço na semana passada, a Amazon lançou o Amazon One, que permite varreduras biométricas sem toque das palmas das mãos para a Amazon ou clientes terceirizados. A empresa afirma que os exames de palma são menos invasivos do que outras formas de identificadores biométricos, como o reconhecimento facial.

    Na tarde de quinta-feira, no curto intervalo entre um debate presidencial descontrolado e a revelação de que o presidente e sua esposa haviam contratado COVID-19, o Twitter compartilhou mais detalhes sobre como criou IA que parece preferir rostos brancos a negros . Em um postagem do blog, O diretor de tecnologia do Twitter, Parag Agrawal, e o diretor de design Dantley Davis chamaram de “um descuido” o fracasso em publicar a análise de viés ao mesmo tempo que o lançamento do algoritmo. Os executivos do Twitter compartilharam detalhes adicionais sobre uma avaliação de preconceito que ocorreu em 2017, e o Twitter diz que está trabalhando para deixar de usar algoritmos de saliência. Quando o problema inicialmente recebeu atenção, Davis disse que o Twitter consideraria se livrar completamente do corte de imagens.

    Ainda há perguntas sem resposta sobre como o Twitter usou seu algoritmo de saliência e, de certa forma, a postagem no blog compartilhada na noite de quinta-feira traz mais perguntas do que respostas. A postagem do blog afirma simultaneamente que nenhuma IA pode ser completamente livre de preconceitos e que a análise do Twitter de seu algoritmo de saliência não mostrou preconceito racial ou de gênero. Um engenheiro do Twitter disse que algumas evidências de preconceito foram encontradas durante a avaliação inicial.

    O Twitter também continua a não compartilhar nenhum dos resultados de uma avaliação de 2017 para preconceito de gênero e raça. Em vez disso, um porta-voz do Twitter disse à VentureBeat que mais detalhes serão divulgados nas próximas semanas, a mesma resposta que a empresa teve quando o aparente viés veio à tona.

    O Twitter não parece ter uma política oficial para avaliar algoritmos de parcialidade antes da implantação, algo que grupos de direitos civis instaram o Facebook a desenvolver neste verão. Não está claro se o episódio do algoritmo de saliência levará a alguma mudança duradoura na política do Twitter, mas o que torna o escândalo ainda pior é que muitas pessoas não sabiam que a inteligência artificial estava em uso.

    Isso tudo nos leva a outro evento que aconteceu no início desta semana: as cidades de Amsterdã e Helsinque implementaram registros de algoritmos. Ambas as cidades têm apenas alguns algoritmos listados até agora e planejam fazer mais alterações, mas o registro lista os conjuntos de dados usados ​​para treinar um algoritmo, como os modelos são usados ​​e como eles foram avaliados quanto a viés ou risco. O objetivo, disse um funcionário da cidade de Helsinque, é promover a transparência para que o público possa confiar nos resultados dos algoritmos usados ​​pelos governos municipais. Se eles tiverem dúvidas ou preocupações, o registro lista o nome e as informações de contato do departamento municipal e do oficial responsável pela implantação do algoritmo.

    Quando você volta e observa como as empresas posicionadas para lucrar com vigilância e plataformas de mídia social se comportam, um elemento comum é a falta de transparência. Uma solução potencialmente útil poderia ser seguir o exemplo de Amsterdã e Helsinque e criar registros de algoritmos para que os usuários saibam quando a inteligência da máquina está em uso. Para os consumidores, isso pode ajudá-los a entender como as plataformas de mídia social personalizam o conteúdo e influenciam o que você vê. Para os cidadãos, pode ajudar as pessoas a entender quando uma agência governamental está tomando decisões usando IA, útil em um momento em que mais pessoas parecem preparadas para fazê-lo.

    Se as empresas tivessem que cumprir uma regulamentação que exigia o registro de algoritmos, os pesquisadores e membros do público poderiam conhecer o algoritmo do Twitter sem a necessidade de executar seus próprios testes. Foi encorajador que o algoritmo de saliência tenha inspirado muitas pessoas a conduzir seus próprios testes, e parece saudável para os usuários avaliarem o viés por si próprios, mas não precisava ser tão difícil. Embora os registros de IA possam aumentar o escrutínio, esse escrutínio pode levar a uma IA mais robusta e justa no mundo, garantindo que a pessoa média possa responsabilizar as empresas e governos pelos algoritmos que usam.

    Para cobertura de IA, envie dicas de notícias para Khari Johnson e Kyle Wiggers e editor de IA, Seth Colaner – e certifique-se de assinar o boletim informativo semanal AI e marcar nosso AI Channel.

    Obrigado por ler,

    Khari Johnson

    Escritor sênior da equipe de IA




    Artigos Recentes

    O ex-executivo da EA Peter Moore retorna aos jogos como vice-presidente sênior de esportes e entretenimento ao vivo da Unity

    Peter Moore deixou sua marca nos videogames como um dos chefes da Electronic Arts, Microsoft Xbox e Sega of America....

    Rival Peak reality show interativo atinge 22 milhões de visualizações

    O reality show interativo semelhante a um jogo Pico Rival se tornou um sucesso no Facebook, com mais de 22 milhões de visualizações...

    Primeiros passos de Biden como presidente: Ação contra a cobiça e o clima

    Uma enxurrada de ordens executivas deve ocorrer nos próximos dias, do novo presidente dos Estados Unidos, quando ele passar a residir na Casa...

    Brave navegador da web adiciona suporte nativo para protocolo IPFS ponto a ponto

    A comunidade descentralizada de tecnologia tem como objetivo encontrar suporte para tecnologias que vão além do suporte à criptomoeda. Em uma postagem de blog...

    Uma analogia de tipos de aplicativos móveis e qual é a mais adequada para sua empresa

    Aplicativos ou aplicativos tornaram-se parte de nossas vidas diárias na última década. Aplicativos são programas ou softwares executados (geralmente) em dispositivos inteligentes...

    Artigos Relacionados

    DEIXE UMA RESPOSTA

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui