O ciclo de notícias desta semana pareceu agarrar as pessoas pelo colarinho e sacudi-las violentamente. Na quarta-feira, Palantir foi a público. A empresa secreta com ligações com os militares, agências de espionagem e ICE depende de contratos governamentais e tem a intenção de acumular dados e contratos mais confidenciais nos Estados Unidos e no exterior.
Após uma blitz de vigilância como serviço na semana passada, a Amazon lançou o Amazon One, que permite varreduras biométricas sem toque das palmas das mãos para a Amazon ou clientes terceirizados. A empresa afirma que os exames de palma são menos invasivos do que outras formas de identificadores biométricos, como o reconhecimento facial.
Na tarde de quinta-feira, no curto intervalo entre um debate presidencial descontrolado e a revelação de que o presidente e sua esposa haviam contratado COVID-19, o Twitter compartilhou mais detalhes sobre como criou IA que parece preferir rostos brancos a negros . Em um postagem do blog, O diretor de tecnologia do Twitter, Parag Agrawal, e o diretor de design Dantley Davis chamaram de “um descuido” o fracasso em publicar a análise de viés ao mesmo tempo que o lançamento do algoritmo. Os executivos do Twitter compartilharam detalhes adicionais sobre uma avaliação de preconceito que ocorreu em 2017, e o Twitter diz que está trabalhando para deixar de usar algoritmos de saliência. Quando o problema inicialmente recebeu atenção, Davis disse que o Twitter consideraria se livrar completamente do corte de imagens.
Ainda há perguntas sem resposta sobre como o Twitter usou seu algoritmo de saliência e, de certa forma, a postagem no blog compartilhada na noite de quinta-feira traz mais perguntas do que respostas. A postagem do blog afirma simultaneamente que nenhuma IA pode ser completamente livre de preconceitos e que a análise do Twitter de seu algoritmo de saliência não mostrou preconceito racial ou de gênero. Um engenheiro do Twitter disse que algumas evidências de preconceito foram encontradas durante a avaliação inicial.
O Twitter também continua a não compartilhar nenhum dos resultados de uma avaliação de 2017 para preconceito de gênero e raça. Em vez disso, um porta-voz do Twitter disse à VentureBeat que mais detalhes serão divulgados nas próximas semanas, a mesma resposta que a empresa teve quando o aparente viés veio à tona.
O Twitter não parece ter uma política oficial para avaliar algoritmos de parcialidade antes da implantação, algo que grupos de direitos civis instaram o Facebook a desenvolver neste verão. Não está claro se o episódio do algoritmo de saliência levará a alguma mudança duradoura na política do Twitter, mas o que torna o escândalo ainda pior é que muitas pessoas não sabiam que a inteligência artificial estava em uso.
Isso tudo nos leva a outro evento que aconteceu no início desta semana: as cidades de Amsterdã e Helsinque implementaram registros de algoritmos. Ambas as cidades têm apenas alguns algoritmos listados até agora e planejam fazer mais alterações, mas o registro lista os conjuntos de dados usados para treinar um algoritmo, como os modelos são usados e como eles foram avaliados quanto a viés ou risco. O objetivo, disse um funcionário da cidade de Helsinque, é promover a transparência para que o público possa confiar nos resultados dos algoritmos usados pelos governos municipais. Se eles tiverem dúvidas ou preocupações, o registro lista o nome e as informações de contato do departamento municipal e do oficial responsável pela implantação do algoritmo.
Quando você volta e observa como as empresas posicionadas para lucrar com vigilância e plataformas de mídia social se comportam, um elemento comum é a falta de transparência. Uma solução potencialmente útil poderia ser seguir o exemplo de Amsterdã e Helsinque e criar registros de algoritmos para que os usuários saibam quando a inteligência da máquina está em uso. Para os consumidores, isso pode ajudá-los a entender como as plataformas de mídia social personalizam o conteúdo e influenciam o que você vê. Para os cidadãos, pode ajudar as pessoas a entender quando uma agência governamental está tomando decisões usando IA, útil em um momento em que mais pessoas parecem preparadas para fazê-lo.
Se as empresas tivessem que cumprir uma regulamentação que exigia o registro de algoritmos, os pesquisadores e membros do público poderiam conhecer o algoritmo do Twitter sem a necessidade de executar seus próprios testes. Foi encorajador que o algoritmo de saliência tenha inspirado muitas pessoas a conduzir seus próprios testes, e parece saudável para os usuários avaliarem o viés por si próprios, mas não precisava ser tão difícil. Embora os registros de IA possam aumentar o escrutínio, esse escrutínio pode levar a uma IA mais robusta e justa no mundo, garantindo que a pessoa média possa responsabilizar as empresas e governos pelos algoritmos que usam.
Para cobertura de IA, envie dicas de notícias para Khari Johnson e Kyle Wiggers e editor de IA, Seth Colaner – e certifique-se de assinar o boletim informativo semanal AI e marcar nosso AI Channel.
Obrigado por ler,
Khari Johnson
Escritor sênior da equipe de IA