More

    O Google disse a seus cientistas pesquisadores de IA que ‘adotassem um tom positivo’ em tópicos sensíveis


    (Reuters) – O Google da Alphabet este ano agiu para aumentar o controle sobre os trabalhos de seus cientistas, lançando uma análise de “tópicos sensíveis” e, em pelo menos três casos, solicitou que os autores se abstivessem de lançar sua tecnologia em uma luz negativa, de acordo com comunicações internas e entrevistas pesquisadores envolvidos no trabalho.

    O novo procedimento de revisão do Google pede que os pesquisadores consultem as equipes jurídicas, de política e de relações públicas antes de abordar tópicos como análise de rosto e sentimento e categorizações de raça, gênero ou afiliação política, de acordo com páginas internas que explicam a política.

    “Os avanços na tecnologia e a crescente complexidade de nosso ambiente externo estão levando cada vez mais a situações em que projetos aparentemente inofensivos levantam questões éticas, de reputação, regulatórias ou legais”, declarou uma das páginas para a equipe de pesquisa. A Reuters não conseguiu determinar a data da postagem, embora três funcionários atuais tenham afirmado que a política começou em junho.

    O Google se recusou a comentar esta história.

    O processo de “tópicos delicados” adiciona uma rodada de escrutínio à revisão padrão de documentos do Google para armadilhas como a divulgação de segredos comerciais, disseram oito funcionários atuais e ex-funcionários.

    Para alguns projetos, funcionários do Google intervieram em estágios posteriores. Um gerente sênior do Google, revisando um estudo sobre tecnologia de recomendação de conteúdo pouco antes da publicação neste verão, disse aos autores para “tomarem muito cuidado para criar um tom positivo”, de acordo com correspondência interna lida à Reuters.

    O gerente acrescentou: “Isso não significa que devemos nos esconder dos desafios reais” apresentados pelo software.

    A correspondência subsequente de um pesquisador para os revisores mostra os autores “atualizados para remover todas as referências aos produtos do Google”. Um rascunho visto pela Reuters mencionava o YouTube, de propriedade do Google.

    Quatro pesquisadores da equipe, incluindo a cientista sênior Margaret Mitchell, disseram acreditar que o Google está começando a interferir em estudos cruciais de potenciais danos à tecnologia.

    “Se estivermos pesquisando o que é apropriado devido à nossa experiência e não tivermos permissão para publicar isso por motivos que não estão de acordo com a revisão por pares de alta qualidade, estaremos enfrentando um sério problema de censura”, disse Mitchell.

    O Google afirma em seu site voltado para o público que seus cientistas têm liberdade “substancial”.

    As tensões entre o Google e alguns de seus funcionários surgiram neste mês após a saída abrupta do cientista Timnit Gebru, que liderou uma equipe de 12 pessoas com Mitchell focada na ética em software de inteligência artificial (IA).

    Gebru diz que o Google a demitiu depois que ela questionou uma ordem de não publicação de pesquisas alegando que a IA que imita a fala poderia prejudicar populações marginalizadas. O Google disse que aceitou e acelerou sua renúncia. Não foi possível determinar se o artigo de Gebru passou por uma revisão de “tópicos sensíveis”.

    O vice-presidente sênior do Google, Jeff Dean, disse em um comunicado este mês que o artigo de Gebru abordou os danos potenciais, sem discutir os esforços em andamento para resolvê-los.

    Dean acrescentou que o Google apóia a bolsa de estudos de ética em IA e está “trabalhando ativamente para melhorar nossos processos de revisão de papel, porque sabemos que muitas verificações e balanços podem se tornar complicados”.

    ‘Tópicos sensíveis’

    A explosão na pesquisa e no desenvolvimento de IA em toda a indústria de tecnologia levou as autoridades nos Estados Unidos e em outros lugares a propor regras para seu uso. Alguns citaram estudos científicos que mostram que o software de análise facial e outras IA podem perpetuar preconceitos ou corroer a privacidade.

    Nos últimos anos, o Google incorporou IA em todos os seus serviços, usando a tecnologia para interpretar consultas de pesquisa complexas, decidir recomendações no YouTube e completar automaticamente frases no Gmail. Seus pesquisadores publicaram mais de 200 artigos no ano passado sobre o desenvolvimento de IA de maneira responsável, entre mais de 1.000 projetos no total, disse Dean.

    Estudar os serviços do Google para preconceitos está entre os “tópicos sensíveis” da nova política da empresa, de acordo com uma página interna da web. Entre dezenas de outros “tópicos sensíveis” listados estão a indústria do petróleo, China, Irã, Israel, COVID-19, segurança residencial, seguro, dados de localização, religião, veículos autônomos, telecomunicações e sistemas que recomendam ou personalizam conteúdo da web.

    O artigo do Google para o qual os autores foram instruídos a adotar um tom positivo discute a recomendação de IA, que serviços como o YouTube empregam para personalizar os feeds de conteúdo dos usuários. Um rascunho revisado pela Reuters incluía “preocupações” de que essa tecnologia pudesse promover “desinformação, resultados discriminatórios ou de outra forma injustos” e “diversidade insuficiente de conteúdo”, além de levar à “polarização política”.

    A publicação final, em vez disso, afirma que os sistemas podem promover “informações precisas, justiça e diversidade de conteúdo”. A versão publicada, intitulada “Para que você está otimizando? Alinhando sistemas de recomendação com valores humanos ”, omitiu o crédito aos pesquisadores do Google. A Reuters não conseguiu determinar por quê.

    Um artigo este mês sobre IA para entender uma língua estrangeira suavizou uma referência a como o produto Google Translate estava cometendo erros após um pedido de revisores da empresa, disse uma fonte. A versão publicada diz que os autores usaram o Google Translate, e uma frase separada diz que parte do método de pesquisa era “revisar e corrigir traduções imprecisas”.

    Em um artigo publicado na semana passada, um funcionário do Google descreveu o processo como um “longo curso”, envolvendo mais de 100 trocas de e-mail entre pesquisadores e revisores, de acordo com correspondência interna.

    Os pesquisadores descobriram que a IA pode fornecer dados pessoais e material protegido por direitos autorais – incluindo uma página de um Harry Potter romance – que foi retirado da Internet para desenvolver o sistema.

    Um rascunho descreveu como tais divulgações poderiam infringir direitos autorais ou violar a lei de privacidade europeia, disse uma pessoa familiarizada com o assunto. Após análises da empresa, os autores removeram os riscos legais e o Google publicou o artigo.

    (Reportagem de Paresh Dave e Jeffrey Dastin. Edição de Jonathan Weber e Edward Tobin.)

    VentureBeat

    A missão da VentureBeat é ser uma cidade quadrada digital para que os tomadores de decisões técnicas obtenham conhecimento sobre a tecnologia transformadora e façam transações. Nosso site oferece informações essenciais sobre tecnologias e estratégias de dados para guiá-lo à medida que lidera suas organizações. Convidamos você a se tornar um membro de nossa comunidade, para acessar:

    • informações atualizadas sobre os assuntos de seu interesse,
    • nossas newsletters
    • conteúdo líder de pensamento fechado e acesso com desconto a nossos eventos premiados, como o Transform
    • recursos de rede e muito mais.

    Torne-se um membro


    Artigos Recentes

    Tendências de programação de funcionários que merecem continuar mesmo depois da pandemia

    Já se passou muito tempo desde que você poderia supor que a maioria de sua equipe está nisso das 9 às 5. A...

    Qual é o futuro do RH?

    Os departamentos de recursos humanos (RH) sempre foram essenciais para o sucesso organizacional e provavelmente continuarão assim nas próximas décadas. Mas a...

    Artigos Relacionados

    DEIXE UMA RESPOSTA

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui