More

    Google parte com pesquisador de IA após bloqueio de papel, enfrenta reação adversa


    Prolongar / Timnit Gebru, ex-cientista do Google AI Research, fala no palco durante o dia 3 do TechCrunch Disrupt SF 2018 no Moscone Center em 7 de setembro de 2018 em San Francisco, Califórnia.

    Kimberly White | Getty Images

    O Google lutou na quinta-feira para limitar as consequências da saída de um importante pesquisador de inteligência artificial depois que o grupo da Internet bloqueou a publicação de um artigo sobre uma importante questão de ética da IA.

    Timnit Gebru, que era co-diretora de ética da IA ​​no Google, disse no Twitter que foi demitida depois que o artigo foi rejeitado.

    Jeff Dean, chefe de IA do Google, defendeu a decisão em um e-mail interno para a equipe na quinta-feira, dizendo que o jornal “não atendeu ao nosso limite para publicação”. Ele também descreveu a saída de Gebru como uma renúncia em resposta à recusa do Google em conceder as condições não especificadas que ela havia estabelecido para permanecer na empresa.

    A disputa ameaçou lançar uma luz dura sobre a forma como o Google lida com pesquisas internas de IA que podem prejudicar seus negócios, bem como as dificuldades de longa data da empresa em tentar diversificar sua força de trabalho.

    Antes de sair, Gebru reclamou em um e-mail para colegas de trabalho que havia “responsabilidade zero” dentro do Google em torno das afirmações da empresa de que quer aumentar a proporção de mulheres em suas fileiras. O e-mail, publicado pela primeira vez no Platformer, também descreveu a decisão de bloquear seu artigo como parte de um processo de “silenciar vozes marginalizadas”.

    Uma pessoa que trabalhou de perto com Gebru disse que houve tensões com a administração do Google no passado por causa de seu ativismo em promover uma maior diversidade. Mas a causa imediata de sua saída foi a decisão da empresa de não permitir a publicação de um artigo de pesquisa de sua co-autoria, acrescentou a pessoa.

    O artigo analisou o viés potencial em modelos de linguagem em grande escala, um dos mais novos campos de pesquisa em linguagem natural. Sistemas como o GPT-3 da OpenAI e o próprio sistema do Google, Bert, tentam prever a próxima palavra em qualquer frase ou sentença – um método que tem sido usado para produzir uma escrita automatizada surpreendentemente eficaz e que o Google usa para entender melhor consultas de pesquisa complexas.

    Os modelos de linguagem são treinados em grandes quantidades de texto, geralmente retirados da Internet, o que gerou avisos de que eles poderiam regurgitar preconceitos raciais e outros que estão contidos no material de treinamento subjacente.

    “Do lado de fora, parece que alguém no Google decidiu que isso era prejudicial aos seus interesses”, disse Emily Bender, professora de lingüística computacional da Universidade de Washington, co-autora do artigo.

    “A liberdade acadêmica é muito importante – há riscos quando [research] está ocorrendo em lugares que [don’t] tenham essa liberdade acadêmica ”, dando a empresas ou governos o poder de“ encerrar ”pesquisas que não aprovam, acrescentou ela.

    Bender disse que os autores esperavam atualizar o artigo com pesquisas mais recentes a tempo para que fosse aceito na conferência para a qual já havia sido submetido. Mas ela acrescentou que é comum que esse tipo de trabalho seja substituído por pesquisas mais recentes, dada a rapidez com que o trabalho em campos como este está progredindo. “Na literatura de pesquisa, nenhum artigo é perfeito.”

    Julien Cornebise, um ex-pesquisador de IA da DeepMind, grupo de IA com sede em Londres de propriedade do pai do Google, Alphabet, disse que a disputa “mostra os riscos de ter IA e pesquisa de aprendizado de máquina concentrada nas mãos de poderosos atores da indústria permite a censura do campo ao decidir o que é publicado ou não. ”

    Ele acrescentou que Gebru era “extremamente talentosa – precisamos de pesquisadores do calibre dela, sem filtros, nessas questões”. Gebru não respondeu imediatamente aos pedidos de comentário.

    Dean disse que o artigo, escrito com três outros pesquisadores do Google, bem como colaboradores externos, “não levou em consideração pesquisas recentes para mitigar” o risco de parcialidade. Ele acrescentou que o artigo “falava sobre o impacto ambiental de grandes modelos, mas desconsiderava pesquisas subsequentes que mostravam eficiências muito maiores”.

    © 2020 The Financial Times Ltd. Todos os direitos reservados Não deve ser redistribuído, copiado ou modificado de nenhuma forma.


    Artigos Recentes

    As lutas de transformação da IBM continuam com a receita de nuvem e IA caindo 4,5%

    Há alguns meses, na conferência Transform da CNBC, o CEO da IBM, Arvind Krishna, pintou o quadro de uma empresa em meio a...

    AirPods x AirPods Max

    A Apple já percorreu um longo caminho desde que incluiu pela primeira vez seus fones de ouvido redondos tradicionais na caixa do iPod...

    O ex-executivo da EA Peter Moore retorna aos jogos como vice-presidente sênior de esportes e entretenimento ao vivo da Unity

    Peter Moore deixou sua marca nos videogames como um dos chefes da Electronic Arts, Microsoft Xbox e Sega of America....

    Rival Peak reality show interativo atinge 22 milhões de visualizações

    O reality show interativo semelhante a um jogo Pico Rival se tornou um sucesso no Facebook, com mais de 22 milhões de visualizações...

    Artigos Relacionados

    DEIXE UMA RESPOSTA

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui