More

    IA ética não é o mesmo que IA confiável, e isso importa


    Soluções de inteligência artificial (IA) estão enfrentando maior escrutínio devido à sua aptidão para amplificar decisões boas e más. Mais especificamente, por sua propensão a expor e aumentar os preconceitos e desigualdades sociais existentes. É justo, então, que as discussões sobre ética ocupem o centro do palco à medida que aumenta a adoção de IA.

    Em sintonia com a ética, vem o tópico da confiança. A ética é a regra que orienta as decisões que tomamos e as ações que realizamos. Essas regras de conduta refletem nossas crenças básicas sobre o que é certo e justo. A confiança, por outro lado, reflete nossa crença de que outra pessoa – ou empresa – é confiável, tem integridade e se comportará da maneira que esperamos. Ética e confiança são conceitos distintos, mas muitas vezes se reforçam mutuamente.

    Então, uma solução ética de IA é inerentemente confiável?

    Contexto como um determinante de confiança

    Certamente, sistemas antiéticos criam desconfiança. Isso não significa, no entanto, que um sistema ético será categoricamente confiável. Para complicar ainda mais as coisas, não confiar em um sistema não significa que ele não será usado.

    Os recursos que sustentam as soluções de IA – aprendizado de máquina, aprendizado profundo, visão computacional e processamento de linguagem natural – não são éticos ou antiéticos, confiáveis ​​ou não confiáveis. É o contexto em que são aplicados que importa.

    Por exemplo, usando o gerador de texto GPT-3 lançado recentemente pela OpenAI, a IA pode ser usada para escrever comentários sociais ou receitas. O espectro de algoritmos de IA gerando propaganda levanta preocupações imediatas. A escala em que um especialista em IA pode ser implantado para espalhar desinformação ou simplesmente influenciar as opiniões de leitores humanos que podem não perceber a origem do conteúdo torna isso antiético e indigno de confiança. Isso é verdade mesmo se (e este é um grande se) o especialista em IA consiga não cair na armadilha e adotar o racismo, o sexismo e outras perspectivas desagradáveis ​​que predominam nas mídias sociais hoje.

    Do outro lado do espectro, eu suspeito que o cozinheiro empreendedor conduzindo este experimento de IA que resultou em um biscoito de melancia não estava muito preocupado com as implicações éticas de uma receita gerada por máquina – mas também entrou na cozinha com um ceticismo saudável. A confiança, neste caso, vem após a verificação.

    A confiança do consumidor é intencional

    Vários anos atrás, a SAS (da qual sou consultor) pediu aos participantes da pesquisa que avaliassem seu nível de conforto com IA em várias aplicações, de assistência médica a varejo. Nenhuma informação foi fornecida sobre como o algoritmo de IA seria treinado ou como se esperava que funcionasse, etc. Curiosamente, os entrevistados indicaram que confiavam em IA para realizar cirurgia robótica mais do que em IA para verificar seus créditos. Os resultados inicialmente pareceram contra-intuitivos. Afinal, a cirurgia é uma questão de vida ou morte.

    No entanto, não é apenas a aplicação proposta, mas a intenção percebida que influencia a confiança. Nas aplicações médicas, há uma crença implícita (esperança?) De que todos os envolvidos são motivados a preservar a vida. Com crédito ou seguro, entende-se que o processo consiste tanto em eliminar as pessoas quanto em recebê-las. Da perspectiva do consumidor, o potencial e o incentivo para que a solução crie um resultado negativo é fundamental. Um aplicativo de IA que nega desproporcionalmente termos de crédito favoráveis ​​às minorias é antiético e não confiável. Mas uma aplicação perfeitamente imparcial que dispensa condições de crédito desfavoráveis ​​igualmente gerará suspeitas, éticas ou não.

    Da mesma forma, é improvável que um algoritmo de IA para determinar a disposição de estoque não perecível envelhecido toque quaisquer alarmes éticos. Mas o gerente da loja seguirá as recomendações do algoritmo? A resposta a essa pergunta está em quão estreitamente os resultados do sistema se alinham com os objetivos do ser humano. O que acontece quando o aplicativo de IA recomenda uma ação (por exemplo, jogar o estoque fora) em desacordo com o incentivo do funcionário (por exemplo, maximizar as vendas – mesmo com desconto)? Nesse caso, a confiança requer mais do que apenas IA ética; também requer ajustes no plano de remuneração do administrador, entre outros.

    Delineando a ética da confiança

    Em última análise, a ética pode determinar se uma determinada solução de IA vê a luz do dia. A confiança determinará sua adoção e valor realizado.

    Dito isso, as pessoas estão estranhamente dispostas a confiar com relativamente pouco incentivo. Isso é verdade mesmo quando os riscos são maiores do que um biscoito de melancia gelatinosa. Mas, independentemente do que está em jogo, a confiança, uma vez perdida, é difícil de reconquistar. Chega de tentar uma receita sem ver críticas positivas – de preferência de alguém em quem você confia. Sem mencionar que chefs decepcionados dirão às pessoas que confiam neles para não confiarem em você, às vezes no noticiário. É por isso que não tentarei nenhuma receita de autoria de IA tão cedo.

    Bolinhos de melancia à parte, quais são as apostas para as organizações que buscam adotar a IA? De acordo com um estudo da Capgemini de 2019, a grande maioria dos consumidores, funcionários e cidadãos desejam mais transparência quando um serviço é alimentado por IA (75%) e saber se a IA os está tratando de maneira justa (73%). Eles compartilharão experiências positivas (61%), serão mais leais (59%) e comprarão mais (55%) de empresas em que confiam para operar a IA de maneira ética e justa. Por outro lado, 34% deixarão de interagir com uma empresa que consideram não confiável. Junte isso a um estudo de maio de 2020 no qual menos de um terço (30%) dos entrevistados se sentiam confortáveis ​​com as empresas usando IA para interagir com eles e os riscos são claros. Os líderes devem construir sistemas de IA – e empresas – que sejam confiáveis ​​e confiáveis. Há mais nisso do que uma lista de verificação de ética. As empresas de sucesso terão uma estratégia para alcançar ambos.

    Kimberly Nevala é Conselheira Estratégica de AI na SAS, onde sua função abrange pesquisa de mercado e indústria, desenvolvimento de conteúdo e aconselhamento para clientes e clientes em potencial da F500 SAS.


    Artigos Recentes

    Tendências de programação de funcionários que merecem continuar mesmo depois da pandemia

    Já se passou muito tempo desde que você poderia supor que a maioria de sua equipe está nisso das 9 às 5. A...

    Qual é o futuro do RH?

    Os departamentos de recursos humanos (RH) sempre foram essenciais para o sucesso organizacional e provavelmente continuarão assim nas próximas décadas. Mas a...

    Artigos Relacionados

    DEIXE UMA RESPOSTA

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui