Tanto no Oriente como no Ocidente, as pessoas precisam compartilhar suas idéias e considerar as dos outros para enriquecer suas próprias perspectivas. Como o desenvolvimento e o uso da IA se estendem por todo o globo, a maneira como pensamos sobre isso deve ser informada por todas as principais tradições intelectuais.
Com isso em mente, acredito que os insights derivados do ensino budista podem beneficiar qualquer pessoa que trabalhe com a ética da IA em qualquer lugar do mundo, e não apenas nas culturas tradicionalmente budistas (que estão principalmente no Oriente e principalmente no Sudeste Asiático).
O budismo propõe uma forma de pensar sobre a ética com base no pressuposto de que todos os seres sencientes desejam evitar a dor. Assim, o Buda ensina que uma ação é boa se conduz à libertação do sofrimento.
A implicação desse ensino para a inteligência artificial é que qualquer uso ético da IA deve se esforçar para diminuir a dor e o sofrimento. Em outras palavras, por exemplo, a tecnologia de reconhecimento facial deve ser usada apenas se puder ser comprovada a redução do sofrimento ou promoção do bem-estar. Além disso, o objetivo deve ser reduzir o sofrimento para todos – não apenas para aqueles que interagem diretamente com a IA.
É claro que podemos interpretar essa meta de forma ampla para incluir consertar um sistema ou processo que seja insatisfatório ou mudar qualquer situação para melhor. Usar a tecnologia para discriminar as pessoas ou para vigiá-las e reprimi-las seria claramente antiético. Quando há áreas cinzentas ou a natureza do impacto não é clara, o ônus da prova caberia àqueles que procuram demonstrar que uma aplicação específica de IA não causa danos.
Fazer nenhum mal
Uma ética de IA de inspiração budista também entenderia que viver de acordo com esses princípios requer autocultivo. Isso significa que aqueles que estão envolvidos com IA devem treinar continuamente para chegar mais perto do objetivo de eliminar totalmente o sofrimento. Alcançar a meta não é tão importante; o importante é que eles empreendam a prática para alcançá-la. É a prática que conta.
Designers e programadores devem praticar, reconhecendo esse objetivo e definindo as etapas específicas que seu trabalho executaria para que seu produto incorporasse o ideal. Ou seja, a IA que eles produzem deve ter como objetivo ajudar o público a eliminar o sofrimento e promover o bem-estar.
Para que tudo isso seja possível, as empresas e agências governamentais que desenvolvem ou usam IA devem prestar contas ao público. A responsabilidade também é um ensinamento budista e, no contexto da ética da IA, requer mecanismos legais e políticos eficazes, bem como independência judicial. Esses componentes são essenciais para que qualquer diretriz de ética de IA funcione conforme o esperado.