De acordo com relatório da Genesys, 80% das empresas não estão preocupadas com bots antiéticos, mas deveriam estar.  Em um ambiente em que a transformação digital já é presente, empresas, em todo o planeta, já investem em inteligência artificial (IA), ou estão pensando nisso, para melhorar seus processos e relacionamento com os clientes.

Por outro lado, a mesma pesquisa descobriu que mais de metade das companhias não possui política para o uso ético de bots ou da IA.  Embora seja extremamente útil socialmente e para as próprias empresas, há preocupações sobre como os dados podem refletir à história de uma sociedade extremamente desigual e preconceituosa. Será que os programas não estão sendo alimentados com essa desigualdade? Essa questão foi levantada pelo Inequality Project, do jornal The Guardian.

Diversos são os exemplos de usos ruins, tendenciosos ou antiéticos da IA:

•    Empréstimos
O crédito passou a ter um viés algorítmico. Apesar de muitas pessoas pensarem em algoritmos justos, essa programação tem um impacto negativo para determinado grupo de pessoas
•    Recursos Humanos
De acordo com matéria da Reuters, um novo mecanismo de recrutamento da Amazon.com excluía mulheres automaticamente. A equipe de TI treinou seu sistema usando currículos dos integrantes de equipes técnicas da empresa, predominantemente masculina. O resultado foi que qualquer pessoa que frequentasse uma faculdade considerada “de mulher” era desqualificada.
•    Pesquisa
Pesquisas básicas podem ser impactadas por preconceitos. Algumas buscas feitas em sites como Google ou Bing podem ser manipuladas para entregar resultados que mostram preconceitos ou violência contra minorias – apesar das empresas estarem lutando contra isso, ainda é possível encontrar resultados assim.
•    Educação
Programas baseados em IA podem fazer com que candidatos de uma determinada etnia, orientação sexual ou sexo sejam desclassificados ou perderem pontos que representam a entrada ou não em uma escola ou faculdade.

Como as empresas se aproximam da IA ética?
Empresas de tecnologia estão se esforçando para abordar o uso de dados de forma ética. A Genesys conta com um conjunto de diretrizes para aprimorar a estrutura ética de seus produtos com IA:

1.    Transparência
Os clientes devem ser avisados que estão falando com um Bot de IA
2.    Equidade
As empresas devem tomar medidas para garantir que seus sistemas não introduzam preconceitos
3.    Prestação de contas
As empresas são responsáveis pelos seus sistemas de IA criados
4.    Benefício social
A Genesys está comprometida com o benefício social pelo uso criterioso da IA
5.    Proteção de dados
A IA não deve ser usada para diminuir direitos de dados ou privacidade

Proteção de dados no Contact Center
A Lei Geral de Proteção de Dados (LGPD) é responsável por mudanças na forma com que os dados são trabalhados pelas empresas brasileiras. Por lidar diariamente com informações de milhões de clientes, o contact center precisa se adaptar às novas regras. E os aplicativos de IA também precisam estar de acordo com essas novas diretrizes e diversas outras leis do país.

A abordagem de IA e botsdeve ser centrada no ser humano e respeitar os direitos humanos e leis que protejam minorias, de maneira que a própria IA compartilhe os benefícios que ela oferece para todas as pessoas, não apenas para determinados grupos.

As empresas de tecnologia, e também os consumidores e usuários, precisam questionar se os aplicativos de IA estão sendo construídos de forma moral, segura e correta. O uso ético da IA deve ser considerado uma obrigação legal e moral, antes de ser comercial.

Publicado originalmente no blog da Genesys Brasil

Pode te interessar

Robôs inovam o mercado com o uso da expertise humana

A robotização veio para ficar!

Robôs humanizados? Ou Robôs tentando ser humanos?