A IA está se explicando para os humanos.  E está valendo a pena


O LinkedIn da Microsoft Corp aumentou a receita de assinaturas em 8% depois de equipar sua equipe de vendas com um software de inteligência artificial que não apenas prevê clientes em risco de cancelamento, mas também
explica como chegou à sua conclusão. O sistema, introduzido em julho passado e descrito em uma postagem no blog do LinkedIn na quarta-feira, marca um avanço ao fazer com que a IA “mostre seu trabalho” de maneira útil.

Embora os cientistas de IA não tenham problemas em projetar sistemas que façam previsões precisas sobre todos os tipos de resultados de negócios, eles estão descobrindo que, para tornar essas ferramentas mais eficazes para
operadores humanos, a IA pode precisar se explicar por meio de outro algoritmo. O campo emergente de “Explainable AI”, ou XAI, estimulou grandes investimentos no Vale do Silício, à medida que startups e gigantes da nuvem competem para tornar o software opaco mais compreensível e alimentou discussões em Washington e Bruxelas, onde os reguladores querem garantir que a tomada de decisões automatizada seja feita. de forma justa e transparente.

A tecnologia de IA pode perpetuar preconceitos sociais como os de raça, gênero e cultura. Alguns cientistas de IA veem as explicações como uma parte crucial da mitigação desses resultados problemáticos. Reguladores de proteção ao consumidor dos EUA, incluindo a Federal Trade Commission, alertaram nos últimos dois anos que a IA que não é explicável pode ser investigada. A UE no próximo ano pode aprovar a Lei de Inteligência Artificial, um conjunto de requisitos abrangentes, incluindo que os usuários possam interpretar previsões automatizadas.

Os defensores da IA ​​explicável dizem que ela ajudou a aumentar a eficácia da aplicação da IA ​​em áreas como saúde e vendas. O Google Cloud vende serviços de IA explicáveis ​​que, por exemplo, informam aos clientes que tentam aprimorar seus sistemas quais pixels e, em breve, quais exemplos de treinamento são mais importantes para prever o assunto de uma foto.

Mas os críticos dizem que as explicações de por que a IA previu o que fez não são confiáveis ​​porque a tecnologia de IA para interpretar as máquinas não é boa o suficiente. O LinkedIn e outros que desenvolvem IA explicável reconhecem que cada etapa do processo – analisar previsões, gerar explicações, confirmar suas precisão e torná-los acionáveis ​​para os usuários – ainda há espaço para melhorias. Mas depois de dois anos de tentativa e erro em um aplicativo de risco relativamente baixo, o LinkedIn diz que sua tecnologia rendeu valor prático.

A prova disso é o aumento de 8% nas reservas de renovação durante o atual ano fiscal acima do crescimento normalmente esperado. O LinkedIn se recusou a especificar o benefício em dólares, mas o descreveu como considerável. Antes, os vendedores do LinkedIn confiavam em sua própria intuição e em alguns alertas automatizados irregulares sobre a adoção de serviços pelos clientes.

Agora, a IA lida rapidamente com pesquisas e análises. Apelidado de CrystalCandle pelo LinkedIn, ele aponta tendências despercebidas e seu raciocínio ajuda os vendedores a aprimorar suas táticas para se manter em risco
clientes a bordo e sugerir outras atualizações. O LinkedIn diz que as recomendações baseadas em explicações se expandiram para mais de 5.000 de seus funcionários de vendas, abrangendo
ofertas de recrutamento, publicidade, marketing e educação.

“Ajudou vendedores experientes, armando-os com insights específicos para navegar em conversas com clientes em potencial. Também ajudou novos vendedores a mergulharem imediatamente”, disse Parvez
Ahammad, diretor de aprendizado de máquina do LinkedIn e chefe de pesquisa aplicada em ciência de dados.

Explicar ou não explicar?

Em 2020, o LinkedIn havia fornecido pela primeira vez previsões sem explicações. Uma pontuação com cerca de 80% de precisão indica a probabilidade de um cliente com renovação em breve atualizar, manter
estabilizar ou cancelar. Os vendedores não foram totalmente conquistados. A equipe que vende o software de recrutamento e contratação de Soluções de Talentos do LinkedIn não sabia como adaptar sua estratégia, especialmente quando as chances de um cliente não renovar não eram melhores do que um sorteio.

Em julho passado, eles começaram a ver um pequeno parágrafo gerado automaticamente que destaca os fatores que influenciam a pontuação. Por exemplo, a IA decidiu que um cliente provavelmente faria a atualização porque cresceu 240 funcionários no ano passado e os candidatos se tornaram 146% mais responsivos no último mês. Além disso, um índice que mede o sucesso geral de um cliente com as ferramentas de recrutamento do LinkedIn aumentou 25% nos últimos três meses.

Lekha Doshi, vice-presidente de operações globais do LinkedIn, disse que, com base nas explicações, os representantes de vendas agora direcionam os clientes para treinamento, suporte e serviços que melhoram
sua experiência e mantê-los gastando. Mas alguns especialistas em IA questionam se as explicações são necessárias. Eles podem até causar danos, gerando uma falsa sensação de segurança na IA ou levando a sacrifícios de design que tornam as previsões menos precisas, dizem os pesquisadores.

Fei-Fei Li, codiretor do Instituto de Inteligência Artificial Centrada no Homem da Universidade de Stanford, disse que as pessoas usam produtos como Tylenol e Google Maps cujo funcionamento interno
não são bem compreendidos. Nesses casos, testes e monitoramento rigorosos dissiparam a maioria das dúvidas sobre sua eficácia. Da mesma forma, os sistemas de IA em geral podem ser considerados justos, mesmo que
decisões individuais são inescrutáveis, disse Daniel Roy, professor associado de estatística da Universidade de Toronto.

O LinkedIn diz que a integridade de um algoritmo não pode ser avaliada sem entender seu pensamento. Ele também afirma que ferramentas como o CrystalCandle podem ajudar os usuários de IA em outros campos. Os médicos podem aprender por que a IA prevê que alguém está mais em risco de uma doença, ou as pessoas podem saber por que a IA recomendou que lhes negassem um cartão de crédito. A esperança é que as explicações revelem se um sistema se alinha
com conceitos e valores que se deseja promover, disse Been Kim, pesquisador de IA do Google. “Eu vejo a interpretabilidade como, em última análise, permitindo uma conversa entre máquinas e humanos”, disse ela. “Se realmente queremos permitir a colaboração homem-máquina, precisamos disso.”