Como a Explainable AI (xAI) está a transformar negócios e empresas

08-01-2025Henrique CarvalhoArtigos

A Inteligência Artificial (IA) está a revolucionar vários sectores da nossa sociedade, dada a sua capacidade de detetar padrões e tendências em dados complexos, assim como de automatizar tarefas que anteriormente teriam de ser feitas por humanos com formações altamente especializadas. Os negócios dependem cada vez mais de IA para tomar decisões que afetam os direitos individuais, segurança de humanos e operações de negócio decisivas.

Como é que os sistemas IA chegam a conclusões? Que dados utilizam? Podemos confiar nos seus resultados? Ainda que ter um modelo de IA funcionalmente robusto seja uma condição por vezes suficiente para a sua adoção, em alguns casos é também necessário que se compreenda como funcionam para que se perceba como é que geram as suas predições ou decisões, isto é, a sua “explicabilidade”. Segundo um relatório da McKinsey, empresas que têm um EBIT de 20% associado ao uso de IA têm uma tendência superior a outras em seguir práticas que permitem a explicabilidade dos sistemas de IA utilizados. A explicabilidade de um modelo de IA permite que uma decisão (ou previsão) seja acompanhada por uma razão. Por exemplo, no sector da banca, onde a tomada de decisão de conceder um empréstimo a um cliente envolve uma componente de IA, é importante para as partes interessadas haver um porquê de um crédito ser concedido ou não.

Os modelos de IA modernos seguem uma tendência de se tornar cada vez mais complexos, o que os torna em “caixas-negras” que são difíceis de compreender. O modo como uma resposta é obtida, através do funcionamento interno do modelo, não é diretamente acessível aos utilizadores e, em muitos casos, até para os próprios desenvolvedores. É neste sentido que a “Explainable Artificial Inteligence (XAI)” entra em jogo, que consiste num conjunto de métodos e processos que permitem a utilizadores compreender os resultados obtidos por modelos de IA.

A XAI transofrma as “caixas-negras” em “caixas-de-vidro”, onde o modo de funcionamento de um modelo se torna compreensível, transparente e confiável. Dois métodos bastante utilizados são o LIME e o SHAP values, que fornecem uma compreensão global de modelos de IA, isto é, como é que o modelo funciona, e também uma compreensão local, como é que este gerou uma resposta especifica para um novo conjunto de dados. Isto permite a caracterização de um modelo de IA no que diz respeito à sua precisão, modo de processamento de dados, e possível viés. É importante perceber em que circunstancias um modelo pode falhar, como é que uma determinada previsão foi gerada e até que ponto o modelo é adequado à tarefa que realiza. Ao permitir compreender modelos caixa-negra, as partes interessadas podem inspecionar, validar ou até desafiar as tomadas de decisão feitas por estes sistemas. A XAI permite a equipas técnicas monitorizar a performance de um modelo de IA, e permite às equipas de negócio compreender melhor as suas potencialidades.

A XAI é particularmente relevante em sectores que lidem com dados sensíveis e regulamentações restritas, onde o processo de tomada de decisão beneficia de modelos de IA que sejam claros e compreensíveis. De forma a cumprir com a normas de GDPR, em particular com o artigo 22, que impõe restrições à tomada de decisões de forma automática, torna-se necessário implementar XAI para que os resultados dos modelos de IA sejam acompanhados por explicações compreensíveis para humanos. A XAI é assim uma porta de entrada para as empresas que adotem os princípios de IA responsável. Os principais provedores de soluções que incorporam XAI nos seus produtos são a Microsoft, que a incorpora na sua estratégia global de IA em soluções Azure, a IBM, com o seu produto Watson OpenScale, a Google, com a ferramenta Explainable AI implementada nos seus serviços de IA em cloud. Estas ferramentas encontram aplicabilidade em setores como a saúde, onde métodos de diagnóstico de doenças que incorporem modelos de IA devem fornecer uma explicação sobre quais os motivos de uma doença estar presente. Sem estas, os médicos têm de avaliar as previsões de um modelo, o que torna a sua utilização redundante ou diminuída. A Seldon Technology Limited incorpora XAI nos seus produtos com aplicação em saúde. No sector da banca, finanças e seguradoras, a avaliação de risco de créditos beneficia do uso de métodos de XAI que informem o processo de análise de risco, como é o caso das soluções oferecidas pela Zest. A PayPal é outro exemplo de aplicação da XAI, que incorpora modelos de IA na deteção de transações fraudulentas. Outro exemplo é o Reason Reporter do produto Falcon Fraud Manager desenvolvido pela FICO. Com a ajuda da XAI, os avaliadores podem compreender melhor o processo de decisão do porquê uma transação ter sido sinalizada como fraudulenta e se necessário rever ou revogar a decisão sugerida pelos modelos de IA, com o devido motivo apresentado ao cliente. Outro sector relevante da XAI é na condução autónoma, que é assente em modelos de IA. Aqui, a XAI é importante para garantir a segurança de veículos autónomos e construir confiança com os utilizadores. Um modelo de XAI pode analisar dados de sensores para tomar decisões, como quando travar, acelerar ou mudar de faixa. Isto é importante em casos onde ocorrem acidentes, em que há uma necessidade moral, e legal, de perceber quais as causas na sua origem.

Porque é que as empresas devem de adotar a XAI? Compreender melhor como um modelo de IA funciona pode resultar em novos conhecimentos de negócio que trazem vantagens competitivas, além de facilitar a sua adoção e de permitir acelerar o processo de inovação. Em sectores onde a IA é utilizada para a automação do processo de tomada de decisão, ou até apenas como suporte para tal, há ainda a necessidade de ir ao encontro de requisitos legais de transparência e responsabilização. A implementação de XAI é, portanto, importante em organizações que adotem uma abordagem responsável no desenvolvimento e implementação de IA, por ir ao encontro dos princípios de proteção e uso ético de dados. A XAI não é apenas um passo na direção da explicabilidade dos modelos de IA, é também uma ponte entre a automação de processos e a busca humana de justificações, confiança e justiça.

Artigo de autoria de Henrique Carvalho, Senior Data Scientist AI Factory da DXspark