Autres parties de cette série:

 

Au cours des dernières années, les technologies d’intelligence artificielle (AI) et d’apprentissage automatique ont fait d’énormes progrès: 83% des entreprises ont déclaré que l’IA était aujourd’hui une priorité stratégique pour leur entreprise.

Au fur et à mesure que la complexité, la sophistication et l’autonomie augmentent, l’intelligence artificielle ouvre un grand nombre d’opportunités aux entreprises et à la société dans son ensemble. Cependant, à mesure que de nouvelles opportunités se créent, la nécessité d’expliquer comment les programmes d’IA prennent une décision devient encore plus cruciale: 76% des PDG se disent préoccupés par le risque de partialité et le manque de transparence.

Alors que l’intelligence artificielle devient plus importante dans nos vies quotidiennes et est utilisée pour prendre des décisions plus importantes, il est crucial de pouvoir faire confiance à l’intelligence artificielle et de comprendre comment les décisions sont prises. Le problème de la «boîte noire» qui entoure l’intelligence artificielle soulève déjà des questions sur la manière dont nous pouvons nous assurer qu’il est appliqué de manière éthique, ce qui freine (à juste titre) l’utilisation plus répandue des systèmes d’intelligence artificielle dans certains domaines. Lorsque les décisions prises par les systèmes d’IA ont une incidence sur la vie ou la santé des personnes, il n’a jamais été aussi crucial de disposer de systèmes fiables et qui rendent compte des décisions prises.

Pourquoi cela nuit-il à l’adoption de l’IA?

À l’heure actuelle, en raison d’un manque d’explicabilité concernant l’IA et l’apprentissage automatique, il est difficile de savoir comment un algorithme parvient à sa décision. Il est donc difficile de savoir quand une faute ou une erreur s’est produite. Si cette décision détermine si une personne est capable d’acheter une maison, de recevoir un traitement contre le cancer ou d’être libérée de prison, par exemple, il est essentiel de comprendre le fondement de la décision et de l’analyser.

Séparément, il existe une idée fausse commune selon laquelle l’intelligence artificielle est totalement objective, mais elle ne l’est que par rapport aux données introduites dans le système. L’apprentissage automatique repose largement sur des données. Par conséquent, si les données saisies sont biaisées, le résultat le sera également. Ainsi, si l’on ne prend pas soin de l’empêcher, les systèmes d’apprentissage automatique peuvent coder et reproduire les biais humains existants, en les propageant potentiellement à une plus grande échelle. Cela permet d’intégrer le sexisme, le racisme et d’autres formes de discrimination dans les algorithmes de systèmes intelligents qui déterminent la classification et la publicité des êtres humains.

Qu’est-ce que l’IA explicable?

La plupart des systèmes d’intelligence artificielle et d’apprentissage automatique ne sont pas en mesure d’expliquer le processus ou le raisonnement qui sous-tendent la décision prise et, d’une manière générale, le fonctionnement interne de ces systèmes est trop complexe pour être examiné et rationalisé.

L’interprétabilité ou les interprétations interprétables par l’homme (HII) d’un modèle d’apprentissage automatique sont la mesure dans laquelle un humain (y compris les non-experts en apprentissage automatique) peut comprendre les choix pris par les modèles dans son processus de prise de décision (comment, pourquoi et quoi).

L’IA explicable est un domaine qui se concentre sur la manière dont les systèmes d’intelligence artificielle prennent des décisions. Cela peut inclure l’un des éléments suivants:

  • Forces et faiblesses du programme
  • Les critères utilisés par le programme pour arriver à sa décision
  • Règles qui contraignent le comportement du système
  • Analyse de perturbation et de sensibilité qui examine le comportement du système lorsque les entrées varient
  • Diagnostic d’erreurs auxquelles le système peut être sujet

À la lumière des récents changements apportés à la réglementation, tels que le RGPD, les risques commerciaux et les préoccupations éthiques, l’utilisation de l’IA explicable va jouer un rôle croissant.

Pourquoi l’IA explicable est-elle si importante?

Le manque de visibilité sur le fonctionnement des algorithmes d’intelligence artificielle soulève des difficultés, en particulier dans les domaines où une décision erronée peut entraîner un préjudice irréparable ou dans lesquels les décideurs sont tenus de fournir des explications pour l’issue.

En particulier, dans les secteurs de la finance, de l’assurance et de la banque où l’entreprise doit expliquer chaque décision prise par le modèle aux régulateurs et aux clients. Il existe également de nombreux scénarios réels dans lesquels des modèles biaisés ou incorrects pourraient avoir des effets importants, tels que la prévision des criminels potentiels (vous pensez au film Minority Report), la notation du crédit, la détection de la fraude, l’évaluation des prêts et les voitures autonomes, où la compréhension du modèle et son interprétation sont extrêmement importantes.

Où l’IA explicable sera-t-il utilisé?

1. Campagnes de marketing

Les spécialistes du marketing peuvent utiliser une intelligence artificielle explicite pour créer des messages, des offres et des solutions créatives bien plus pertinentes, en fonction des intérêts des clients potentiels.

2. Recommandations en ligne

L’intelligence artificielle est utilisée pour recommander des produits ou des services aux clients en fonction de leur historique de visualisation ou d’achat

3. Décisions concernant les demandes de crédit et de prêt

Si une procédure de demande est rejetée par un système d’IA, la banque devrait pouvoir remonter la décision à l’étape spécifique où le refus s’est produit et fournir également un raisonnement pour la prise de décision du système d’IA à cette étape particulière. En outre, ces modèles doivent montrer aux régulateurs comment une décision est prise en raison de la nécessité de transparence des décisions prises dans le secteur.

4. Soigner

Dans certains domaines de la médecine, l’IA est utilisée pour générer des diagnostics automatisés, notamment dans le domaine de la détection des tumeurs. Bien que l’intelligence artificielle puisse accomplir ces tâches à un niveau surhumain, il est néanmoins essentiel de comprendre comment les systèmes produisent leurs réponses, à la fois parce que le coût des faux négatifs est si élevé et aussi pour informer sur les besoins en traitement. L’avantage de l’IA, par exemple dans la détection des tumeurs suite à un IRM, est la précision de reconnaissance sur les « clichés ». L’oeil humain peut-être faillible là où l’IA a un taux d’erreur se rapprochant de plus en plus du 0%

Conclusion

Au fur et à mesure que l’intelligence artificielle devient de plus en plus explicable, la confiance en ses capacités se renforce, ce qui devrait permettre d’accroître rapidement les taux d’adoption. Les entreprises sont ainsi bien placées pour innover et rester en avance sur leurs concurrents, tout en restant transparentes et éthiques. Une intelligence artificielle explicable et plus responsable sera la colonne vertébrale des systèmes intelligents du futur qui permettent à l’entreprise intelligente. Une intelligence artificielle explicable ne remplacera pas les gens, mais les complétera et les soutiendra pour qu’ils puissent prendre des décisions meilleures, plus rapides, plus précises et plus cohérentes.