Les 10 et 11 avril derniers se tenait la conférence World Summit AI Americas à Montréal. J’ai eu l’opportunité d’y assister afin de m’informer sur les nouvelles tendances du marché et de découvrir les meilleures pratiques autour de l’application de l’IA en entreprise.

World summit AIAu programme:

  • Des conférences animées par des professionnels de l’IA en entreprise, abordant notamment l’utilisation de l'intelligence artificielle au service de l’expérience client et de l’innovation produit.
  • Des panels articulés autour de 3 grands thèmes: l’éthique en IA, l’utilisation de l’IA dans la société et comment l’IA va transformer les métiers et bouleverser les industries.
  • Des discussions libres au salon des exposants, regroupant les partenaires de l'évènement (Stradigi AI), des startups et des entreprises menant des projets innovants dans le domaine de l’IA.

WSAI 1Parmi les conférences auxquelles j'ai assisté, je vous présente les sujets qui m'ont le plus marquée:

Shopify - Comment construire des produits IA à grande échelle

Shopify (fournisseur de sites internet pour les commerces en ligne) nous présente les étapes à suivre pour opérationnaliser la construction d’un modèle de protection anti-fraude pour les paiements en ligne sur leurs sites internet.

Étape 1: Déterminer nos enjeux

Avant d'aborder les solutions envisageables avec le Machine Learning, il est important de fixer ses objectifs d'affaires à travers des KPIs précis.

Étape 2: Identifier les contraintes opérationnelles

Pré-requis :

  • Evaluation en temps réel
  • Éviter le ralentissement du checkout lors du processus d’achat
  • Offrir un système uniforme à tous les commerçants (scaling)

Étape 3: Comprendre les variables explicatives et les variables cibles

Variables cibles (targets) :

  • Temps d'attente pour une rétrofacturation
  • Chaque tentative de rétrofacturation n’est pas une fraude
  • Changements dans la politique de rétrofacturation

Variables explicatives (features):

  • Fréquence et récence
  • Changement dans le comportement

Étape 4: Construire un modèle simple, rapide et itérer

Étape 5: Optimiser les hyper-paramètres

Étape 6: Investir dans des bonnes pratiques de data engineering

Étape 7: Déployer les modèles

Shopify utilise PMML (Predictive Model Markup Language) qui est un langage XML-based permettant la définition et le partage de modèles prédictifs entre des applications. PMML y est utilisé en tant que langage intermédiaire car l’entreprise emploie Python en développement et Ruby on rails en production.

Étape 8: Faire de nouveaux modèles

Étape 9: Automatiser tout le processus

Étape 10: Construire la bonne équipe au préalable

La dernière étape et non des moindres, est celle de construire une équipe disposant des connaissances et savoirs-faire nécessaires pour répondre à nos enjeux. Ici, une équipe full-stack est la bonne solution afin d'assurer la modélisation et le déploiement de modèles machine learning en production.

Processus opérationnels du modèle :

  • Détection des changements dans les distributions des variables
  • Phases d'entraînement et de déploiement des modèles
  • Gestion des versions
  • Déploiement automatisé

Stradigi AI - Utiliser le machine learning pour construire des algorithmes explicables, transparents et responsables

La perception du public

L’intelligence artificielle subit souvent l’effet dit de la “boîte noire” - on connaît les entrées et les sorties, mais pas ce qui se passe entre les deux - engendrant une perte de confiance de la plupart des gens envers ses applications.

Carolina Bessega, directrice scientifique et co-fondatrice chez Stradigi AI, nous explique que le premier enjeu est de rétablir la confiance de l'opinion publique envers l'IA à travers des explications précises et concrètes de son utilisation.

WSAI 2

C’est là qu’intervient l’interprétabilité des modèles: méthode visant à expliquer l'output (sortie) d'un modèle d'apprentissage automatique de manière à ce qu'il puisse être compris de tous.

Pourquoi avons-nous besoin d’interprétabilité ?

Tel que je vous l'ai expliqué plus tôt, l'interprétabilité est dans un premier temps nécessaire afin de rétablir la confiance envers l'IA. Puis dans un second temps, elle servira à obtenir les approbations légales en vue des futures applications. Enfin, l'interprétabilité est également un moyen de justifier d'une intelligence artificielle éthique et responsable.

Comment rendre un modèle interprétable ?

1 ) Analyser la donnée

L’échantillon d’apprentissage pour le modèle reste essentiel, il faut faire attention à ce qu’il n’y ait pas de biais dans le jeu de données utilisé et comprendre quelles données nous utilisons comme entrée.

2) Comprendre que certains modèles sont intrinsèquement explicables

Les arbres de décision, les modèles linéaires, les modèles à base de règles sont tous des modèles explicables directement et simplement. En général, plus un modèle est complexe, moins il est explicable car il tend à apprendre des relations cachées d’après la donnée (le Deep Learning en général est très performant et peu interprétable, ce qui renvoie à l’effet “boite noire”).

WSAI 3

3) Faire des analyses Post-hoc

On étudie alors l’inférence causale dans les modèles, on peut aussi utiliser les méthodes Lime ( Local Interpretable Model-Agnostic Explanations) qui fonctionnent en perturbant les inputs (entrées) et en observant les changements subséquents dans les outputs (sorties) de modèles. Plus récemment, est également apparue la méthode IME (Interactions-based Method for Explanation) aussi appelée “Sharpley Values” qui vise à interpréter les modèles.

4) La confiance ne réside pas uniquement dans l'interprétabilité

Enfin, en plus de rendre un modèle interprétable, il faut également garder un oeil averti sur les données d’apprentissages et les biais possibles des algorithmes. Ces deux éléments sont importants dans la phase de création et de déploiement de modèles de machine learning impactant la vie de nombreuses personnes.

Pendant l'ensemble du processus, il faut toujours garder en tête ces deux questions essentielles: quel est l'impact de cet algorithme sur les vies humaines (autorisation ou non d'assurance, diagnostic de maladie) ? À quel point peut-on lui faire confiance ?

Points importants

Il est crucial que les régulateurs soient au courant des nouveautés et fassent la promotion de l’utilisation des outils permettant de faire du machine learning de manière responsable.

Les fournisseurs de solutions en machine learning doivent se doter de comités d’éthique pour évaluer la justesse et les biais de ces algorithmes.

Bombardier - Apprentissages autour de la mise en place d’une stratégie IA

WSAI 4

Les objectifs de Bombardier s’articulent autour de l’implémentation de l’IA pour améliorer les opérations de l’industrie (manufacturing) dans l’entreprise.

  • En terme de design et de développement, Bombardier adopte les points suivants :
  • Employer une approche fail-fast (prototypage rapide) 
  • Faire de l’IA pour la prospérité de l’entreprise
  • Faire de l’IA responsable et explicable

Les différents apprentissages qui en ressortent sont:

L’expertise en IA

  • Nouvelles compétences
  • Technologies disruptives
  • Algorithmes

L’infrastructure

  • Cyber-sécurité
  • Lacs de données
  • Puissance de calcul

Expertise du domaine

  • Ingénierie
  • Applicabilité
  • Validation
  • Niveaux de confiance

La nécessité de nouer des partenariats

  • Universités
  • Communautés open-source
  • Start-ups

Parmi les différentes expérimentations en intelligence artificielle réalisées par Bombardier on retrouve la participation au UK-Canada AI Innovation Challenge durant lequel deux défis ont été présentés par l'entreprise:

  • Machine Learning (formation de glace sur les ailes d'avion, processing de données vidéo/image)
  • Construction de modèles thermiques par la donnée (températures par zones, données de test d'avions, modélisation de séries temporelles).

Durant ces deux jours de conférences placées sous le thème "AI for good", diverses avancées de l'IA ont été présentées, notamment lors de la conférence de Yoshua Bengio "Moving beyond supervised learning", ou encore lors de tables rondes animées autour du bouleversement de l'IA sur le marché du travail et son utilisation dans le domaine public et la santé. À cette occasion, plusieurs cas industriels concrets tels que Bombardier, BNC ou Thales ont été présentés. Suite à cela, j'ai constaté un écart important entre les avancées de la recherche fondamentale en IA et son adoption par les entreprises. En effet, ce n'est que le début de l'application de l'IA au niveau industriel, c'est pourquoi les entreprises doivent se faire accompagner afin de s'assurer que leurs méthodes respectent les connaissances et savoirs-faire académiques.

À l’issue de cet évènement, je peux conclure que plusieurs facteurs interviennent dans l'adoption d'une intelligence artificielle éthique et responsable :

  • Avoir une culture data-driven et des partenariats ouverts sur le monde de l’IA (Universités, communautés meetup et open-source)
  • Identifier les problèmes à résoudre, les opportunités où l’IA est applicable et communiquer avec toutes les parties prenantes (business, sécurité, data, technologie) tout au long d’un projet.
  • Construire des équipes diverses avec des compétences complémentaires (data engineers, data scientists, développeurs ML, back-end, front-end ...) car le développement de l’IA et son déploiement requièrent tous ces métiers.
  • Avoir une approche itérative concernant les projets IA, prototyper rapidement un premier modèle puis l’améliorer.
  • Construire des algorithmes interprétables et responsables, avoir un comité éthique au sein de l’entreprise et des personnes qui ont des compétences autour de l’IA interprétable.
  • Participer activement à la diffusion des connaissances et répondre aux questions concernant l’IA car celle-ci est disruptive au sein de l’entreprise et de la société.
Partager cet article
  


À propos de l'auteur

Yasmine Maricar

Diplômée en informatique, Yasmine est conseillère Big Data chez agileDSS. Très tôt, elle décide d’orienter sa carrière vers la Data science avec une maîtrise en Innovation, Marchés et Data Science. Elle se distingue par ses connaissances pointues sur l’intelligence artificielle et son application au sein des organisations. Elle travaille notamment sur le développement d’un laboratoire de données interne afin d’explorer des cas d'utilisation de Data Science et Machine Learning.

CONTACT

agileDSS Inc.
407, rue McGill, bureau 500.
Montréal (QC) H2Y 2G3.

info@agiledss.com
(514) 788-1337