Les entreprises détestent l’admettre, mais le chemin vers le déploiement de l’IA au niveau de la production est semé de preuves de concept (PoC) qui ne mènent nulle part ou de projets échoués qui n’atteignent pas leurs objectifs. Dans certains domaines, il y a peu de tolérance à la répétition, notamment dans les sciences de la vie, lorsque les applications de l’IA facilitent l’arrivée de nouveaux traitements ou diagnostics sur le marché. Même de légères erreurs de calcul et des hypothèses initiales peuvent créer des flux massifs en aval qui peuvent être préoccupants.

L’analyse de dizaines de PoC d’IA qui ont atteint ou non leur pleine utilisation en production a révélé six pièges courants. Il est intéressant de noter que ce n’est généralement pas la qualité de la technologie elle-même, mais de mauvais objectifs, une mauvaise planification ou des attentes irréalistes qui provoquent l’échec. Un résumé de ce qui n’a pas fonctionné dans des exemples concrets et des conseils pratiques sur la façon de le résoudre.

Leçon 1 : Une vision floue est synonyme de désastre

Chaque projet d’IA nécessite un objectif clair et mesurable. Sans cela, les développeurs créent une solution à la recherche d’un problème. Par exemple, en développant un système d’IA pour un essai clinique d’un fabricant pharmaceutique, l’équipe visait à « optimiser le processus d’essai », mais n’a pas défini ce que cela signifiait. Avaient-ils besoin d’accélérer le recrutement des patients, de réduire les taux d’abandon des participants ou de réduire les coûts globaux des essais ? Le manque de concentration a conduit à un modèle techniquement solide mais sans rapport avec les besoins opérationnels les plus urgents du client.

Emporter: Définir à l’avance des objectifs précis et mesurables. utiliser Critères intelligents (Spécifique, Mesurable, Réalisable, Pertinent, Limité dans le Temps). Par exemple, visez à « réduire les temps d’arrêt des équipements de 15 % en six mois » plutôt qu’à un vague « améliorer les choses ». Documentez ces objectifs et alignez les parties prenantes dès le début pour éviter toute dérive de la portée.

Leçon 2 : La qualité des données l’emporte sur la quantité

Les données sont l’élément vital de l’IA, mais les données de mauvaise qualité sont un poison Dans un projet, un client de détail commence avec plusieurs années de données de ventes pour prévoir la demande de stocks. Attrapé? L’ensemble de données était criblé d’incohérences, avec des entrées manquantes, des enregistrements en double et des codes de produits obsolètes. Le modèle a bien fonctionné lors des tests, mais a échoué en production car il a appris de données bruyantes et peu fiables.

Emporter: Investissez dans la qualité des données plutôt que dans le volume. Utilisez des outils comme Pandas pour le prétraitement et Great Expectations pour la validation des données Détectez le problème tôt. Effectuer une analyse exploratoire des données (EDA) avec visualisation (par exemple Seaborne) pour identifier les valeurs aberrantes ou les anomalies. Des données propres valent plus que des téraoctets de déchets.

Leçon 3 : Les modèles trop compliqués se retournent contre eux

La poursuite de la complexité technique ne conduit pas toujours à de bons résultats. Par exemple, dans un projet de soins de santé, le développement a commencé par la construction d’un réseau neuronal convolutif (CNN) sophistiqué pour détecter les anomalies dans les images médicales.

Bien que le modèle soit à la pointe de la technologie, son coût de calcul élevé impliquait des semaines de formation, et sa nature de « boîte noire » rendait difficile la confiance des cliniciens. L’application a été modifiée pour mettre en œuvre un modèle de forêt aléatoire simple qui non seulement correspondait à la précision prédictive des CNN, mais était également rapide à former et facile à interpréter, un facteur important pour l’adoption clinique.

Emporter: Commencez simplement. Utilisez des algorithmes simples forêt aléatoire ou XGBoost de scikit-learn pour établir une référence. N’évoluez vers des modèles complexes (réseaux LSTM (Long-Short-Memory) basés sur TensorFlow) que si le problème l’exige. Donnez la priorité à l’explicabilité grâce à des outils tels que SHAP (SHAPley Additive Explanations) pour établir la confiance avec les parties prenantes.

Leçon 4 : Ignorer les réalités du déploiement

Un modèle qui brille dans un ordinateur portable Jupiter peut planter dans le monde réel. Par exemple, le déploiement initial d’un moteur de recommandation pour la plateforme de commerce électronique d’une entreprise ne pouvait pas gérer les pics de trafic. Le modèle a été construit sans tenir compte de l’évolutivité et s’est plié sous la charge, ce qui a entraîné des retards et des utilisateurs frustrés. Semaine de refonte des coûts de surveillance.

Emporter: Planifier la production dès le premier jour. Les conteneurs Docker se déploient avec Kubernetes pour le modèle de package et l’évolutivité. Utilisez TensorFlow Serving ou FastAPI pour une estimation efficace. Surveillez les performances avec Prometheus et Grafana pour détecter rapidement les goulots d’étranglement. Testez dans des conditions réalistes pour garantir la fiabilité.

Leçon 5 : Négliger la maintenance du modèle

Les modèles d’IA ne sont pas définis et oubliés. Dans un projet de prévision financière, le modèle a bien fonctionné pendant plusieurs mois jusqu’à ce que les conditions du marché changent. La dérive incontrôlée des données a entraîné une dégradation des prévisions, et l’absence de pipeline de recyclage a nécessité des révisions manuelles. Le projet a perdu sa crédibilité avant que les développeurs puissent s’en remettre.

Emporter: Construit pour le long terme. Mettez en œuvre une surveillance de la dérive des données à l’aide d’outils comme Alibi Detect. Formation automatisée avec Apache Airflow et suivi des tests avec MLflow Intégrez un apprentissage actif pour hiérarchiser les étiquettes pour les prédictions incertaines tout en gardant les modèles pertinents.

Leçon 6 : Sous-estimer l’adhésion des parties prenantes

La technologie n’existe pas en vase clos. Un modèle de détection des fraudes était techniquement irréprochable, mais il a échoué parce que les utilisateurs finaux – les employés de banque – ne lui faisaient pas confiance. Sans explications claires ni formation, ils ont ignoré les mises en garde du modèle, le rendant ainsi inutile.

Emporter: Donner la priorité à la conception centrée sur l’humain. Utilisez des outils interprétables tels que SHAP pour rendre les décisions de modèle transparentes. Engagez les parties prenantes dès le début via des démonstrations et des boucles de rétroaction. Formez les utilisateurs sur la façon d’interpréter et d’agir sur les résultats de l’IA. La confiance est aussi importante que l’exactitude.

Meilleures pratiques pour réussir dans les projets d’IA

Tirant parti de cet échec, voici la feuille de route pour y parvenir :

  • Fixez-vous des objectifs clairs: Utilisez les critères SMART pour aligner les équipes et les parties prenantes.

  • Prioriser la qualité des données: Investissez dans le nettoyage, la validation et l’EDA avant la modélisation.

  • Commencez simplement: Créez une base de référence avec des algorithmes simples avant de faire évoluer la complexité.

  • Conception pour la production: Plan de mesurabilité, de surveillance et de conditions réelles.

  • Entretenir le modèle: Entraînement automatique et surveillance de la dérive pour rester pertinent.

  • Engager les parties prenantes: Augmentez la confiance grâce à l’interprétabilité et à la formation des utilisateurs.

Construire une IA résiliente

Le potentiel de l’IA est enivrant, mais les projets d’IA qui ont échoué nous enseignent que le succès n’est pas seulement une question d’algorithmes. C’est une question de discipline, de planification et d’adaptabilité. À mesure que l’IA évolue, les tendances émergentes telles que l’apprentissage fédéré pour les modèles préservant la confidentialité et l’IA de pointe pour les informations en temps réel placeront la barre plus haut. En tirant les leçons des erreurs passées, les équipes peuvent créer des systèmes de production évolutifs qui sont robustes, précis et fiables.

Kavin Xavier est vice-président des solutions IA Cap Départ.

En savoir plus sur nous Auteur invité. Ou pensez à soumettre votre propre message ! nous voir Voici les lignes directrices.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici