Gain de temps, précision de prévision, un usage réfléchi de l'intelligence artificielle rend différents services et satisfait des besoins métiers. Certaines conditions garantissent un usage raisonné, comme l'éthique, l'humilité, la protection des données, tout cela dans le respect d'une certaine frugalité. Outre ces axes réflexions, Pierre Monget directeur de programme chez Hub France IA et Paul Hérent, cofondateur de Raidium, livrent leurs conseils en matière de développement de solution d'IA.
C’est quoi, une IA utile et raisonnée ? [01:17 - 03:57]
L’utilité est “avant tout de satisfaire un besoin qui rend service à une population d’utilisateurs et de manière plus large à la société” définit Pierre Monget. L’usage réfléchi, c’est se poser des questions tout au long du cycle de vie d’un outil d’IA, en partant des besoins métiers à la réalisation, “en visant un usage non absurde”, ajoute-t-il. “Est-ce vraiment nécessaire d’avoir une solution d’IA pour telle finalité ? Cette finalité est-t-elle vraiment utile ? N’est-elle pas absurde ? Les moyens mis en œuvre pour l’atteindre sont-ils raisonnés ?”
L’exemple d’un outil médical [04:12 - 12:29]
Raidium développe à la fois un modèle de fondation (IA générative) et une interface utilisateur (un viewer), permettant au radiologue d’améliorer son travail. Le modèle a appris le corps humain de la tête aux pieds ainsi que les connaissances médicales associées : anatomie normale et pathologique. Cet outil qui pourrait permettre à la fois de réduire les erreurs médicales et de démocratiser l’expertise radiologique, sans remplacer le radiologue, évidemment !
Prendre en compte tout le cycle de vie [12:39 - 16:02]
Que ce soit dans le développement ou l’utilisation finale de l’outil d’intelligence artificielle, chacun a sa responsabilité. Au-delà de questionner son utilité, il est important de prendre en compte l’impact environnemental tout au long de son cycle de vie : de son entraînement à sa mise œuvre. De plus, il est important que le modèle d’IA respectent les principes éthiques, la réglementation, et la bonne utilisation des données. “Sur quelles données va-t-on entraîner les modèles d’IA ? Sont-elles sensibles ? Personnelles ? A-t-on vraiment le droit d’y accéder ?” énumère Pierre Monget.
Des compromis nécessaires [16:15 - 27:37]
Développer un outil d’intelligence artificielle utile et raisonné, c’est aussi faire des compromis. Par exemple, utiliser un modèle plus léger et donc moins impactant pour l’environnement au prix d’une précision moindre lorsque cette dernière n’est pas nécessaire. Remettre en question, côté utilisateur, son utilisation de ChatGPT pour créer de simples images, par exemple. Ou encore, suis-je autorisé à copier du code source de mon entreprise dans des outils d’IA générative pour le debugger ? Certains ingénieurs ont essayé, ils ont eu des problèmes...
Références citées :
- Raidium
- Viewer, outil de radiologie
- Speech to text
- Geoffrey Hinton - Deep Learning
- Centre d'imagerie du nord, Saint-Denis 93
- Coroscanner (Tomodensitométrie)
- Open AI ChatGPT 3, 4
- Large language model
- Stable diffusion et MidJourney
- AI Act
Ressources pour aller plus loin :
- MOOC de Stanford sur le deep learning
- AI Revolution in Medicine : GPT-4 and beyond de Peter Lee, Carey Goldberg, Isaac Kohane
- L'Innovation Jugaad - Redevenons Ingénieux ! de Navi Radjou, Jaideep Prabhu et Simone Ahuja
Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet.