Quelle éthique pour l’Intelligence Artificielle ?

Données massives (big data) et algorithmes d’apprentissage automatique (machine learning) sont les mots à la mode de la décennie dans le monde digital. L’idée de ces technologies est de rentabiliser les données collectées grâce à la capacité des outils de décision automatique, ce qui suscite autant d’espérance que d’appréhension.

De plus en plus présente dans notre vie quotidienne, l’intelligence artificielle déclenche naturellement le débat sur son bon développement et son utilisation. Son impact significatif sur le développement de l’humanité dans un avenir proche est quant à lui moins sujet à débat. Il est courant de trouver des publications qui s’intéressent à son application qui touche de plus en plus de domaines aussi divers que variés.

A titre d’exemple, les professionnels de la santé peuvent s’appuyer sur l’IA pour déceler les effets secondaires des médicaments, les opérateurs de la chaîne d’approvisionnement pour optimiser leurs itinéraires de livraison et les spécialistes des sciences sociales pour étudier les interactions humaines.

L’un des champs d’application le plus répandu et le plus industrialisé depuis une dizaine d’années est l’aide à la décision. Pratiquement, une grande majorité des domaines est concernée : recommandations pour la vente en ligne, évaluation du risque de rupture de contrat, de fraude, de défaillance d’un système et de récidive ou encore aide au diagnostic médical.

Seul bémol, lorsque les données sont utilisées dans un but prédictif pour aider à la prise de décision. Dans certains cas d’application elles peuvent affecter le sort de classes de personnes de manière systématiquement défavorable.

En d’autres termes trier et sélectionner les candidats, les meilleurs ou les plus rentables signifie générer un modèle avec des gagnants et des perdants. Si les experts de données ne sont pas sensibilisés à ce sujet, le processus peut entraîner des résultats disproportionnellement négatifs concentrés au sein de groupes historiquement défavorisés.

En l’occurrence, aborder sans précaution, l’exploration des données nous amène à hériter des préjugés des décideurs antérieurs ou tout simplement à refléter les préjugés répandus qui persistent dans la société. Ce qui nous pousse à reproduire, voire à accentuer les modèles de discrimination sociales existants.

Pour résumer une décision algorithmique basée sur des données biaisées est au meilleur des cas aussi impartiale qu’une décision humaine.

Raisonnablement, la littérature propose des approches permettant non seulement d’identifier et d’évaluer un risque de discrimination, mais également d’atténuer ou même de corriger ces biais.
En l’occurrence, ce n’est pas utopique d’imaginer une IA qui combine à la fois : éthique et respect du RGPD.

Khalil Loukili, Data Scientist Inferensia

À PROPOS DE NOUS

Inferensia est le cabinet qui place « les usages avant les moyens », permettant de rompre avec l’approche traditionnelle du conseil qui peine à aligner ses méthodologies sur la notion de retour sur investissement.

Au-delà de l’intérêt collectif et individuel de ses équipes, Inferensia se positionne aussi comme un acteur majeur de l’innovation pour ses clients, permettant ainsi d’incuber les meilleures idées de nos partenaires, clients et collaborateurs. Nous ne nous positionnons pas uniquement sur le “Delivery”, la “Technologie” ou le “Doing” (vision traditionnelle) mais avant tout sur le ROI et l’usage (vision novatrice) sur lesquels se fondent nos réalisations.
NOTRE NEWSLETTER.