Les algorithmes façonnent de plus en plus nos vies, mais attention : sans garde-fous éthiques, l'intelligence artificielle peut devenir un redoutable vecteur d'injustice. Plongée dans un enjeu crucial pour notre avenir numérique.
Votre prochaine demande de prêt, votre candidature à un emploi, voire un diagnostic médical... Et si une intelligence artificielle (IA) était aux commandes ? Pratique, mais ces systèmes, aussi sophistiqués soient-ils, peuvent se transformer en machines à discriminer. Alors, comment s'assurer que l'IA ne devienne pas le nouveau visage de l'inégalité, et que l'automatisation ne rime pas avec discrimination ?
Vous vous demandez peut-être comment une machine peut être biaisée ? Eh bien, l’IA, c’est un peu comme un enfant très doué : elle apprend de ce qu’on lui montre. Si les données historiques qu'on lui fournit pour s'entraîner reflètent des discriminations passées – par exemple, si un certain groupe a été historiquement moins bien traité pour l'octroi de crédits – l'IA risque d'apprendre et de perpétuer ces mêmes schémas. C'est le fameux principe du « garbage in, garbage out » (des données erronées en entrée produisent des résultats erronés en sortie).
Mais ce n'est pas tout ! Le biais peut aussi s'immiscer via la conception même du système. Les choix sur ce qu'il faut mesurer, les résultats à privilégier ou la manière dont les données sont étiquetées (souvent par des humains, avec leurs propres subjectivités) peuvent tous fausser la donne. On parle alors de biais d'échantillonnage, quand le jeu de données ne représente pas tous les groupes, ou de biais d'étiquetage issu d'appréciations humaines subjectives.
Autre article : IA au travail : la révolution annoncée fait-elle pschitt ?
L'un des aspects les plus pernicieux est le biais par proxy. Imaginez qu'on interdise à une IA d'utiliser un critère sensible comme l'origine ethnique pour prendre une décision. Bonne intention, n'est-ce pas ? Sauf que l'IA, maligne, pourrait identifier d'autres informations, en apparence neutres, qui sont en réalité fortement corrélées à ce critère. Par exemple, un code postal ou le niveau d'études pourraient, indirectement, devenir des substituts (proxies) de l'origine ou du statut socio-économique, menant à des discriminations déguisées. C'est un vrai casse-tête à détecter sans tests rigoureux.
Les dérives ne sont hélas pas que théoriques. L'article d'Artificial Intelligence News rappelle quelques affaires emblématiques. En 2018, Amazon a dû abandonner un outil de recrutement basé sur l'IA parce qu'il favorisait systématiquement les candidats masculins. Certains systèmes de reconnaissance faciale ont aussi montré des taux d'erreur d'identification bien plus élevés pour les personnes de couleur que pour les personnes caucasiennes.
Mais l'exemple le plus frappant est sans doute celui de l'administration fiscale néerlandaise. Entre 2005 et 2019, un algorithme utilisé pour la détection de fraude aux allocations familiales a ciblé de manière disproportionnée les familles avec une double nationalité ou de faibles revenus. Résultat : environ 26 000 familles accusées à tort. Le scandale a été tel qu'il a conduit à la démission du gouvernement néerlandais en 2021. Un véritable séisme qui montre l'impact dévastateur d'une IA mal contrôlée.
Face à ces enjeux, les législateurs commencent à réagir. L'Union Européenne a dégainé son « AI Act » en 2024. Ce règlement, une première mondiale, classe les systèmes d'IA en fonction de leur niveau de risque. Ceux considérés à haut risque, comme ceux utilisés pour le recrutement ou l'octroi de crédits, devront respecter des exigences strictes en matière de transparence, de supervision humaine et, bien sûr, de vérification des biais.
Aux États-Unis, s'il n'y a pas encore de loi fédérale unique, les agences comme l'EEOC (Commission pour l'égalité des chances en matière d'emploi) et la FTC (Commission fédérale du commerce) sont sur le qui-vive, prévenant que des systèmes biaisés pourraient enfreindre les lois anti-discrimination. La Maison Blanche a même publié un « Blueprint for an AI Bill of Rights », une sorte de charte de bonnes pratiques. Et certains États, comme la Californie et l'Illinois, ainsi que la ville de New York, ont déjà pris les devants avec leurs propres réglementations, notamment pour l'utilisation de l'IA dans les processus d'embauche. À New York, par exemple, la loi AEDT (Automated Employment Decision Tool), dont l'application a débuté le 5 juillet 2023, impose des audits de biais pour les outils d'IA utilisés dans le recrutement et la promotion.
Autre article : Formation IA Avignon (150€ HT) : libérez la puissance du prompt parfait
Alors, comment redresser la barre ? L'éthique dans l'automatisation ne tombe pas du ciel. Elle doit être intégrée dès le départ.
Trois stratégies clés se dégagent :
Le saviez-vous ?
La ville de New York impose désormais que les employeurs utilisant des outils automatisés pour le recrutement ou la promotion fassent réaliser un audit de biais indépendant dans l'année suivant l'utilisation de l'outil. Ils doivent aussi publier un résumé des résultats et informer les candidats au moins 10 jours ouvrables à l'avance lorsque de tels systèmes sont utilisés. Transparence, quand tu nous tiens !
L'automatisation et l'IA sont là pour durer, c'est une évidence. Mais la confiance que nous leur accorderons dépendra crucialement de leur équité et de la clarté des règles qui les encadrent. Ignorer les biais dans les systèmes d'IA, n'est pas seulement un risque juridique, c'est un véritable enjeu de société. La bonne nouvelle, c'est que des solutions existent : une prise de conscience accrue, des données de meilleure qualité, des tests rigoureux et une conception plus inclusive. Les lois peuvent encadrer, mais c'est bien d'un changement de culture au sein même des entreprises que viendra le véritable progrès.
Après tout, une IA bien élevée et équitable, c'est quand même plus sympa pour construire le futur, non ?
Auteur : Jérôme Chaudier
Expert en développement web, référencement et en intelligence artificielle, mon expérience pratique dans la création de systèmes automatisés remonte à 2009. Aujourd'hui, en plus de rédiger des articles pour décrypter l'actualité et les enjeux de l'IA, je conçois des solutions sur mesure et j'interviens comme consultant et formateur pour une IA éthique, performante et responsable.