L'INTELLIGENCE ARTIFICIELLE SOUFFRE-T-ELLE D'UN MANQUE D'OBJECTIVITÉ ?
6 mins de lecture | Lydia Tedjini | Article | Tendances de marché
Les chatbots ne font que perpétuer les préjugés ?
L'intelligence artificielle (IA) a connu un véritable essor ces douze derniers mois. Elle a par exemple permis d'automatiser le développement de logiciels ou de produire des œuvres d'art en l'espace de quelques secondes. Et cette technologie ne fait que progresser. Après le succès fébrile de ChatGPT, OpenAI a lancé en mars la dernière version de son chatbot doté d'IA, GPT-4.
Cependant, tout le monde n'attend pas la prochaine version avec impatience.
Une lettre ouverte signée par des leaders de l'industrie a exigé un ralentissement de l'IA générative, tandis que le mois dernier, l'Italie a pris la décision radicale d'interdire ChatGPT en raison de préoccupations liées à la confidentialité des données.
Alors que nous commençons à en apprendre davantage sur cette technologie, un autre problème devient de plus en plus évident : le manque d’objectivité.
Les outils d'IA générative comme ChatGPT s'appuient sur des milliards de données pour formuler une réponse, ce qui risque de propager des opinions biaisées à un niveau sans précédent.
Une étude a révélé que 97 % des images de DALLE-2 montrant des positions d'autorité représentaient des hommes blancs. Un rapport du Forum économique mondial a révélé que seuls 22 % des professionnels de l'IA dans le monde étaient des femmes.
Comment les préjugés peuvent apparaître dans l'IA
La question des préjugés dans les programmes informatiques n'est pas vraiment nouvelle ; les algorithmes utilisés pour aider les humains à prendre des décisions ont perpétué des comportements biaisés voire discriminatoires bien avant l'avènement du ChatGPT.
En 1988, la Commission britannique pour l'égalité raciale a reconnu une école de médecine britannique coupable de discrimination algorithmique. Le programme informatique qu'elle avait utilisé - dans l'espoir de réduire le travail de sélection des candidats à un entretien - a été jugé partial à l'égard des femmes et des candidats dont le nom ne provenait pas d'Europe.
Plus de trente ans plus tard, la technologie qui sous-tend ces algorithmes est devenue beaucoup plus complexe. Avec des outils d'IA générative comme ChatGPT - et la réponse de Google, Bard - les grands modèles de langage sont capables de faire passer les préjugés existants à un niveau supérieur à ce qu'ils sont aujourd'hui.
Les outils d'IA générative explorent l'internet à la recherche d'énormes quantités de données pour informer leurs réponses. Pour améliorer la précision et la sophistication de ces réponses, la technologie est pré-entraînée et affinée. Mais il s'agit d'un processus imparfait.
Selon OpenAI, ce processus s'apparente davantage au « dressage d'un chien » qu'à la programmation traditionnelle. Contrairement à un labrador typique, la technologie est imprégnée de données qui représentent des points de vue intrinsèquement biaisés ou inexacts. Et parfois, c'est le manque de données qui s'avère problématique, entraînant une prise de décision inexacte et potentiellement préjudiciable.
À quoi ressemblent les préjugés dans l'IA ?
Nous savons donc qu'il existe des préjugés dans l'IA, mais à quoi ceux-ci ressemblent-ils concrètement ?
Il y a de multiples facettes, comme c'est le cas pour les préjugés en dehors de la sphère digitale. Le contenu généré par l'IA peut s'appuyer sur des associations de données qui affichent des préjugés raciaux et sexistes, ou propagent des stéréotypes et d'autres points de vue étriqués.
Cela a été constaté avec le générateur d'images de l'OpenAI, DALLE-2, où une étude a révélé que 97 % des images montrant des positions d'autorité - telles que des postes de cadres supérieurs- représentaient des hommes blancs.
Les processus décisionnels gérés par l'IA peuvent également être compromis. Dans son livre blanc sur l'IA publié récemment, le gouvernement britannique a souligné que les préoccupations liées à l'IA pourraient s'étendre à l'évaluation de la valeur des demandes de prêt ou d'hypothèque. Et comme les algorithmes tirent les ficelles dans de nombreux aspects de notre vie quotidienne, y compris la reconnaissance faciale, les préjugés alimentés par l'IA pourraient devenir de plus en plus envahissants et préjudiciables.
Alors, l'IA a-t-elle un problème de partialité ? C'est presque certain, mais la réponse peut être le reflet de problèmes existants dans notre société, à savoir la sous-représentation dans le domaine de la technologie.
Est-il possible d'éliminer les préjugés de l'IA ?
Pour véritablement éliminer les préjugés dans le domaine technologique, il faut les éliminer au niveau humain, ce qui est plus facile à dire qu'à faire.
Le rapport du Forum économique mondial qui a révélé que seuls 22 % des professionnels de l'IA dans le monde étaient des femmes, témoigne de l'écart plus important entre les hommes et les femmes dans le domaine de la technologie.
Si les outils d'IA sont conçus par un groupe de personnes non représentatif, le produit final ne bénéficiera pas des contributions et des questions cruciales qui rendent le produit plus représentatif de la société dans son ensemble.
L'importance de la diversité dans l'IA a été largement démontrée. Une étude sur les inégalités dans la prise de décision algorithmique recommande d'améliorer la diversité dans toute une série de fonctions impliquées dans le développement technologique, tandis qu'un rapport de Deloitte a montré qu'une main-d'œuvre plus diversifiée est mieux à même d'identifier et d'éliminer les inégalités dans l'intelligence artificielle.
Avec une formation adaptée, il est même possible que l'IA elle-même soit utilisée comme un outil permettant d'éliminer les préjugés et de créer des processus de prise de décision plus équitables.
Afin de changer le discours sur les préjugés en matière d'IA et de rompre le cercle vicieux, il faut redoubler d'efforts pour créer une main-d'œuvre technologique inclusive, qu'il s'agisse de soutenir l'enseignement des STEM pour les filles ou de mettre en avant des modèles d'IA issus de groupes non représentés. L'IA générative progresse à une vitesse fulgurante, mais les normes d'égalité de l'industrie technologique doivent d'abord être rattrapées.
Il y a quelques jours était célébrée la Journée internationale des filles dans les TIC 2023 avec pour thème : « Des compétences numériques pour la vie ». C'est l'occasion d'inspirer et d'encourager les filles à poursuivre un avenir dans les TIC, en leur donnant les compétences, la confiance et le soutien nécessaires pour atteindre leurs objectifs.
À propos de l'auteur
LYDIA TEDJINI - RESPONSABLE DE DIVISION JUNIOR IT PERMANENT
De formation supérieure en Management et disposant d’une expérience significative dans le commercial, c’est en 2021 que Lydia intègre le cabinet Hays afin de développer la division IT sur le bureau de Nice.
Aujourd’hui, elle est spécialisée dans les domaines de l’Infrastructure, la Cybersécurité et le Leadership et intervient sur l’ensemble du secteur des Alpes-Maritimes, le Var Est, Monaco et la Corse.
Après l’obtention d'une promotion Sénior un peu moins de deux ans après son arrivée, l’équipe a pu évoluer et grandir et Lydia est désormais Responsable de la division IT sur le bureau de Nice et manage 2 consultants spécialisés.