Mises à jour sur les risques de biais de l’IA
Certaines personnes disent que l’utilisation d’un grand modèle de langage comme ChatGPT est comme utiliser une calculatrice, mais les calculatrices ne nous montrent pas de contenu raciste, sexiste ou homophobe. Nous pouvons perfectionner nos aptitudes de pensée critique pour nous adapter au monde de l’IA, mais quel est l’avantage d’être exposé à ce type de contenu?
“These Women Tried to Warn Us About AI” (Ces femmes ont essayé de nous mettre en garde contre l’IA)
par Lorena O’Neil au Rolling Stone Magazine (août 2023)
« Les chercheurs, y compris de nombreuses femmes de couleur, disent depuis des années que ces systèmes interagissent différemment avec les personnes de couleur et que les effets sur la société pourraient être désastreux; qu’ils sont un miroir déformant qui amplifie les biais et supprime le contexte d’où provient l’information; qu’ils sont testés sur ceux qui n’ont pas le choix de se retirer; et qu’ils éradiqueront les emplois de certaines communautés marginalisées. »
“What ChatGPT Tells Us about Gender: A Cautionary Tale about Performativity and Gender Biases in AI” (Ce que ChatGPT nous dit à propos du genre : Un avertissement sur la performativité et les biais de genre dans l’IA)
par Nicole Gross (juin 2023)
« L’argument central de cet article est que les grands modèles de langage fonctionnent de façon performative, ce qui signifie qu’ils perpétuent, voire amplifient, les anciennes interprétations non inclusives du genre. Des exemples de ChatGPT sont utilisés ici pour illustrer certains biais de genre dans l’IA. Toutefois, ce document souligne également que l’IA peut contribuer à réduire les biais et à “défaire le genre”. »
“The Pear, You & AI” (La poire, vous et l’IA) par Valentine Goddard
« The Pear, You and AI est une initiative d’annotation collaborative dirigée par des femmes, conçue dans le cadre d’un projet plus vaste sur l’art algorithmique pour contrer les biais de genre dans l’IA. Au cours de cette phase initiale, nous procédons à la collecte de données fondées sur vos mots et vos perceptions associés à des mots comme femmes, beauté et imperfection. »
“A People’s Guide to Artificial Intelligence” (Un guide populaire sur l’intelligence artificielle) par Mimi Onuoha et Diana Nucera aussi appelée Mother Cyborg
par l’entremise d’Allied Media Projects (PDF)
- À quoi ressemble la justice lorsque les ordinateurs modèlent la prise de décisions?
- Qui crée l’avenir, et comment pouvons-nous nous assurer que ces créateurs reflètent des communautés diversifiées et des dynamiques sociales complexes?
« Ce livret, publié en août 2018, explore ces questions au moyen d’une série de textes explicatifs et d’illustrations fantaisistes qui emmènent le lecteur dans un voyage pour démystifier le monde souvent opaque de l’intelligence artificielle. »
“5 Ethical Implications of AI in Education: A Guideline for Responsible Classroom Implementation” (5 implications éthiques de l’IA en éducation : Lignes directrices pour la mise en œuvre responsable en classe)
par Luis Pardo (juin 2023)
« Une mise en œuvre responsable de l’IA dans un contexte scolaire commence par une planification minutieuse et la prise en compte des besoins de toutes les parties intéressées. Il s’agit de veiller à ce que les outils d’IA soient accessibles et conçus pour répondre à divers besoins d’apprentissage, y compris ceux des élèves handicapés ou ayant des besoins particuliers. Les écoles doivent veiller à ce que tous les élèves aient accès à la technologie nécessaire pour empêcher l’élargissement du fossé numérique. Les outils d’intelligence artificielle devraient être entraînés sur divers ensembles de données afin de réduire au minimum les biais algorithmiques et devraient être conçus pour offrir des expériences d’apprentissage personnalisées, en fonction du rythme et du style d’apprentissage uniques de chaque élève. »
Initiative pour l’intelligence artificielle et l’égalité du Carnegie Council pour l’éthique dans les affaires internationales
« L’Initiative pour l’intelligence artificielle et l’égalité (AIEI) est une communauté de pratique innovante axée sur l’impact, qui cherche à comprendre les innombrables façons dont l’IA influe sur l’égalité, pour le meilleur ou pour le pire. Nous travaillons à renforcer l’éthique de l’IA afin qu’elle soit déployée de manière juste, responsable et inclusive. »
IA et éducation : guide pour les décideurs politiques de l’UNESCO (2021)
« … si l’IA peut potentiellement contribuer à la réalisation des Objectifs de développement durable (ODD) des Nations Unies, la rapidité de l’évolution technologique entraîne inévitablement de multiples risques et défis, qui ont jusqu’à présent dépassé les débats politiques et les cadres réglementaires. Et, alors que les principales inquiétudes pourraient concerner le fait que l’IA domine l’action humaine, des préoccupations plus immédiates concernent les implications sociales et éthiques de l’IA – telles que l’utilisation abusive des données personnelles et la possibilité que l’IA ne creuse les inégalités existantes au lieu de les réduire. »