En tant qu’ingénieur (électro)mécanique, vous réaliserez des projets ambitieux et stimulants en Flandre occidentale, Flandre orientale ou Anvers. Nous pouvons vous offrir une grande diversité d’applications et de domaines tels que l’Automobile, l...
Comment les biais s'infiltrent dans notre technologie
Lorsque vous pensez à un employé d'une grande entreprise technologique, quelqu'un qui travaille sur un système de jeu dans lequel les joueurs contrôlent le jeu avec divers gestes de la main et commandes vocales. Quel type de personne imaginez-vous ? Quel est le genre de l'employé ? Quel âge a-t-il ou a-t-elle, et quelle couleur de peau envisagez-vous ?
Il y a de fortes chances que vous ayez pensé à un homme blanc de 30 ans. Et ce n’est pas complètement infondé, car la majorité des créateurs de jeux - plus ou moins - correspond à ce profil. Cela crée une certaine monotonie dans ce secteur, qui peut avoir un impact sur les produits développés par les concepteurs. Et cet impact ne s’avère pas toujours positif, comme nous allons le voir. Voici quelques exemples.
En 2010, une employée de Microsoft a testé le nouveau Kinect pour le système Xbox. Le système fonctionnait parfaitement pour son mari, mais beaucoup moins pour elle et leurs enfants. Il s’est avéré que le système avait été testé uniquement sur des hommes âgés de 18 à 35 ans. En conséquence, le jeu était moins capable de reconnaître les mouvements des femmes et des enfants.
Aujourd’hui, de plus en plus de personnes travaillent avec des systèmes intégrant l’intelligence artificielle. Un tel système de jeu est un exemple relativement inoffensif. Mais imaginez un produit ayant un impact plus important, comme un système de reconnaissance vocale ou faciale pour des raisons de sécurité. Ou encore un système destiné à sélectionner les CV dans un processus de recrutement.
Des exemples concrets montrent que les créateurs de ces systèmes ne représentent pas toujours les utilisateurs. De ce fait, les systèmes de reconnaissance vocale, par exemple, ont parfois des difficultés à comprendre les voix plus aiguës. Il a également été largement documenté que les systèmes de reconnaissance faciale ont du mal à identifier les visages à la peau foncée. Ce n’est pas parce que ces systèmes sont mal conçus, mais plutôt parce qu’ils ont été entraînés avec les voix et visages d’hommes blancs. Ce sont des exemples classiques d’intelligence artificielle biaisée. L’intelligence artificielle reproduit les préjugés de son créateur. Si le créateur semble assez homogène, alors un tel système peut souvent causer des problèmes dans la vie réelle.
Un autre exemple bien connu vient d’Amazon. Cette entreprise a essayé d’utiliser l’intelligence artificielle pour la sélection des CV. Le système avait été entraîné avec des CV soumis auparavant par des candidats, dont - comme il s’est avéré par la suite - la majorité étaient des hommes. Le système a ainsi appris que les hommes étaient de « meilleurs candidats ». L’algorithme a également montré comment il pouvait facilement reproduire les préjugés de la société et révéler le caractère unilatéral du processus de recrutement des dernières années.
Les concepteurs de produits devraient être un enrichissement et non une limitation. L’intelligence artificielle prend les données d’entrée comme vraie et reproduit la vision étroite de son créateur. Bien que le pouvoir des entreprises technologiques ne cesse de croître, cela ne s’applique pas à la diversité au sein de cette branche. La grande question demeure : voulons-nous qu’un tel système (et son créateur) prenne des décisions relativement importantes ? La solution la plus évidente serait de constituer des équipes plus diversifiées. C’est une solution que Laura Manders, employeneur chez TMC, soutient fermement. Elle a fait l’expérience de la monotonie du monde technique à toutes les étapes de son parcours éducatif et a vu peu de modèles dans son éducation et les médias. Sans parler de croiser des filles comme elle qui travaillaient dans la technologie : « J’étais toujours la seule femme ou l’une des rares pendant les stages. » Cette monotonie écrasante s’est atténuée, et Laura travaille désormais dans une équipe plus diversifiée. « J’ai des collègues de toutes les catégories d’âge et un bon ratio hommes-femmes. C’est une sorte de petite société, et cela fonctionne. »
Créer une équipe variée n’est pas si simple. Ainsi, les développeurs technologiques doivent rechercher d’autres moyens de tester leur technologie, comme des équipes de tests représentatives. C’est plus facile à mettre en place que de faire développer la technologie par des groupes de personnes plus diversifiés. Manders cite un exemple pratique qui montre son effet positif : « Un grand développeur technologique a formé des équipes composées de tous les groupes défavorisés au sein de l’entreprise. Pensez aux différentes ethnies, affiliations politiques et orientations sexuelles. Tous ces groupes ont testé les produits afin d’éliminer tout préjugé des produits. »
En fin de compte : tout le monde est biaisé à un certain niveau. Notre éducation crée des idées spécifiques. Mais les informations que nous collectons tout au long de notre vie dépendent également de l’endroit et des circonstances dans lesquelles nous grandissons. Tous ces biais inconscients sont en nous. Non seulement cela, mais ils ont également une fonction importante. La plupart de nos actions sont inconscientes, et ce sont ces biais inconscients qui nous permettent de prendre des décisions (plus rapidement) dans la vie quotidienne.
Les biais ne doivent pas forcément poser problème. Il suffit de prendre conscience que nous intégrons ces préjugés et idées dans la technologie que nous développons. Résoudre la discrimination dans les systèmes algorithmiques ne se fait pas du jour au lendemain. C’est un processus qui prend du temps, tout comme la lutte contre la discrimination dans d’autres facettes de la société. Pour éviter de graves complications, un large groupe de chercheurs en intelligence artificielle travaille sur des algorithmes aidant à détecter (et limiter) les biais cachés au sein des données d’entraînement. Nous verrons si cela apporte le résultat souhaité : des systèmes intégrant l’intelligence artificielle qui puissent être utilisés par tout le monde !
Contactez-nous pour des opportunités, des collaborations ou des questions. Nous sommes là pour créer des liens.