Ei-iE

Mondes de l'éducation

Résister et repenser l’intelligence artificielle

Le personnel enseignant peut trouver une source d'inspiration dans les nombreux efforts visant à résister à l’engouement actuel pour l’intelligence artificielle (IA).

Publié 25 août 2023 Mis à jour 21 mars 2024
Écrit par:

Après la vague d’hystérie récemment provoquée par Chat-GPT, les organisations membres de l’Internationale de l’Éducation (IE) pourraient bien rechigner à l’idée de devoir lire un énième article consacré à l’intelligence artificielle et l’éducation. Malheureusement, l’IA n’est pas un sujet que les personnels éducatifs peuvent se permettre d’ignorer complètement. En effet, beaucoup souhaitent que nous cédions au battage médiatique et que nous acceptions désormais d’être toutes et tous entré·e·s dans l’« ère de l’IA ». Les professeur·e·s et leurs élèves devraient simplement l'accepter et tirer le meilleur parti de l’IA mise à notre disposition. L’une des principales raisons pour lesquelles les débats entourant l’IA sont devenus à ce point ennuyeux et répétitifs, c’est la nature apparemment inéluctable de la situation. Quel que soit le degré d’optimisme ou de pessimisme des conversations entourant l’IA, la présomption sous-jacente est qu' « il n’y a AUCUNE alternative ».

Néanmoins, les membres de l’IE font partie de celles et ceux qui, espérons-le, ne se fient pas complétement lorsqu’on leur demande de se résigner et de se taire. En effet, nombreuses - et puissantes - sont les forces qui mettent tout en œuvre pour nous induire à une attitude passive et résignée face aux changements induits actuellement par l’IA, notamment Google, Open AI, l’Organisation de de coopération et de développement économiques (OCDE) ou d’autres acteurs qui ont tout à gagner de cette technologie. Au lieu de se plier à ces intérêts particuliers, la communauté éducative doit se mobiliser et trouver les moyens de résister aux idées reçues concernant l’IA et l’éducation.

Alors, par où commencer pour s’opposer aux formes d’IA actuelles qui nous sont vendues sans relâche ? Cet article propose un ensemble d’arguments convaincants opposés à l’IA, qui commencent à être mis en avant par celles et ceux qui risquent de perdre le plus (et de gagner le moins) face à cette nouvelle technologie : les populations afro-descendantes, les personnes handicapées, la communauté queer, les populations des pays en développement, les communautés autochtones, les activistes écologistes, antifascistes et personnes issués d’autres groupes marginalisés, défavorisés ou subalternes. Toute personne qui dans la profession enseignante se préoccupe de l’avenir de l’IA et de l’éducation doit donc se réjouir de ces critiques de l’IA chaque jour plus nombreuses. Voici donc quelques points de vue alternatifs nous montrant ce qu’est l’IA... et ce qu’elle pourrait être.

Pistes pour penser l’IA différemment

Le point de vue des personnes afro-descendantes, handicapées et queer concernant l’IA

Certaines des critiques les plus virulentes de l’IA sont celles émanant des groupes traditionnellement minoritaires tels que les personnes Afro-descendantes, qui dénoncent les discriminations raciales de la technologie aux États-Unis et ailleurs. Cela va de la très médiatisée reconnaissance faciale à l’origine de pratiques racistes au sein des services de police aux discriminations systématiques perpétuées par des algorithmes mis en place pour déterminer l’attribution des prestations sociales, l’accès aux universités et l’octroi de prêts hypothécaires.

Ces discriminations à double tranchant basées sur l’IA sont de plus en plus souvent condamnées. Non seulement ces technologies sont initialement développées à partir d’un ensemble de données véhiculant des discriminations historiques envers les populations afro-descendantes, mais elles sont ensuite déployées dans des institutions et des environnements où le racisme est de nature structurelle. C’est ce qui a amené Ruha Benjamin (2019) à évoquer le concept d’ « inégalité automatisée », autrement dit la tendance des technologies d’IA à produire des résultats systématiquement oppressifs et désavantageux, étant donné qu’elles ont été conçues dans une société structurée selon des formes de domination imbriquées (Benjamin 2019, p. 47).

On observe des critiques similaires à l’égard de l’IA parmi les personnes handicapées et queer. Comme le souligne la militante universitaire Ashley Shew, le développement actuel des technologies d’IA semble avoir tendance à favoriser les personnes non handicapées. L’oculométrie, la reconnaissance vocale et l’analyse de la démarche sont autant de techniques défavorables aux personnes ne présentant pas les caractéristiques physiques, les modes de pensée ou les comportements conformes et attendus. Ashley Shew souligne encore l’absence d’intérêt de la part des développeurs d’IA à concevoir leurs produits en tenant compte de l’expérience des personnes handicapées face à la technologie et à leur handicap. Dans le meilleur des cas, l’IA est développée pour « aider » en quelque sorte les personnes handicapées à mieux s’intégrer dans un monde de personnes « valides » et un environnement neurotypique, le handicap étant considéré comme un problème individuel que l’IA peut, dans une certaine mesure, aider à surmonter.

De telles perspectives concernant l’IA doivent certainement inciter les enseignantes et les enseignants à réfléchir à deux fois concernant l'usage de l’IA pour rendre l’éducation plus équitable. Il est en effet très peu probable que les systèmes d’IA actuellement implantés dans des environnements éducatifs déjà inégaux puissent produire des résultats radicalement différents en termes d’autonomisation ou d’émancipation pour les personnels enseignants et les élèves appartenant à des groupes minoritaires. Bien au contraire, il est plus que probable que même l’IA la mieux intentionnée accentuera et multipliera les tendances discriminatoires existantes et leurs conséquences.

Approches féministes de l’IA

Toutes les préoccupations qui précèdent trouvent également un écho dans les critiques féministes de l’IA. Elles remontent déjà à plusieurs décennies lorsque, dans les années 1990, des auteures telles qu’ Alison Adam ont mis en avant que l’IA reposait sur des conceptions extrêmement problématiques de l’intelligence et sur une profonde insensibilité aux aspects sociaux et culturels de la pensée, de l’action et de la vie. Depuis, les mouvements féministes ont continué à dénoncer les développeurs d’IA et leurs technologies dénuées de toute considération réelle pour les attributs humains fondamentaux tels que l’empathie, l’éthique, la solidarité et le respect d’autrui et de l’environnement.

En soulevant toutes ces questions, les critiques féministes montrent que bon nombre de problèmes liés aux utilisations actuelles de l’IA sont à mettre en relation avec le fonctionnement du pouvoir et les privilèges propres aux sociétés capitalistes modernes. Exemple, les militantes féministes ont rapidement dénoncé le fait que le développement de l’IA s’appuie sur un « travail invisible » peu ou non rémunéré, effectué par des femmes ou des personnes de couleur, et souvent confié en sous-traitance à des travailleuses et travailleurs d'origine non-occidentale. La pensée féministe nous rappelle que ces injustices ne peuvent être simplement évitées, neutralisées ou surmontées. Il s’agit plutôt de situations auxquelles il importe de résister, qui doivent être remises en question et sur lesquelles il faut travailler de manière à rééquilibrer les résultats produits par les outils d’IA en s’alignant sur des fondements plus équitables.

Tout cela a conduit à appeler au développement de nouvelles formes d’IA basées sur des principes féministes et pouvant servir les objectifs du féminisme. Il s’agit notamment de projets où les populations locales prennent le temps de constituer leurs propres bases de données pour former les modèles d’IA. Cela signifie que le fonctionnement, les intentions et les paramètres de l’outil d’IA envisagé sont désormais transparents aux yeux de toute personne impliquée dans sa conception et son utilisation, contrairement à l’opacité volontaire de la « boîte noire » de la plupart des outils d’IA commercialisés. D’autres formes féministes d’IA sont mises au point pour combattre délibérément les formes d’IA discriminatoires et misogynes actuellement prédominantes, notamment des versions alternatives d’IA prédictive qui alertent les forces de l’ordre en cas de délits tels que la violence fondée sur le genre ou le féminicide. Comme le conclut Sophie Toupin, l’IA féministe nous apporte la promesse qu’une IA plus juste, plus lente, plus consensuelle et plus collaborative est possible.

Point de vue des populations autochtones concernant l’IA

En parallèle, on observe un intérêt croissant pour une reconceptualisation de l’IA au travers du prisme des épistémologies, des cosmologies et des manières d’être et d’agir des populations autochtones. Une des premières tentatives dans ce sens nous est proposée par Luke Munn dans un article récent intitulé « The five tests: designing and evaluating AI according to indigenous Māori principles » (Les cinq tests : concevoir et évaluer l’IA selon les principes autochtones maoris), où il applique les travaux de l’anthropologue, historien et leader maori Sir Hirini Moko aux cadres occidentaux existants pour les technologies d’IA qui commencent à être appliquées dans divers domaines de la société.

Comme l’explique Luke Munn, ces principes, valeurs et interprétations maoris vont clairement à l’encontre des principes dominants qui entourent actuellement l’IA et sont promus par l’industrie informatique et les intérêts politiques occidentaux. Exemple, les conceptions autochtones de l’IA mettent l’accent sur des questions telles que la dignité humaine, les intérêts collectifs et l’intégrité de la communauté, tout en contextualisant les impacts en fonction des normes locales. Point crucial, ces approches insistent également sur les interactions matérielles entre l’IA et les environnements naturels, qu’il s’agisse de l’implantation de centres de données consommant de grandes quantités d’eau dans des régions frappées par la sécheresse, ou encore, du problème des déchets électroniques ou de la surexploitation des métaux et minéraux rares destinés à la fabrication des appareils informatiques.

Du point de vue autochtone, l’engouement actuel de l’Occident pour l’IA semble en effet dangereusement déséquilibré et éloigné des besoins des populations et de leur environnement. En comparaison des cadres autochtones décrits par Luke Munn dans son article, le discours dominant actuel de l’industrie des technologies de l’information, prônant notamment une « transformation » complète de nos sociétés et une vision extrême d’une « intelligence artificielle universelle » omnipotente, apparaît résolument arrogant, outrancier, irrespectueux et destructeur.

Questions et préoccupations récurrentes

Seuls ont été présentés ici quelques aspects du discours critique de plus en plus virulent à l’égard de ce qu’est l’IA et de ce qu’elle peut être. En effet, l’IA est aujourd’hui au centre d’une multitude de perspectives et points de vue différents. Outre les appels de plus en plus nombreux à repenser l’IA dans une perspective décolonialiste et de justice environnementale, une autre série d’arguments remettant en question les politiques actuelles en la matière attirent l’attention sur les corrélations évidentes entre les politiques fascistes et les opérations de base de l’IA ( McQuillan 2022, p. 97).

Si l’ensemble de ces idées et programmes offrent des perspectives très différentes, parfois contradictoires, concernant l’IA, ils présentent néanmoins des sensibilités et des ambitions communes. Par exemple, les détracteurs n’ont généralement pas peur de formuler des exigences radicales. Un des principaux enseignements à tirer de ces nombreux points de vue est que des formes spécifiques d’IA ne devraient tout simplement jamais être développées ou être immédiatement écartées et interdites. Des arguments plaident ainsi systématiquement en faveur d’une interdiction totale des technologies de reconnaissance faciale ou exigent, à tout le moins, une réglementation et un contrôle stricts de leur utilisation, à l’instar d’autres matières contrôlées comme le plutonium. Comme l'explique l’avocat et militant Albert Fox Cahn, la reconnaissance faciale est biaisée, non fiable et antidémocratique. L’interdire n’est pas uniquement un gage de protection des droits civiques, mais bien une question de vie ou de mort.

On notera, par ailleurs, des préoccupations communes quant à la nécessité d’accorder une place centrale aux points de vue des groupes marginalisés et aux perspectives alternatives dans le cadre de la conception future des technologies d’IA. À court terme, le développement futur des outils et technologies d’IA devrait s’articuler autour des besoins des personnes les moins susceptibles de bénéficier de la technologie (celles que les concepteurs appellent parfois les « cas marginaux »). Au lieu de s’y intéresser après coup, les expériences des personnes afro-descendantes, handicapées ou autochtones devraient présider aux décisions de celles et ceux qui conçoivent et développent l’IA. C’est précisément ce que reflètent les appels en faveur d’une conception de l’IA tenant compte du handicap, des revendications féministes, des lignes directrices autochtones et d'une approche de l’IA fondée sur la justice.

À long terme, il importera de se mobiliser pour défendre ces principes (ou d’autres principes similaires) afin de pouvoir jeter les bases d’une réforme fondamentale et durable de l’IA reposant sur des fondements anti-discriminatoires véritablement inclusifs et décolonisés, obligeant les acteurs de l’industrie des technologies de l’information, les responsables politiques et les autres parties prenantes de l’IA à forger leurs actions et leurs ambitions en tenant compte de problématiques telles que la justice, les inégalités et le colonialisme. Il faudra pour cela que l’industrie de l’IA renonce à ses préoccupations actuelles que sont la vitesse et la portée du développement technologique, l’innovation et les bouleversements qui en découlent. Il conviendrait, au contraire, de promouvoir une approche de l’IA plus lente, plus réfléchie et plus respectueuse de la vie, dans toute sa diversité (Munn 2023, p. 70).

Et maintenant, où en est-on ? Repenser l’IA éducative que nous souhaitons

L’IA n’est pas gravée dans le marbre. De nombreuses raisons nous invitent à croire que la transformation de l’éducation par l’IA est un phénomène auquel nous pouvons résister et qu’il nous est peut-être même possible de réimaginer de manière diamétralement différente. Les diverses perspectives que nous venons d’évoquer doivent nous inciter à apaiser et à recadrer les débats actuels centrés sur l’IA et l’éducation. Elles doivent nous inviter à réfléchir à ce que ces technologies peuvent faire et ne pas faire en mettant en évidence les pertes et préjudices résultant de leur utilisation. Ces revendications sont loin d’être déraisonnables. Il est en effet révélateur de constater que nous sommes arrivés à un point où les appels à considérer les questions relatives aux inégalités sociales, à l’humanité et à l’environnement semblent en quelque sorte radicaux et totalement irréalisables.

Il est encore temps de s’élever contre les formes d’IA préjudiciables, aujourd’hui mises en avant avec tant d’acharnement. À cet égard, il semble essentiel que la communauté éducative prenne des mesures concertées pour intégrer ces valeurs, ces idéaux et ces principes aux débats et aux prises de décision visant à déterminer les formes d’IA que nous souhaitons voir déployées au sein de l’éducation. Les points de vue critiques des communautés afro-descendantes, féministes et autochtones développés dans cet article nous engagent à ne tirer aucune conclusion hâtive quant à l’avenir de l’IA et de l’éducation, en pensant qu’il nous faudra simplement nous y adapter. Bien au contraire, l’ingérence de l’IA dans l’éducation est une chose à laquelle nous devons résister et qu’il nous faut réimaginer.

Le contenu et les avis exprimés dans ce blog sont ceux de son auteur et ne reflètent pas nécessairement la position officielle de l’Internationale de l’Education.