Garder l’humanité au centre : accessibilité et intelligence artificielle dans l’éducation
Restez à jour
Abonnez-vous à la lettre d’information Mondes de l’Éducation.
Restez à jour
Abonnez-vous à la lettre d’information Mondes de l’Éducation.
Merci de votre abonnement
Une erreur est intervenue
Dans une classe du nord de l’État de New York, une enseignante en éducation spécialisée présente un ensemble de dispositifs de suivi oculaire Tobii, chacun étant calibré en fonction du regard unique de l’élève. La concentration est palpable dans la salle, tandis que les élèves vivant avec une paralysie cérébrale et un trouble du spectre autistique s’apprêtent à commencer leur activité d’écriture. Au lieu d’un crayon et d’une feuille de papier, les enfants se servent d’outils de communication alternative augmentée (CAA) optimisés par l’IA. À chaque clignement des yeux ou à chaque regard, le logiciel anticipe leur prochain mot, utilisant la prédiction basée sur le contexte pour compléter des phrases, poser des questions et exprimer des idées qui, avant, auraient pris plusieurs minutes à formuler.
Ce qui était autrefois un processus laborieux de sélection lettre par lettre a fait place à une conversation fluide. L’IA se nourrit de chaque interaction, s’adaptant au ton, au vocabulaire et au contexte. Pour la première fois, des élèves parviennent, par le biais du regard ou de la saisie à touches uniques, à tenir des discussions entières en classe, à répondre à des questions, à débattre d’idées et même à raconter des blagues.
Lorsqu’elle se déplace d’un poste à l’autre, plutôt que de se concentrer sur la notation ou la saisie de données, la professeure privilégie la connexion et veille à ce que chaque élève puisse avant tout s’exprimer.
À l’autre bout du pays, en Alaska, une orthophoniste commence une séance en petit groupe en se servant d’un ensemble d’outils très différents. Sur son écran, on peut voir des onglets ChatGPT, Perplexity, NotebookLM et SchoolAI. Chaque plateforme remplit une fonction spécifique : l’une aide à générer des messages d’incitation à la conversation, une autre rassemble des listes de vocabulaire et une autre encore simule des dialogues réalistes pour que les élèves puissent s’exercer. L’orthophoniste intègre ces outils à ses séances de travail afin d’aider les élèves à atteindre leurs objectifs de communication, à explorer du vocabulaire et à engager des conversations structurées, personnelles et pertinentes.
Pour les élèves qui avaient autrefois du mal à trouver les mots justes ou à maintenir leur attention, ces sessions assistées par l’IA ont ouvert de nouvelles possibilités. La technologie ne se substitue pas à la compétence de l’éducatrice, mais l’amplifie, ce qui lui permet d’adapter la pratique aux besoins de chaque élève, tout en maintenant un niveau élevé d’engagement.
Comment les personnels enseignants utilisent l’IA pour les élèves en situation de handicap
Ces histoires ne sont pas isolées. Partout aux États-Unis, les personnels éducatifs explorent de nouvelles façons d’utiliser l’intelligence artificielle pour répondre aux besoins d’élèves aux profils variés. Selon un rapport récent du Center for Democracy and Technology, au cours de l’année scolaire 2024-2025, près de six enseignantes et enseignants sur dix travaillant avec des élèves en situation de handicap ont déclaré avoir fait appel à l’IA dans l’élaboration de plans d’éducation et d’accessibilité individualisés pour leurs élèves.
Aux États-Unis, la loi reconnaît aux élèves en situation de handicap le droit à une éducation publique gratuite et appropriée. En vertu de deux lois fédérales – la loi sur l’éducation des personnes vivant avec un handicap (Individuals with Disabilities Education Act) et la section 504 de la loi sur la réhabilitation (Rehabilitation Act) –, les élèves présentant un handicap cliniquement diagnostiqué ont droit à des plans adaptés ou individualisés qui décrivent comment les écoles les aideront à accéder à l’apprentissage sur un pied d’égalité avec leurs pair·es, et ce par le biais d’un enseignement spécialisé, de services et d’aménagements, tels que des horaires prolongés et/ou des technologies d’assistance. Les élèves bénéficiant de ce type de plans personnalisés sont plus susceptibles que leurs pair·es d’avoir des conversations en va-et-vient avec des outils d’intelligence artificielle. Selon le Center for Democracy and Technology, 73 % des élèves en situation de handicap ont déclaré avoir utilisé l’IA de cette manière, contre 63 % de celles et ceux qui n’ont pas de plan individualisé pour un handicap attesté.
Trouver un équilibre entre les opportunités et les risques
Bien que la technologie de l’IA soit extrêmement prometteuse sur le plan éducatif pour les élèves en situation de handicap, il est important que les élèves, les écoles et les parents soient conscients de plusieurs facteurs de risque et qu’ils ou elles les examinent attentivement. Ceux-ci concernent notamment l’impact sur les liens sociaux et les compétences relationnelles, l’aptitude aux études et la protection des données à caractère personnel.
Plus de 40 % des élèves affirment qu’eux ou elles-mêmes ou bien l’un ou l’une de leurs ami·es ont eu recours à l’IA pour obtenir un soutien en matière de santé mentale, une tendance inquiétante qui soulève des questions sur cette technologie. Soixante-quatre pour cent de tous les élèves estiment que l’IA affaiblit certaines aptitudes importantes dont les élèves ont besoin pour apprendre, comme l’écriture, la compréhension en lecture et la conduite de recherches, et 57 % des élèves doté·es d’un plan individualisé ont déclaré que l’utilisation de l’IA en classe « donne l’impression d’être moins connecté·e à l’enseignante ou à l’enseignant ».
Par ailleurs, si l’IA n’est pas utilisée dans un but clairement défini, avec des règles et des protections appropriées, les élèves en situation de handicap sont plus susceptibles de voir leurs données médicales et biométriques sensibles (telles que la technologie de balayage rétinien décrite ci-dessus) exposées aux systèmes d’IA, ce qui peut s’avérer dangereux et compromettre la vie privée de l’élève. Aux États-Unis, le taux de suspension et d’expulsion des élèves en situation de handicap est beaucoup plus élevé que celui de leurs pair·es. Il convient aussi de noter que ces enfants représentent 65 à 75 % des enfants placés dans le système de justice juvénile. Les données de ce type augmentent les biais algorithmiques de l’intelligence artificielle et peuvent entraîner un étiquetage injuste des élèves en situation de handicap comme étant potentiellement problématiques. La situation est aggravée lorsque certains systèmes scolaires partagent les données des élèves avec les agences chargées de l’application de la loi. Les systèmes scolaires sont notoirement vulnérables aux attaques de « ransomware » et autres violations de données, alors que ces dossiers d’élèves peuvent contenir des informations médicales hautement sensibles et d’autres données qui sont, à juste titre, protégées par la loi.
Tout ceci souligne la nécessité de concevoir des IA centrées sur l’humain, accessibles et transparentes, qui soient adaptées au développement et à l’âge des élèves, et de prévoir tous les garde-fous nécessaires pour assurer leur sécurité.
Renforcement des capacités d’action des personnels enseignants : ressources et outils de la NEA
En 2024, le groupe de travail de la National Education Association (NEA) sur l’intelligence artificielle dans l’éducation a publié une étude sur l’utilisation responsable de l’intelligence artificielle dans les écoles. Cette étude examine comment le potentiel et les risques de l’intelligence artificielle ont un impact unique sur les élèves et les personnels en situation de handicap, en particulier lorsque l’accessibilité, la protection de la vie privée et les préjugés ne sont pas considérés comme prioritaires. En substance, la déclaration de politique générale proposée par la NEA soutient que les êtres humains doivent continuer à occuper une place centrale dans l’enseignement et l’apprentissage.
La NEA a en outre élaboré des conseils pratiques pour aider les personnels éducatifs à évaluer les outils d’IA à travers le prisme de l’équité et de l’accessibilité. Ces orientations sont conçues pour aider les personnels à déterminer si les technologies de l’IA sont inclusives pour l’ensemble des élèves, en particulier celles et ceux en situation de handicap, et à s’assurer que tous les outils utilisés en classe sont conformes aux principes d’accessibilité, d’équité et d’apprentissage centré sur l’humain. L’élaboration de cette ressource a commencé par une évaluation objective du contexte actuel. Le but visé était de créer un outil simple, convivial et utile pour tous les personnels éducatifs, quelle que soit leur expérience en matière d’IA. Trop souvent, l’accessibilité est réduite à des listes de contrôle de conformité. La NEA a recadré l’accessibilité comme un aspect fondamental de l’enseignement inclusif.
Les principes suivants peuvent contribuer à faire en sorte que la technologie soit au service de tous les apprenants et apprenantes :
1. Leadership des personnes directement concernées
Une véritable accessibilité ne peut être réalisée qu’avec les conseils, la contribution et le soutien des personnes en situation de handicap. Les élèves, les personnels éducatifs et les familles doivent jouer un rôle de premier plan dans la conception, la mise au point et l’évaluation des outils d’IA. Leur leadership garantit que la technologie favorise l’inclusion et l’autonomie et non pas uniquement la surveillance ou l’efficacité.
2. Tenir compte des différents niveaux de littératie en IA
Le degré de familiarisation des personnels éducatifs avec l’IA varie considérablement. Alors que certaines personnes sont des adeptes de la première heure, d’autres se montrent plus sceptiques ou n’ont qu’un accès limité à la technologie. Pour être efficaces, les ressources doivent être claires, bien encadrées et fondées sur l’utilisation éthique et l’accessibilité, afin de garantir à toutes et à tous une participation significative.
3. Une IA centrée sur l’humain
L’IA ne pourra jamais remplacer les relations authentiques entre humains. La NEA insiste sur le fait que ce sont les personnels éducatifs, et non les algorithmes, qui doivent déterminer la manière dont la technologie est utilisée. L’IA doit renforcer la communication, la créativité et la différenciation dans les salles de classe, et non les affaiblir.
4. Priorité à la protection des données et à l’atténuation des biais
Si l’IA peut faire gagner du temps et favoriser l’innovation, elle peut aussi reproduire des biais, mal identifier les élèves de couleur ou en situation de handicap, et engendrer des pratiques peu sûres dans le domaine du traitement des données. La NEA préconise des systèmes transparents et éthiques, conçus avec de solides protections des données et une représentation diversifiée dans la prise de décision à tous les niveaux.
5. Mobiliser l’expertise des personnels, des élèves et des familles
La politique en matière d’IA doit être éclairée par les personnes les plus proches de l’enseignement et de l’apprentissage. Impliquer les personnels éducatifs, les élèves et les familles dans la prise de décision permet de développer une compréhension commune et une plus grande transparence, tout en garantissant que l’IA réponde aux besoins réels au niveau de la salle de classe.
Le message est clair et universel : la technologie doit soutenir (et non supplanter) un enseignement et un apprentissage de qualité et répondre à un objectif clairement défini par les professionnel·les de l’éducation. En mettant l’accent sur des relations humaines saines, la sécurité, le bien-être et l’équité en matière d’éducation, il est possible d’envisager un avenir où l’IA soutiendra une éducation de haute qualité qui permettra aux élèves de toutes aptitudes d’atteindre leur plein potentiel.
La justice en matière de handicap nous rappelle qu’une véritable inclusion implique de reconnaître les multiples identités et expériences personnelles qui se chevauchent et de veiller à la pleine participation de chacun et chacune. Cela implique également de comprendre notre dépendance réciproque. Les personnes les plus touchées par la discrimination et les barrières sont celles qui doivent guider la manière dont les technologies sont créées et utilisées.
Appliquer ces principes à l’IA, c’est valoriser toutes les formes d’apprentissage, de communication et d’expression. Cela signifie construire des systèmes qui répondent aux besoins des personnes là où elles se trouvent et considérer l’accessibilité comme un acte de soin partagé qui profite à tout le monde.
Pour consulter l’ensemble des ressources de la NEA sur l’IA dans l’éducation, rendez-vous sur nea.org/ai.
Le contenu et les avis exprimés dans ce blog sont ceux de son auteur et ne reflètent pas nécessairement la position officielle de l’Internationale de l’Education.