Médiations - Informations - Communication - Arts
You are currently viewing De la régulation de l’intelligence artificielle dans le domaine éducatif : Discours, dispositifs, pratiques

Date/heure
10/12/2021

Catégories


Numéro coordonné par :

  • Christine Chevret-Castellani, maîtresse de conférences en SIC, université Sorbonne Paris Nord, LABSIC
  • Sarah Labelle, professeure des universités en SIC, université Montpellier 3 Paul Valéry, CERIC-LERASS
  • Emilie Remond, chercheuse associée en SIC, université de Poitiers, TECHNE

L’intelligence artificielle (ci-après IA) n’est pas un domaine de recherche récent. C’est en 1956 lors de la conférence de Darmouth que les pionniers de cette question évoquent pour la première fois l’IA en tant que telle. Depuis, cette technologie a nourri tous les fantasmes et espoirs autour de l’idée d’une « machine pensante », capable de concurrencer l’homme dans tous les domaines : de l’art à la science en passant par l’agriculture ou encore l’éducation.

Il va sans dire que dans ce domaine les attentes tout autant que les craintes sont nombreuses.

L’espoir d’une éducation innovante et de qualité accessible à tou.te.s coexiste avec la peur d’une annihilation progressive des rapports humains pourtant considérés comme essentiels à toute relation pédagogique. Au niveau institutionnel, le développement de l’IA dans le domaine éducatif est encouragé – comme en témoigne, par exemple, le projet Artificial Intelligence for and by teachers « AI4T : l’Intelligence Artificielle pour et par les professeurs », à l’initiative du Ministère français chargé de l’éducation nationale. Cependant, les questions éthiques entourant le développement de ces potentielles innovations ne sont pas pour autant évacuées par les politiques publiques. Ces préoccupations sont visibles dans une nouvelle résolution sur l’IA dans les domaines de l’éducation, de la culture et de l’audiovisuel, adoptée en mai 2021 par le parlement européen. Elle est présentée comme une étape vers une régulation européenne de l’IA qui fixerait un cadre juridique pour préserver le respect des droits fondamentaux des individus. Un certain nombre de valeurs sont prônées comme centrales telles que la transparence (Cellard & Masure, 2018 ; Chevret-Castellani & Labelle, 2019), l’équité ou encore les droits fondamentaux. Dans le domaine de l’éducation, l’introduction de l’IA est envisagée pour permettre une « individualisation » des apprentissages et favoriser une plus grande « inclusion » en réduisant la « fracture numérique » par la création d’infrastructures. Cette résolution s’inscrit dans la continuité des principes du consensus de Beijing (Unesco, 2019) qui, tout en souhaitant un « usage systématique » de l’IA dans l’éducation, appelle au développement d’une « approche humaniste » en lien avec les principes de l’Unesco.

Les évolutions technologiques étant rapides, il semble comme admis, tant du point de vue des acteurs privés que des acteurs publics, que le droit ne se présente plus comme l’unique solution pour encadrer les développements de l’IA. La loi est présentée soit comme inopérante eu égard à la vitesse d’adaptation nécessaire aux changements, soit comme freinant l’innovation. Pour les pouvoirs publics, il s’agit cependant de se tenir sur une ligne de crête entre d’un côté les exigences économiques et les promesses de l’IA pour la croissance et, d’un autre côté, l’acceptabilité sociale de ces promesses. Si le droit reste encore un moyen d’encadrer, qu’en est-il des applications de l’IA dans le domaine de l’éducation ? Cette question conduit à une réflexion sur les modalités de collecte des données, leurs traitements et leurs conditions de partage. En effet, l’éducation est un « bien commun » (Bourdin, 2019) qui suppose une attention particulière aux conditions d’échange des informations. Ces échanges concernent tout autant des usagers que des dispositifs et des pratiques professionnelles spécifiques.

Quelles sont les alternatives au droit qui se dessinent aujourd’hui et quelles en sont les modalités ? À l’échelle internationale, la régulation de l’intelligence artificielle conduit à adopter des démarches « parties prenantes » dont la particularité est d’amener à faire dialoguer des partisans de différents modes d’intervention, de l’autorégulation à la co-régulation. Or, la démarche « partis prenantes » (Massit-Folléa, 2014) induit une pluralité des normes. En quoi consiste cette pluralité quand il s’agit de réguler les applications de l’IA dans le domaine de l’éducation ? Ou pour poser la question autrement : quels sont les types d’acteurs impliqués ? Comment les normes (discursives, éthiques, techniques, professionnelles et sociales) sont-elles construites ?

C’est ce que les propositions d’articles chercheront à explorer à travers les cinq axes suivants.

Axe 1 : La régulation par l’éthique

Une réflexion éthique basée sur la discussion (Ganascia, 2019) est envisagée comme ouvrant un horizon de règles de vie en commun. En tant qu’elle permet de fixer des principes guidant l’action, l’éthique est présentée par les acteurs publics et politiques comme un moyen de réguler, soit par les valeurs communes qu’elle pourrait tendre à construire (Unesco, 2019), soit comme nécessaire pour compléter le droit (Cnil, 2017), voire pour s’y substituer face à l’incertitude quant aux évolutions de l’IA (Villani, 2018). Dans le cadre de cette « IA éthique », les valeurs mises en avant sont multiples : la transparence, la dignité humaine, l’équité, l’autonomie humaine face aux machines, etc. Ces valeurs exigeraient des postures, telles que la réflexivité et la vigilance. Sont-elles universelles, unanimement partagées ? Quelles distinctions faire entre des principes régulateurs et des valeurs ? Dans quelle mesure des principes régulateurs contribueraient au développement de l’IA dans l’éducation ? Cet axe invite à s’interroger sur l’éthique soit du point de vue du discours dans les textes à l’échelle nationale, européenne ou internationale, soit du point de vue des dispositifs mobilisés en vue de la construction de principes. Les propositions conduiront à s’intéresser aux discours éthiques sur l’IA dans l’éducation et/ou sur les dispositifs mis en place en vue d’élaborer des principes régulateurs de l’IA dans ce domaine.

Axe 2 : La régulation comme objet de discours

L’IA est un objet de discours particulièrement riche à étudier du fait de la profusion de textes (rapports, déclarations…), des institutions internationales, européennes et nationales qui s’expriment et du périmètre extrêmement large des enjeux abordés (industriels, économiques, éducatifs, politiques…). Cette thématique de l’IA en éducation n’échappe pas à la rhétorique récurrente et observée depuis le développement des TIC, rhétorique qui place en parallèle les risques et les opportunités, les challenges et les incertitudes qui entourent les évolutions technologiques. Cet axe de l’appel invite à penser les médiations à l’œuvre dans les discours pour enjoindre la planification de politiques publiques : s’observent tout à la fois une injonction à l’innovation et un appel au maintien d’un cadre éthique grâce à de nouvelles formes de régulation. Il nous semble qu’il y a un enjeu fort de problématisation sur les procédés discursifs mobilisés dans ces discours ; nous pensons notamment à la neutralisation qui évacue les éventuelles contradictions (Krieg-Planque, 2014) et à « l’uterquisation » qui joue dans le cumul d’enjeux non-compatibles et qui se révèle un nouveau procédé de neutralisation (Jeanneret, 2017). Les propositions pourront analyser des discours dans une perspective comparative à l’échelle nationale ou internationale, problématiser les procédés discursifs mobilisés dans les discours des promoteurs politiques et industriels, ou encore étudier la manière dont s’établit un (nouveau) récit de changement civilisationnel ou de « révolution pédagogique ». Elles porteront une attention particulière à la façon dont les discours redéfinissent les relations entre innovation, entendue comme progrès nécessaire, et régulation, pensée comme médiation des valeurs politiques.

Axe 3 : La régulation by design

Les consultations et échanges sur la régulation de l’IA et plus largement des dispositifs informatisés mettent en évidence la recherche de nouvelles modalités de régulation. Classiquement, cette dernière est soit portée par un cadre juridique (règlement, décret…), soit définie par la structure du marché (prix, accès aux infrastructures…), soit par les normes sociales (campagnes d’information…). Cependant, émergent de nouvelles modalités de régulation : d’une part, s’observe la création de nombreux dispositifs communicationnels qui favorisent les frottements entre les acteurs publics et privés (Chevret-Castellani & Labelle, 2019).

D’autre part, s’observe, dans la continuité du “code is law” de Lawrence Lessig, la progression d’une “régulation by design” dont Karen Yeung a dressé les contours (Yeung, 2017). Cette “régulation by design” vise à incorporer dès la conception des dispositifs technologiques la régulation et ainsi imposer le cadre préétabli sans nécessité d’action humaine. L’enjeu est d’encadrer les pratiques et traitements dès le développement technique en anticipant la nature des données, leurs processus de calcul et les conditions de leur diffusion et de leur partage.

Ces évolutions invitent à questionner cette “régulation by design” dans le domaine de l’IA dédiée au secteur éducatif à partir de l’analyse de certains dispositifs et notamment l’usage du “nudge” (l’incitation à certains comportements) et de l’utilisation de données massives. À cet effet, les propositions veilleront par exemple à analyser des dispositifs qui mettent en œuvre une “régulation by design” ou encore à éclairer certaines objections d’ordre éthique, technique ou politique : l’explicabilité des systèmes techniques, un solutionnisme technique se substituant à la résolution des problèmes initiaux (Morozov, 2014).

Axe 4 : La régulation par la pédagogie

Si le règlement général européen sur la protection des données (RGPD) renforce la protection des données personnelles, les progrès de l’IA en matière d’éducation invitent à la plus grande vigilance (MENJS, 2021). L’offre éducative est effectivement plurielle et exponentielle : des programmes libres et ouverts coexistent avec des outils performants proposés par des industriels de tous pays. L’IA apporte la promesse de parcours d’apprentissage personnalisables et personnalisés : dans quelle mesure la collecte, la conservation et l‘archivage d’informations nécessaires à la construction des parcours pédagogiques doiventils être limités (Peraya, 2019) ?

Au-delà de ces questions déontologiques et éthiques touchant la collecte et le partage des données, des questions pédagogiques purement pratiques se posent également : définition du rôle de régulateur ou de médiateur de l’enseignant, fiabilité des systèmes de contrôle des connaissances, évaluation et contrôle des risques de désinformation, voire de deepfake (Capelle et al., 2018). Finalement, dans quelle mesure la pratique pédagogique en elle-même invite-t-elle à une activité de régulation ?

Cet axe abordera la régulation de l’IA selon une approche pratique. Des retours d’expérience sous un angle critique pourront être proposés parallèlement à des propositions d’articles plus didactiques visant à étoffer la réflexion sur l’IA et sa régulation dans le contexte d’exercice des professionnels de l’éducation.

Axe 5 : La régulation par la formation

Les préoccupations liées à l’explicabilité de l’IA supposent une réflexion sur les connaissances nécessaires à la compréhension de ses principes et de ses fondements pour en évaluer la confiance à lui accorder. L’IA prenant effectivement une importance croissante dans tous les domaines de la vie sociale, la formation aux usages devient dès lors un sujet d’actualité. Il implique de questionner la formation des enseignants qui peut s’envisager selon deux approches a priori contradictoires : apprentissage du code et de la pensée informatique, d’un côté, capacité à interpréter et utiliser les dispositifs de l’autre (de la Higuera, 2019). Nombre de questions se pose alors sur le type de compétences à acquérir pour permettre un usage raisonné de l’IA, sur les ressources et outils disponibles ou encore sur les enjeux de la formation tout au long de la vie (Cordier et al.,2021). Dans ce cadre, quel impact sur la recherche, en particulier à travers la généralisation de l’accès ouvert aux publications, conformément au Deuxième Plan national pour la science ouverte (MESRI, 2021) ?

Cet axe invite ainsi à s’interroger sur le rôle de la formation pour permettre le développement d’un ethos professionnel participant à une régulation par les acteurs eux-mêmes.

Calendrier

  • Envoi des propositions sous forme de résumés : 10 décembre 2021
  • Retour aux auteurs de la sélection des propositions : 7 janvier 2022
  • Remise de l’article intégral : 28 février 2022
  • Retour aux auteurs de l’évaluation par le comité de lecture : 28 mars 2022
  • Retour des articles définitifs (revus après évaluation) : 28 avril 2022
  • Publication du numéro : fin mai 2022

Consignes

Les propositions d’article doivent être soumises sous forme de résumé en français, en espagnol ou en anglais : 7 000 signes maximum, espaces et bibliographie compris. Les titres et les mots clés sont demandés en trois langues (Français, anglais, espagnol). Les propositions seront évaluées en double aveugle par des membres de la communauté scientifique.

Les consignes de rédaction pour l’article sont disponibles à l’adresse suivante : journals.openedition.org/ctd/1132.

Les propositions d’article sont à envoyer à l’adresse suivante :

Bibliographie
  • Bourdin, S., (2019). Quelques perspectives pour inscrire l’éducation comme un bien commun : opportunités et obstacles. (Dir.) Bonfils P., Dumas P., Juanals B., Massou L., Sources ouvertes numériques. Usages éducatifs, enjeux communicationnels, sous la direction de Éditions universitaires de Lorraine, coll. Questions de communication / série Actes 39.
  • Christine Chevret-Castellani, C., Labelle, S. (2019). Transparence et loyauté, deux motifs de la régulation des algorithmes. Terminal, 124 | 2019, URL: http://journals.openedition.org/terminal/4064 ; DOI : https://doi.org/10.4000/terminal.4064
  • Cellard, L., Masure, A. (2018). Le design de la transparence : une rhétorique au cœur des interfaces numériques. Multitudes, vol. 73, n°4, 100-111.
  • Capelle, C., Cordier, A. et Lehmans, A. (2018). Usages numériques en éducation : l’influence de la perception des risques par les enseignants. Revue française des sciences de l’information et de la communication [En ligne], 15 | 2018. URL : http://journals.openedition.org/rfsic/5011 ; DOI : https://doi.org/10.4000/rfsic.5011
  • Cordier, A, Capelle, A, Lehmans, A., Liquète, V. (2021). Pour une formation continuée des enseignant·es à l’information et aux médias. (Dir.) Bonfils P., Dumas P., Remond E., Stassin B. , Vovou I., L’éducation aux médias tout au long de la vie : Des nouveaux enjeux pédagogiques à l’accompagnement du citoyen, Actes du Colloque Ticemed12. Association
  • Internationale Ticemed. Colloque Ticemed12, Apr 2020, Athènes, Grèce. 2021, 978-2492969-00-3. halshs03206274
  • Higuera (de la), C. (2019). A report about Education, Training Teachers and Learning Artificial Intelligence : Overview of key issues. Knowledge 4 All Foundation Ltd (K4A). https://www.k4all.org/wpcontent/uploads/2019/11/Teaching_AIreport_09072019.pdf Ganascia, J.-G. (2019). Peut-on contenir l’intelligence artificielle ? Pouvoirs, n° 170, 71-81.
  • Jeanneret, Y. (2017). Métamorphoses et éclipses de l’auteur dans les médias informatisés ». In En-quête-s d’auteurs. Études réunies par Séverine Clément-Tarantino et Florence Klein en hommage au Professeur Alain Deremetz, Presses Universitaires du Septentrion, (Littératures), à paraître en 2022.
  • Jeanneret, Y. et Bonaccorsi, J. (2021). Hommage à Yves Jeanneret – Obéir à l’injonction technologique ou mobiliser les ressources des médias informatisés. La Lettre de l’OCIM, 190 | 2020, DOI : https://doi.org/10.4000/ocim.4036
  • Krieg-Planque, A. (2014). La formule « développement durable » : un opérateur de neutralisation de la conflictualité. Langage et société, n°134, 5 29.
  • Massit-Folléa, F. (2014). Internet et les errances du multistakeholderism. Politique étrangère, n°4, 29-41.
  • Morozov E. (2014). Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique. Limoges : FYP Editions, 351 p.
  • Peraya D. (2019). Les Learning Analytics en question. Distances et médiations des savoirs, n°25 | DOI: https://doi.org/10.4000/dms.3485
  • Petit L. (2020). Les sciences humaines et sociales (SHS) et les sciences de l’information et de la communication (SIC) aux défis de l’IA. Communication, technologies et développement, 10 | 2021. DOI : https://doiorg.ezpupv.biumontpellier.fr/10.4000
  • Yeung, K. (2017). ‘Hypernudge’: Big Data as a mode of regulation by design. Information, Communication & Society, 20:1, 18-136, DOI: 10.1080/1369118X.2016.1186713 ·
Ressources documentaires :