Les étudiants nouvellement acceptés par les collèges et les universités ce printemps sont inondés de courriels et de SMS dans l’espoir de déposer leurs dépôts et de s’inscrire. S’ils ont des questions sur les délais, l’aide financière et même où manger sur le campus, ils peuvent obtenir des réponses instantanées.
Les messages sont amicaux et informatifs. Mais beaucoup d’entre eux ne sont pas humains.
L’intelligence artificielle, ou IA, est utilisée pour lancer ces appels apparemment personnels et fournir des informations pré-écrites via des chatbots et des personnages textuels destinés à imiter les plaisanteries humaines. Il peut aider une université ou un collège en augmentant les taux de dépôt anticipé tout en réduisant les appels coûteux et chronophages pour le personnel des admissions sollicitées.
L’IA s’est depuis longtemps intégrée discrètement dans l’enseignement supérieur de telles manières, souvent pour économiser de l’argent – un besoin qui a été accentué par les compressions budgétaires liées à la pandémie.
Collèges et COVID-19:Rutgers et Cornell imposent des vaccins aux étudiants. Est-ce la nouvelle norme?
Désormais, de simples outils basés sur l’IA comme ces chatbots, des logiciels de détection de plagiat et des applications pour vérifier l’orthographe et la grammaire sont rejoints par de nouvelles applications plus puissantes – et controversées – qui répondent aux questions académiques, aux devoirs de notes, recommandent des cours et même enseignent.
Les plus récents peuvent évaluer et noter les traits de personnalité et la motivation perçue des candidats, et les collèges utilisent de plus en plus ces outils pour prendre des décisions d’admission et d’aide financière.
Au fur et à mesure que la présence de cette technologie sur le campus augmente, les inquiétudes à son sujet augmentent également. Dans au moins un cas, une utilisation apparemment prometteuse de l’IA dans les décisions d’admission a été interrompue car, en utilisant des algorithmes pour noter les candidats en fonction de la préséance historique, elle a perpétué le biais.
Une grande partie des logiciels basés sur l’IA utilisés par les collèges et les universités reste confinée à des tâches assez banales telles que l’amélioration du flux de travail du back-office, a déclaré Eric Wang, directeur principal de l’IA chez Turnitin, un service utilisé par de nombreuses institutions pour vérifier le plagiat.
«Là où vous commencez à voir des choses qui deviennent un peu plus inquiétantes», a-t-il dit, «c’est lorsque l’IA entre dans des types de décisions plus complexes.»
Parmi ceux-ci, on peut prédire les performances des étudiants s’ils sont admis et évaluer leurs besoins financiers.
Des centaines de collèges souscrivent à des plates-formes privées qui effectuent une analyse intensive des données sur les cours passés et les utilisent pour noter les candidats à l’admission en fonction de facteurs tels que la probabilité qu’ils s’inscrivent, le montant de l’aide financière dont ils auront besoin, la probabilité qu’ils obtiennent leur diplôme et quelle est la probabilité qu’ils soient des anciens engagés.
Les humains font toujours les derniers appels, disent ces collèges et les entreprises d’IA, mais l’IA peut les aider à restreindre le champ.
Qu’est-ce que le titre IX?:La loi utilisée pour lutter pour les droits des trans, l’égalité des sexes, a expliqué.
Les universités de Baylor, Boston et Wake Forest font partie de celles qui ont utilisé la société canadienne Kira Talent, qui offre un système d’évaluation permettant de noter les «traits de personnalité et les compétences générales» d’un candidat sur la base d’une vidéo enregistrée et examinée par l’IA que l’étudiant soumet. Une présentation d’entreprise montre que les étudiants sont notés sur une échelle de cinq points dans des domaines tels que l’ouverture, la motivation, l’agrément et le «névrosisme».
L’Université de New York, la Southeast Missouri State University et d’autres écoles ont utilisé un service appelé Element451, qui évalue le potentiel de réussite des prospects en fonction de la façon dont ils interagissent avec le site Web d’une école et répondent à ses messages.
Le résultat est 20 fois plus prédictif que de se fier uniquement à la démographie, selon l’entreprise.
Une fois admis, de nombreux étudiants reçoivent désormais des messages d’entreprises comme AdmitHub, qui fait la publicité d’un chatbot personnalisable et d’une plate-forme de messagerie texte que l’entreprise appelle «l’IA conversationnelle» pour «pousser» les candidats acceptés à déposer des dépôts. L’entreprise affirme avoir ainsi atteint plus de 3 millions d’étudiants au nom de centaines de clients universitaires et collégiaux.
La Georgia State University, qui a été le pionnier de l’utilisation de ces chatbots, affirme que sa version, nommée Pounce, a fourni des centaines de milliers de réponses aux questions d’étudiants potentiels depuis son lancement en 2016 et réduit la «fonte estivale» – l’incidence des étudiants s’inscrivant au programme printemps, mais ne se présentant pas à l’automne – de 20%.
Georgia State a également été parmi les premiers à développer des assistants d’enseignement en IA peu coûteux et toujours actifs, prêts à répondre aux questions des étudiants sur le matériel de cours. Leur nom s’appelle Jill Watson, et des études ont révélé que certains étudiants ne pouvaient pas dire qu’ils s’engageaient avec l’IA et non avec un assistant d’enseignement humain.
L’Université Staffordshire en Angleterre propose aux étudiants un «ami numérique», un assistant d’enseignement en IA nommé Beacon qui peut recommander des ressources de lecture et mettre en relation les étudiants avec des tuteurs. L’université australienne Deakin a un assistant IA nommé Genie qui sait si un étudiant posant une question s’est engagé avec des supports de cours en ligne spécifiques et peut vérifier les emplacements et les activités des étudiants pour déterminer s’ils ont visité la bibliothèque ou leur dire quand ils ont dépensé aussi longtemps dans la salle à manger et les inciter à se déplacer.
De nombreux collèges utilisent de plus en plus l’IA pour noter les étudiants, car les cours en ligne deviennent trop volumineux pour que les instructeurs puissent bien gérer cela.
La pandémie a accéléré le passage à ce genre de classes. Même avant cela, cependant, la Southern New Hampshire University – avec 97% de ses près de 150000 étudiants exclusivement en ligne – travaillait sur des moyens d’utiliser l’IA pour noter rapidement un grand nombre d’étudiants, a déclaré Faby Gagné, directeur exécutif de sa recherche et développement. bras.
Le SNHU commence également à utiliser l’IA non seulement pour noter les élèves, mais aussi pour leur enseigner. Gagné a expérimenté la possibilité que l’IA surveille des choses telles que la parole ou le mouvement ou la vitesse à laquelle un élève répond aux leçons vidéo et utilise ces informations pour noter ses réalisations.
Turnitin, mieux connu pour la vérification du plagiat, vend également des produits de compréhension du langage IA pour évaluer le travail écrit subjectif. Un outil peut trier les devoirs écrits en lots, permettant à un enseignant de corriger une erreur ou de donner des conseils une seule fois au lieu de mettre en évidence, de commenter et de noter la même erreur encore et encore. La société affirme que les instructeurs vérifient que la machine a effectué l’évaluation correcte et que l’élimination du travail répétitif leur donne plus de temps pour enseigner.
Des outils d’IA sont également vendus aux collèges pour qu’ils prennent des décisions une fois prises par les professeurs. ElevateU, par exemple, utilise l’intelligence artificielle pour analyser les données des étudiants et fournir un contenu d’apprentissage individualisé aux étudiants en fonction de la manière dont ils ont répondu aux questions. Si le programme détermine qu’un élève en particulier réussira mieux avec une leçon vidéo par opposition à une leçon écrite, c’est ce qu’il obtient.
Mais certaines recherches suggèrent que les outils d’IA peuvent être faux, voire même jouer. Une équipe du MIT a utilisé un ordinateur pour créer un essai essentiellement dénué de sens qui incluait néanmoins toutes les invites recherchées par un lecteur d’essai d’IA. L’IA a donné au charabia un score élevé.
En Espagne, un robot IA nommé Lola a répondu à plus de 38 700 questions d’étudiants avec un taux de précision de 91,7%, ce qui signifie qu’il a donné au moins 3200 réponses erronées ou incomplètes.
«L’IA à elle seule n’est pas un bon juge du comportement ou de l’intention humaine», a déclaré Jarrod Morgan, fondateur et directeur de la stratégie de ProctorU, que les écoles embauchent pour gérer et observer les tests que les étudiants passent en ligne. «Nous avons constaté que les gens sont meilleurs dans ce domaine que les machines, à peu près dans tous les domaines.»
L’Université de Saint-Thomas, dans le Minnesota, a déclaré avoir testé, mais n’a pas déployé, un système d’IA capable de scanner et d’analyser les expressions faciales des étudiants pour déterminer s’ils sont impliqués ou s’ils comprennent le contenu. Le système indiquait immédiatement aux professeurs ou à d’autres personnes quels étudiants s’ennuyaient ou quels points d’une conférence devaient être répétés ou corrigés.
Et des chercheurs de l’Université de Californie à Santa Barbara ont étudié si les étudiants obtenaient plus de renforcement émotionnel de la part d’instructeurs animés que de la part d’instructeurs réels et ont constaté que, bien que les étudiants reconnaissent l’émotion chez les enseignants humains et animés, ils avaient des perceptions plus fortes et plus précises des émotions. comme «heureux» et «frustré» lorsque les instructeurs étaient humains.
Beaucoup de gens «pensent que l’IA est plus intelligente que les gens», a déclaré Wang de Turnitin. «Mais l’IA, c’est nous. C’est un miroir qui nous reflète, et parfois de manière très exagérée. Ces méthodes, a déclaré Wang, soulignent que les données que l’IA utilise souvent sont un enregistrement de ce que les gens ont fait dans le passé. C’est un problème parce que «nous sommes plus enclins à accepter des recommandations qui renforcent qui nous sommes».
C’est ce qui s’est passé avec GRADE, l’évaluateur d’admissions de troisième cycle, un système d’évaluation de l’IA construit et utilisé par le programme d’études supérieures en informatique de l’Université du Texas à Austin. GRADE a examiné les candidatures et attribué des notes en fonction de la probabilité d’admission par un comité d’examen. L’objectif était de réduire le temps humain passé à examiner la pile croissante de demandes, ce que GRADE a fait, réduisant le temps d’examen de 74%.
Mais l’université a abandonné GRADE l’année dernière, convenant qu’il avait le potentiel de reproduire des biais superficiels dans la notation – en notant certaines candidatures non pas parce qu’elles étaient bonnes, mais parce qu’elles ressemblaient aux types de candidatures qui avaient été approuvées dans le passé.
Ces types de biais de renforcement qui peuvent faire surface dans l’IA «peuvent être testés initialement et fréquemment», a déclaré Kirsten Martin, professeur d’éthique technologique à l’Université de Notre-Dame. “Mais les universités feraient une erreur si elles pensaient que l’automatisation des décisions les soulageait d’une manière ou d’une autre de leurs obligations éthiques et légales.”
Cette histoire a été produite par The Hechinger Report, une organisation de presse indépendante à but non lucratif axée sur les inégalités et l’innovation dans l’éducation. Inscrivez-vous à notre newsletter sur l’enseignement supérieur.