Cadre de référence · Évaluation
Guide de positionnement des pratiques d'évaluation en contexte d'IA générative, à destination des enseignant·e·s de l'enseignement supérieur.
L'irruption des outils d'IA générative a brutalement remis en question des pratiques d'évaluation construites sur des décennies. Beaucoup d'enseignant·e·s se sont trouvé·e·s face à une question simple mais déstabilisante : est-ce que mon évaluation tient encore la route ?
PRAX-IA est né de ce constat. Pas pour interdire ou pour tout révolutionner, mais pour aider les enseignant·e·s à analyser lucidement leurs pratiques à la lumière de ce que l'IA peut — ou ne peut pas — faire.
PRAX-IA est un cadre structuré qui permet à un·e enseignant·e de positionner ses évaluations sur un continuum allant de « très vulnérable à l'IA » à « robuste face à l'IA ». L'outil ne juge pas — il aide à voir.
Il s'appuie sur une analyse des caractéristiques des tâches d'évaluation : ancrage dans la réflexion personnelle, dimension processuelle, singularité, profondeur de mobilisation des compétences.
L'outil peut être utilisé en autonomie ou en atelier collectif.
Enseignant·e·s de l'enseignement supérieur, responsables pédagogiques, conseillers en pédagogie universitaire, directions souhaitant engager une réflexion collective sur l'évaluation.
La question n'est pas « comment détecter la triche avec l'IA » — c'est la mauvaise question. La vraie question est : est-ce que ce que je demande à mes étudiant·e·s de faire est encore aligné avec ce que je veux vraiment évaluer ?