← Retour aux ressources

Cadre de référence · Évaluation

PRAX-IA

Guide de positionnement des pratiques d'évaluation en contexte d'IA générative, à destination des enseignant·e·s de l'enseignement supérieur.

Pourquoi cet outil

Genèse & contexte

L'irruption des outils d'IA générative a brutalement remis en question des pratiques d'évaluation construites sur des décennies. Beaucoup d'enseignant·e·s se sont trouvé·e·s face à une question simple mais déstabilisante : est-ce que mon évaluation tient encore la route ?

PRAX-IA est né de ce constat. Pas pour interdire ou pour tout révolutionner, mais pour aider les enseignant·e·s à analyser lucidement leurs pratiques à la lumière de ce que l'IA peut — ou ne peut pas — faire.

Ce que c'est

Description

PRAX-IA est un cadre structuré qui permet à un·e enseignant·e de positionner ses évaluations sur un continuum allant de « très vulnérable à l'IA » à « robuste face à l'IA ». L'outil ne juge pas — il aide à voir.

Il s'appuie sur une analyse des caractéristiques des tâches d'évaluation : ancrage dans la réflexion personnelle, dimension processuelle, singularité, profondeur de mobilisation des compétences.

Mode d'emploi

Comment l'utiliser

L'outil peut être utilisé en autonomie ou en atelier collectif.

  • Choisir une évaluation existante de son cours
  • La positionner sur chacune des dimensions du cadre
  • Identifier les points de fragilité et les leviers de transformation
  • Explorer des alternatives ou des ajustements possibles
Pour qui

Public cible

Enseignant·e·s de l'enseignement supérieur, responsables pédagogiques, conseillers en pédagogie universitaire, directions souhaitant engager une réflexion collective sur l'évaluation.

La question n'est pas « comment détecter la triche avec l'IA » — c'est la mauvaise question. La vraie question est : est-ce que ce que je demande à mes étudiant·e·s de faire est encore aligné avec ce que je veux vraiment évaluer ?

Accéder à l'outil en ligne ← Voir tous les outils