Sécurité et confidentialité
Gradeo applique l'IA à l'éducation avec une approche fondée sur le support, la transparence, la confidentialité et la prudence : la plateforme aide les enseignants à préparer des propositions utiles sans remplacer la révision humaine ni automatiser la décision académique finale.
IA responsable et rôle de Gradeo
Chez Gradeo, nous considérons que l'application de l'intelligence artificielle dans des contextes éducatifs exige plus que de bons résultats : elle exige de la clarté sur le rôle de l'IA, le respect de la confidentialité et une conception qui maintienne le contrôle entre les mains des personnes. C'est pourquoi Gradeo est conçu comme un outil d'appui pour les enseignants. Sa fonction est d'aider à préparer des propositions de correction, de feedback et de tutorat avec plus de cohérence et moins de charge opérationnelle, sans remplacer le jugement professionnel de l'enseignant.
Notre approche d'usage
Nous concevons Gradeo autour d'une idée centrale : l'IA assiste, l'enseignant décide, et la décision finale n'est pas formalisée automatiquement dans l'application. Cela signifie que Gradeo n'est pas pensé comme un outil de décision autonome, mais comme un système d'appui permettant de préparer une proposition utile, révisable et contextualisée.
Ce que Gradeo peut faire
Selon le flux de travail et la configuration choisie, Gradeo peut analyser des documents académiques, appliquer des grilles avec davantage de cohérence, proposer des scores par critère, rédiger un feedback structuré, générer des résultats ou des rapports d'appui et faciliter des processus de correction et de tutorat plus homogènes. Tout cela repose sur le contexte fourni par l'enseignant : grille, consignes, supports de référence, style souhaité et configuration du processus.
Ce que Gradeo ne fait pas
Gradeo n'a pas vocation à remplacer le jugement de l'enseignant, à rendre seul une décision académique finale valable ni à devenir l'unique base d'une note finale. Dans l'état actuel du produit, Gradeo aboutit à une proposition assistée par IA. La révision finale et l'usage définitif du résultat doivent être décidés hors de l'application, selon le jugement de l'enseignant et le cadre organisationnel applicable.
Principes d'usage responsable
L'usage responsable de l'IA dans l'éducation suppose de reconnaître que toutes les décisions n'ont pas le même impact. Plus une activité a un poids académique important, plus il est essentiel de revoir les résultats avec un jugement humain, d'éviter les automatismes inappropriés, de comprendre qu'une proposition d'IA peut comporter des erreurs ou des incohérences et d'adapter l'usage à la politique de l'établissement ou de l'organisation lorsqu'elle existe. C'est pourquoi notre approche repose sur plusieurs principes : transparence sur l'intervention de l'IA, clarté sur les limites du système, prudence dans les contextes sensibles et renforcement du rôle de l'enseignant comme responsable de la décision finale.
Données pouvant apparaître lors de l'usage
Chez Gradeo, la confidentialité n'est pas traitée comme un ajout, mais comme une composante centrale de la conception du produit et de son usage responsable. Lors de l'utilisation de Gradeo, des données telles que les documents des étudiants, des noms ou autres identifiants, des observations académiques, du feedback et des résultats de correction ou de tutorat peuvent apparaître. C'est pourquoi la pratique recommandée consiste toujours à partager uniquement les données nécessaires, à éviter les informations personnelles inutiles, à limiter l'exposition des résultats et à travailler conformément à la politique de confidentialité de l'établissement ou de l'organisation lorsqu'elle existe.
Minimisation, anonymisation et prudence
Notre approche de la confidentialité repose sur un principe simple : moins il y a de données, mieux c'est, tant que l'objectif pédagogique peut encore être atteint. En pratique, cela signifie n'introduire que le contexte réellement utile, éviter les documents ou données personnelles non pertinents, utiliser l'anonymisation lorsque le flux le permet et faire preuve d'une prudence renforcée lorsqu'il s'agit de mineurs ou d'informations sensibles.
Qui accède aux informations et aux résultats
L'accès aux résultats doit être limité à l'enseignant ou à l'équipe pédagogique responsable du processus, et toute communication ultérieure doit respecter le contexte académique et organisationnel applicable. Nous recommandons d'éviter la diffusion large de propositions ou de résultats générés par IA sans révision préalable, en particulier lorsqu'ils pourraient être interprétés à tort comme des décisions finales ou avoir des conséquences importantes pour les étudiants.
Usage institutionnel en contexte B2B
Lorsque Gradeo est utilisé via une université, une école, une académie ou une autre organisation, le cadre d'usage est déterminé par la politique interne du client, ses règles en matière de confidentialité, ses critères de conservation et de communication des résultats, ainsi que ses processus pédagogiques et organisationnels. Dans ce contexte, Gradeo doit s'intégrer dans le cadre de gouvernance et de conformité défini par l'institution.
Usage individuel en contexte B2C
Lorsque Gradeo est utilisé de manière individuelle, l'utilisateur assume une responsabilité plus directe quant aux informations qu'il saisit, à l'adéquation de l'usage avec son activité professionnelle et à la manière dont la proposition générée par l'IA est ensuite revue. Dans ces cas, la prudence doit être encore plus grande lorsque des mineurs sont concernés, lorsque les résultats ont des conséquences significatives ou lorsque les informations traitées sont particulièrement sensibles.
Mineurs et contextes plus sensibles
Certaines situations exigent un niveau de vigilance renforcé, par exemple l'usage avec des mineurs, la présence d'informations personnelles particulièrement sensibles, des activités à fort impact académique ou des résultats susceptibles d'être largement partagés. Dans ces contextes, la recommandation est claire : minimiser les données, revoir plus attentivement, éviter qu'une proposition d'IA circule comme s'il s'agissait d'une décision définitive et appliquer systématiquement le cadre juridique et organisationnel correspondant.
Transparence et révision humaine
La confiance dans un outil éducatif fondé sur l'IA dépend du fait que l'utilisateur comprenne quand l'IA intervient, quel type de résultat il reçoit et quelle partie du processus dépend encore d'une révision humaine en dehors du produit. C'est pourquoi Gradeo est conçu pour communiquer clairement que les résultats générés par le système doivent être interprétés comme des propositions assistées, et non comme des décisions finales autonomes.
Lien pratique avec le GDPR
Du point de vue du GDPR, notre principe est clair : réduire autant que possible les données inutiles, favoriser un usage proportionné à la finalité pédagogique et aider à ce que le produit puisse être utilisé dans des cadres organisationnels responsables. Cela n'élimine pas la nécessité pour chaque institution, professionnel ou client d'évaluer sa propre situation juridique, mais cela définit une orientation claire du produit et de son usage, centrée sur la confidentialité, la proportionnalité et la minimisation.
Lien pratique avec l'EU AI Act
L'EU AI Act a renforcé le niveau d'exigence applicable aux systèmes d'IA utilisés dans des contextes sensibles, y compris l'éducation. La réponse pratique de Gradeo à ce contexte réglementaire repose sur trois idées : l'IA doit être utilisée comme appui et non comme substitution automatique de l'enseignant, la transparence sur le rôle du système est essentielle, et les scénarios à plus fort impact ou plus sensibles exigent un usage plus prudent et plus contrôlé. Plutôt que de présenter l'IA comme une automatisation aveugle, Gradeo se positionne comme un outil conçu pour aider les enseignants à travailler avec plus de cohérence, une meilleure traçabilité et une base plus solide pour la révision ultérieure.
Bonnes pratiques recommandées
Quel que soit le contexte, nous recommandons de bien configurer la grille, le contexte et les consignes, de n'introduire que les informations nécessaires, d'interpréter la sortie comme une proposition assistée par IA, de revoir plus attentivement les cas importants ou sensibles et de prendre la décision finale en dehors de Gradeo selon le jugement de l'enseignant et le cadre applicable.
Ce que nous recommandons d'éviter
Pour un usage responsable, nous recommandons de ne pas considérer la sortie comme l'unique base d'une note finale, de ne pas importer plus de données personnelles que nécessaire, de ne pas partager les résultats sans en revoir le contexte et de ne pas utiliser l'outil en dehors de la politique de votre organisation si vous travaillez au sein d'une institution.
Fournisseurs et traitement des données
Nous pouvons nous appuyer sur des fournisseurs technologiques et d'IA pour fournir le service, toujours dans le cadre contractuel et opérationnel applicable à chaque cas. Malgré cela, notre approche produit reste la même : limiter les données inutiles, favoriser des usages proportionnés à la finalité pédagogique et inscrire l'usage de l'outil dans des processus responsables de révision, de gouvernance et de conformité.