Sicurezza e privacy

    Gradeo applica l'IA all'istruzione con un approccio basato su supporto, trasparenza, privacy e prudenza: aiuta i docenti a preparare proposte utili senza sostituire la revisione umana né automatizzare la decisione accademica finale.

    IA responsabile e ruolo di Gradeo

    In Gradeo riteniamo che applicare l'intelligenza artificiale a contesti educativi richieda più di buoni risultati: richiede chiarezza sul ruolo dell'IA, rispetto della privacy e un design che mantenga il controllo nelle mani delle persone. Per questo Gradeo è concepito come uno strumento di supporto per i docenti. Il suo ruolo è aiutare a preparare proposte di correzione, feedback e tutoraggio con maggiore coerenza e minore carico operativo, senza sostituire il giudizio professionale del docente.

    Il nostro approccio all'uso

    Progettiamo Gradeo attorno a un'idea centrale: l'IA assiste, il docente decide e la decisione finale non viene formalizzata automaticamente all'interno dell'applicazione. Questo significa che Gradeo non è pensato come uno strumento decisionale autonomo, ma come un sistema di supporto per preparare una proposta utile, revisionabile e contestualizzata.

    Cosa può fare Gradeo

    A seconda del flusso di lavoro e della configurazione scelta, Gradeo può analizzare documenti accademici, applicare rubriche con maggiore coerenza, proporre punteggi per criterio, redigere feedback strutturato, generare risultati o report di supporto e facilitare processi di correzione e tutoraggio più omogenei. Tutto ciò si basa sul contesto fornito dal docente, come rubrica, istruzioni, materiali di riferimento, stile desiderato e configurazione del processo.

    Cosa Gradeo non fa

    Gradeo non intende sostituire il giudizio del docente, emettere da solo una decisione accademica finale valida né diventare l'unica base per un voto finale. Nello stato attuale del prodotto, Gradeo si ferma a una proposta assistita dall'IA. La revisione finale e l'uso definitivo del risultato devono avvenire fuori dall'applicazione, secondo il giudizio del docente e il quadro organizzativo applicabile.

    Principi di uso responsabile

    L'uso responsabile dell'IA nell'istruzione richiede di riconoscere che non tutte le decisioni hanno lo stesso impatto. Quanto maggiore è la rilevanza accademica di un'attività, tanto più importante è rivedere i risultati con giudizio umano, evitare automatismi impropri, comprendere che una proposta dell'IA può contenere errori o incoerenze e adattarne l'uso alla politica della scuola o dell'organizzazione, quando esiste. Per questo il nostro approccio si basa su diversi principi: trasparenza sull'intervento dell'IA, chiarezza sui limiti del sistema, prudenza nei contesti sensibili e rafforzamento del ruolo del docente come responsabile della decisione finale.

    Dati che possono comparire durante l'uso

    In Gradeo, la privacy non è trattata come un'aggiunta, ma come una parte centrale del design del prodotto e del suo uso responsabile. Quando Gradeo viene utilizzato, possono comparire dati come documenti degli studenti, nomi o altri identificatori, osservazioni accademiche, feedback e risultati di correzione o tutoraggio. Per questo la pratica raccomandata è sempre condividere solo i dati necessari, evitare informazioni personali non necessarie, limitare l'esposizione dei risultati e lavorare in linea con la policy privacy della scuola o dell'organizzazione, quando esiste.

    Minimizzazione, anonimizzazione e prudenza

    Il nostro approccio alla privacy parte da un principio semplice: meno dati è meglio, purché l'obiettivo didattico possa comunque essere raggiunto. In pratica, questo significa inserire solo il contesto realmente utile, evitare documenti o dati personali irrilevanti, utilizzare l'anonimizzazione quando il flusso lo consente ed esercitare una cautela rafforzata quando sono coinvolti minori o informazioni sensibili.

    Chi può accedere a informazioni e risultati

    L'accesso ai risultati dovrebbe essere limitato al docente o al team docente responsabile del processo, e ogni comunicazione successiva dovrebbe rispettare il contesto accademico e organizzativo applicabile. Raccomandiamo di evitare la circolazione ampia di proposte o risultati generati dall'IA senza revisione preventiva, soprattutto quando potrebbero essere interpretati erroneamente come decisioni definitive o avere conseguenze rilevanti per gli studenti.

    Uso istituzionale in contesti B2B

    Quando Gradeo viene utilizzato tramite università, scuole, accademie o altre organizzazioni, il quadro d'uso è determinato dalla policy interna del cliente, dalle sue regole sulla privacy, dai suoi criteri di conservazione e comunicazione dei risultati e dai suoi processi didattici e organizzativi. In questo contesto, Gradeo deve integrarsi nel quadro di governance e compliance definito dall'istituzione.

    Uso individuale in contesti B2C

    Quando Gradeo viene utilizzato individualmente, l'utente ha una responsabilità più diretta su quali informazioni inserisce, se l'uso è adeguato alla propria attività professionale e come rivede successivamente la proposta generata dall'IA. In questi casi, la prudenza deve essere ancora maggiore quando sono coinvolti minori, quando i risultati hanno conseguenze significative o quando le informazioni trattate sono particolarmente sensibili.

    Minori e contesti di maggiore sensibilità

    Esistono situazioni che richiedono un livello di attenzione rafforzato, ad esempio l'uso con minori, la presenza di informazioni personali particolarmente sensibili, attività con alto impatto accademico o risultati che possono essere condivisi su ampia scala. In questi contesti, la raccomandazione è chiara: minimizzare i dati, rivedere con maggiore attenzione, evitare che una proposta di IA circoli come se fosse una decisione definitiva e applicare sempre il quadro organizzativo e legale pertinente.

    Trasparenza e revisione umana

    La fiducia in uno strumento educativo basato sull'IA dipende dal fatto che l'utente comprenda quando interviene l'IA, che tipo di risultato sta ricevendo e quale parte del processo continua a dipendere da una revisione umana al di fuori del prodotto. Per questo Gradeo è progettato per comunicare chiaramente che gli output generati dal sistema devono essere interpretati come proposte assistite, non come decisioni finali autonome.

    Rapporto pratico con il GDPR

    Dal punto di vista del GDPR, il nostro principio è semplice: ridurre al minimo i dati non necessari, favorire un uso proporzionato alla finalità didattica e contribuire a far sì che il prodotto possa essere utilizzato all'interno di quadri organizzativi responsabili. Questo non elimina la necessità che ogni istituzione, professionista o cliente valuti il proprio inquadramento legale, ma definisce una direzione chiara di prodotto e di utilizzo centrata su privacy, proporzionalità e minimizzazione.

    Rapporto pratico con l'EU AI Act

    L'EU AI Act ha aumentato il livello di attenzione richiesto per i sistemi di IA utilizzati in contesti sensibili, inclusa l'istruzione. La risposta pratica di Gradeo a questo contesto normativo si basa su tre idee: l'IA deve essere usata come supporto e non come sostituzione automatica del docente, la trasparenza sul ruolo del sistema è essenziale e gli scenari con maggiore impatto o sensibilità richiedono un uso più prudente e controllato. Invece di presentare l'IA come un'automazione cieca, Gradeo si posiziona come uno strumento progettato per aiutare i docenti a lavorare con maggiore coerenza, migliore tracciabilità e una base più solida per la revisione successiva.

    Buone pratiche raccomandate

    Indipendentemente dal contesto, raccomandiamo di configurare bene la rubrica, il contesto e le istruzioni, inserire solo le informazioni necessarie, interpretare l'output come una proposta assistita dall'IA, rivedere con maggiore attenzione i casi importanti o sensibili e risolvere la decisione finale fuori da Gradeo secondo il giudizio del docente e il quadro applicabile.

    Cosa raccomandiamo di evitare

    Per un uso responsabile, raccomandiamo di non trattare l'output come unica base per chiudere un voto finale, di non caricare più dati personali del necessario, di non condividere risultati senza averne rivisto il contesto e di non utilizzare lo strumento al di fuori della policy della tua organizzazione se lavori all'interno di un'istituzione.

    Fornitori e trattamento dei dati

    Possiamo affidarci a fornitori tecnologici e di IA per erogare il servizio, sempre nel quadro contrattuale e operativo applicabile in ciascun caso. Anche in questo scenario, il nostro approccio di prodotto resta lo stesso: limitare i dati non necessari, favorire usi proporzionati alla finalità didattica e inserire l'utilizzo dello strumento in processi responsabili di revisione, governance e compliance.