Segurança e privacidade

    A Gradeo aplica IA à educação com uma abordagem centrada no apoio, na transparência, na privacidade e na prudência: ajuda os docentes a preparar propostas úteis sem substituir a revisão humana nem automatizar a decisão académica final.

    IA responsável e papel da Gradeo

    Na Gradeo entendemos que aplicar inteligência artificial a contextos educativos exige mais do que bons resultados: exige clareza sobre o papel da IA, respeito pela privacidade e um desenho que mantenha o controlo nas mãos das pessoas. Por isso, a Gradeo foi concebida como uma ferramenta de apoio ao professorado. A sua função é ajudar a preparar propostas de correção, feedback e tutoria com maior consistência e menor carga operacional, sem substituir o juízo profissional do docente.

    A nossa abordagem de uso

    Desenhamos a Gradeo com uma ideia central: a IA assiste, o docente decide e a decisão final não é formalizada automaticamente dentro da aplicação. Isto significa que a Gradeo não foi pensada como uma ferramenta de decisão autónoma, mas como um sistema de apoio para preparar uma proposta útil, revisável e contextualizada.

    O que a Gradeo pode fazer

    Dependendo do fluxo de trabalho e da configuração escolhida, a Gradeo pode analisar documentos académicos, aplicar rúbricas com maior consistência, propor pontuações por critério, redigir feedback estruturado, gerar resultados ou relatórios de apoio e facilitar processos de correção e tutoria mais homogéneos. Tudo isto se baseia no contexto fornecido pelo docente, como a rúbrica, as instruções, os materiais de referência, o estilo pretendido e a configuração do processo.

    O que a Gradeo não faz

    A Gradeo não pretende substituir o critério do professor, emitir por si só uma decisão académica final válida nem tornar-se a única base para uma nota final. No estado atual do produto, a Gradeo termina numa proposta assistida por IA. A revisão final e o uso definitivo do resultado devem ser resolvidos fora da aplicação, segundo o critério docente e o enquadramento organizacional aplicável.

    Princípios de uso responsável

    O uso responsável da IA na educação exige reconhecer que nem todas as decisões têm o mesmo impacto. Quanto maior for a relevância académica de uma atividade, mais importante é rever os resultados com critério humano, evitar automatismos indevidos, compreender que uma proposta de IA pode conter erros ou inconsistências e adaptar o uso à política da escola ou da organização, quando existir. Por isso, a nossa abordagem assenta em vários princípios: transparência sobre a intervenção da IA, clareza sobre os limites do sistema, prudência em contextos sensíveis e reforço do papel do docente como responsável pela decisão final.

    Dados que podem surgir durante a utilização

    Na Gradeo, a privacidade não é tratada como um complemento, mas como uma parte central do desenho do produto e do seu uso responsável. Quando a Gradeo é utilizada, podem surgir dados como documentos dos alunos, nomes ou outros identificadores, observações académicas, feedback e resultados de correção ou tutoria. Por isso, a prática recomendada é sempre partilhar apenas os dados necessários, evitar informação pessoal desnecessária, limitar a exposição dos resultados e trabalhar de acordo com a política de privacidade da escola ou da organização, quando existir.

    Minimização, anonimização e prudência

    A nossa abordagem de privacidade parte de um princípio simples: menos dados é melhor, desde que o objetivo pedagógico continue a poder ser cumprido. Isto implica introduzir apenas o contexto realmente útil, evitar documentos ou dados pessoais irrelevantes, usar anonimização quando o fluxo o permitir e reforçar a cautela quando existirem menores ou informação sensível.

    Quem acede à informação e aos resultados

    O acesso aos resultados deve ser limitado ao professor ou à equipa docente responsável pelo processo, e qualquer comunicação posterior deve respeitar o contexto académico e organizacional aplicável. Recomendamos evitar a circulação alargada de propostas ou resultados gerados por IA sem revisão prévia, especialmente quando possam ser interpretados de forma errada como decisões finais ou ter consequências relevantes para os alunos.

    Uso institucional em contextos B2B

    Quando a Gradeo é utilizada por meio de uma universidade, escola, academia ou outra organização, o enquadramento de uso é condicionado pela política interna do cliente, pelas suas regras de privacidade, pelos seus critérios de conservação e comunicação de resultados e pelos seus processos docentes e organizacionais. Neste contexto, a Gradeo deve integrar-se no quadro de governação e compliance definido pela instituição.

    Uso individual em contextos B2C

    Quando a Gradeo é utilizada de forma individual, o utilizador tem uma responsabilidade mais direta sobre que informação introduz, se o uso é adequado à sua atividade profissional e como revê posteriormente a proposta gerada pela IA. Nestes casos, a prudência deve ser ainda maior quando estão envolvidos menores, quando os resultados têm consequências relevantes ou quando a informação tratada é particularmente sensível.

    Menores e contextos de maior sensibilidade

    Existem situações que exigem um nível reforçado de cuidado, como o uso com menores, a presença de informação pessoal especialmente sensível, atividades com elevado impacto académico ou resultados que possam ser partilhados de forma ampla. Nestes contextos, a recomendação é clara: minimizar os dados, rever com mais cuidado, evitar que a proposta de IA circule como se fosse uma decisão fechada e aplicar sempre o enquadramento legal e organizacional correspondente.

    Transparência e revisão humana

    A confiança numa ferramenta educativa com IA depende de o utilizador compreender quando a IA intervém, que tipo de resultado está a receber e que parte do processo continua a depender de uma revisão humana fora do produto. Por isso, a Gradeo foi concebida para comunicar com clareza que os resultados gerados pelo sistema devem ser interpretados como propostas assistidas, e não como decisões finais autónomas.

    Relação prática com o GDPR

    Do ponto de vista do GDPR, o nosso princípio é claro: reduzir ao máximo os dados desnecessários, favorecer um uso proporcional à finalidade pedagógica e ajudar a que o produto possa ser utilizado dentro de enquadramentos organizacionais responsáveis. Isto não elimina a necessidade de cada instituição, profissional ou cliente avaliar o seu próprio enquadramento legal, mas define uma direção clara de produto e de uso centrada na privacidade, proporcionalidade e minimização.

    Relação prática com o EU AI Act

    O EU AI Act elevou o nível de exigência aplicado aos sistemas de IA utilizados em contextos sensíveis, incluindo a educação. A resposta prática da Gradeo a esse contexto regulatório assenta em três ideias: a IA deve ser utilizada como apoio e não como substituição automática do docente, a transparência sobre o papel do sistema é essencial e os cenários de maior impacto ou sensibilidade exigem um uso mais prudente e controlado. Em vez de apresentar a IA como uma automatização cega, a Gradeo posiciona-se como uma ferramenta desenhada para ajudar o professorado a trabalhar com maior consistência, melhor rastreabilidade e uma base mais sólida para revisão posterior.

    Boas práticas recomendadas

    Independentemente do contexto, recomendamos configurar bem a rúbrica, o contexto e as instruções, introduzir apenas a informação necessária, interpretar a saída como uma proposta assistida por IA, rever com maior cuidado os casos importantes ou sensíveis e resolver a decisão final fora da Gradeo de acordo com o critério docente e o enquadramento aplicável.

    O que recomendamos evitar

    Para um uso responsável, recomendamos não tratar a saída como a única base para fechar uma nota final, não carregar mais dados pessoais do que os necessários, não partilhar resultados sem rever o seu contexto e não utilizar a ferramenta à margem da política da tua organização se trabalhas dentro de uma instituição.

    Fornecedores e tratamento de dados

    Podemos recorrer a fornecedores tecnológicos e de IA para prestar o serviço, sempre dentro do enquadramento contratual e operacional aplicável em cada caso. Ainda assim, a nossa abordagem de produto mantém-se a mesma: limitar os dados desnecessários, favorecer usos proporcionais à finalidade pedagógica e integrar a utilização da ferramenta em processos responsáveis de revisão, governação e compliance.