Università e AI detector: scrivere bene diventa un rischio

L’uso di software anti-AI nelle università genera accuse infondate: molti studenti penalizzati per aver scritto “troppo bene”.

13 ottobre 2025 11:29
Università e AI detector: scrivere bene diventa un rischio - IA Intelligenza Artificale a scuola
IA Intelligenza Artificale a scuola
Condividi

All’Australian Catholic University, nel 2024, migliaia di studenti sono stati accusati ingiustamente di aver usato intelligenza artificiale per i compiti. Il software anti-AI, adottato anche da molte università nel mondo, ha generato errori clamorosi, segnalando testi autentici come sospetti. Ma quanto sono davvero affidabili questi sistemi?

Il paradosso degli algoritmi anti-AI

Nel 2024, l’Australian Catholic University (ACU) ha registrato quasi 6.000 casi di presunta cattiva condotta accademica, un numero impressionante che però nasconde un’anomalia: circa il 90% delle accuse riguardava l’uso di strumenti di intelligenza artificiale, in particolare software di generazione automatica di testi. Tuttavia, un numero significativo di studenti non aveva mai utilizzato ChatGPT o strumenti simili. A sollevare il caso è stata l’emittente ABC, rivelando che le accuse derivavano da un software di rilevamento automatizzato adottato in molte università nel mondo. Il programma etichettava come “probabilmente generato da AI” qualsiasi testo troppo lineare, coerente o linguisticamente ricercato. In altre parole, scrivere troppo bene poteva diventare un problema.

Errori, accuse e ammissioni dell’ateneo

La vice-rettrice dell’ACU, Tania Broadley, ha poi ammesso che le cifre diffuse erano “sostanzialmente sovrastimate”. Circa un quarto delle segnalazioni è stato archiviato dopo ulteriori verifiche, mentre tutti i casi basati unicamente sul detector automatico sono stati rigettati. Broadley ha dichiarato: “Ogni segnalazione in cui l’unica prova era il detector AI è stata immediatamente respinta”. Resta però il dubbio su quanti studenti abbiano subìto provvedimenti prima del dietrofront dell’università. La vicenda mette in luce un nodo delicato: l’affidabilità dei sistemi di rilevazione e la difficoltà di distinguere tra creatività autentica e scrittura algoritmica. Se il criterio diventa la “probabilità statistica” che un testo sia artificiale, il rischio è quello di penalizzare gli studenti più competenti, trasformando l’eccellenza linguistica in un sospetto.

Una questione di metodo, non di tecnologia

Il caso ACU ha aperto un dibattito globale: non è l’intelligenza artificiale il problema, ma come la interpretiamo. Strumenti come Turnitin, utilizzati per intercettare l’uso improprio di AI, operano su base probabilistica e non forniscono prove certe. Un risultato che supera la soglia di “affidabilità” fissata dal software non equivale a una colpa dimostrata, ma a una stima statistica. Tuttavia, molte istituzioni accademiche hanno trattato queste segnalazioni come evidenze. L’ammissione di errore dell’ACU (“Ci rammarichiamo per l’impatto che questo ha avuto sugli studenti”) rappresenta un passo avanti, ma non cancella i danni subiti da chi è stato accusato ingiustamente. L’università ha deciso di mettere da parte i detector automatici come unica fonte di prova, ma la questione resta aperta: se gli strumenti di controllo non sanno riconoscere la qualità, rischiano di punire il merito.

Le migliori notizie, ogni giorno, via e-mail