Il caso Addeo: polemiche per il post choc su Facebook, ecco la difesa poco 'intelligente' del Prof campano
Stefano Addeo, il prof che ha augurato la morte alla figlia di Meloni, accusa l’intelligenza artificiale. Ma la sua difesa non regge alla prova dei fatti.


Stefano Addeo, docente di lingua tedesca presso l’Istituto Enrico Medi di Cicciano (Napoli), è finito al centro della bufera per aver pubblicato su Facebook un messaggio in cui augurava la morte alla figlia della presidente del Consiglio, Giorgia Meloni. Il riferimento era alla tragica vicenda di Martina Carbonaro, la 14enne uccisa ad Afragola dal suo ex ragazzo. Dopo le prime giustificazioni, in cui ammetteva di aver scritto d’impulso, il professore ha cambiato versione: avrebbe chiesto a una intelligenza artificiale di creare il post incriminato.
La difesa di Addeo: 'Ho chiesto un post cattivo all’IA'
Intervistato dal TGR Campania, Addeo ha dichiarato: “Sono stato superficiale, ho chiesto supporto perfino all’intelligenza artificiale per comporre il post. È stato un grave errore, chiedo scusa”. Il professore ha poi aggiunto di essersi pentito subito dopo: “La mattina mi sono chiesto ‘che cavolo ho scritto’ e l’ho cancellato”. Tuttavia, non ha specificato quale sistema di IA abbia utilizzato per la redazione del contenuto, limitandosi a dire che si trattava di un semplice esperimento comunicativo, finito malissimo.
Nonostante le scuse, sono emersi altri post offensivi pubblicati dallo stesso account, rivolti non solo a Giorgia Meloni ma anche ai figli di Antonio Tajani e Matteo Salvini, alimentando il sospetto che si trattasse di un comportamento abituale. La reazione politica è stata unanime: sia maggioranza che opposizione hanno condannato duramente il gesto, esprimendo solidarietà alla premier e chiedendo provvedimenti nei confronti dell’insegnante.
L’IA non genera contenuti violenti: le prove
Secondo quanto dichiarato da Addeo, il post sarebbe stato scritto a seguito del comando “Fammi un post cattivo sulla Meloni” dato a una piattaforma di intelligenza artificiale. Ma gli esperimenti condotti con le principali IA oggi disponibili sul mercato smentiscono questa ricostruzione.
Su ChatGPT-4o, il comando ha prodotto un messaggio in cui si rifiuta espressamente di generare contenuti offensivi o irrispettosi: “Preferisco non scrivere contenuti offensivi su persone reali. Posso aiutarti con un post satirico o critico, ma sempre nel rispetto del dibattito civile”. Risposte simili sono arrivate da Meta AI (“Non posso creare contenuti che promuovano odio o violenza”) e da Grok, l’IA sviluppata da Elon Musk, notoriamente meno filtrata, che ha replicato: “Non faccio post cattivi su nessuno, nemmeno sulla Meloni”.
Anche forzando i limiti di questi strumenti o chiedendo espressamente contenuti contro una bambina, le IA mantengono barriere etiche solide, rifiutando la generazione di messaggi offensivi o violenti. Non è quindi plausibile che un sistema di intelligenza artificiale tra quelli in commercio abbia potuto generare un messaggio simile a quello pubblicato da Addeo senza un’interferenza umana significativa.
Una giustificazione poco credibile
Sebbene sia tecnicamente possibile che esistano IA non regolamentate o modelli personalizzati in grado di bypassare i filtri etici, è altamente improbabile che un insegnante abbia avuto accesso o abbia effettuato una ricerca così specifica solo per scrivere un post su Facebook. L’uso dell’intelligenza artificiale come scudo difensivo appare, dunque, poco convincente e non supportato da elementi concreti.
La versione dei fatti fornita da Addeo sembra piuttosto un tentativo di spostare la responsabilità su uno strumento tecnologico, pur riconoscendo in parte l’errore. Tuttavia, il contenuto del post e la ripetitività di altri messaggi offensivi lasciano intendere un atteggiamento sistematico e consapevole, incompatibile con una semplice “leggerezza” o con una colpa attribuibile a un algoritmo.