Un ragazzo adolescente con pantaloni rosa e felpa beige è seduto da solo per terra, con la schiena appoggiata al muro grigio di un corridoio scolastico. Tiene le ginocchia piegate e lo sguardo rivolto verso il basso, in un atteggiamento di chiusura e tristezza. Sullo sfondo, sfocato, un gruppo di tre coetanei parla e ride vicino agli armadietti, ignorando il ragazzo in primo piano. L'atmosfera trasmette un senso di esclusione e isolamento.

Violenza invisibile a scuola: cosa succede quando nessuno guarda?

La tecnologia potrebbe aiutare a combattere la violenza tra i giovani. Ma in che modo?

/
4 minuti di lettura

Nel film Il ragazzo con i pantaloni rosa, un adolescente vive un silenzioso calvario all’interno di un contesto scolastico che ignora la violenza invisibile a scuola. Non urla, non pugni plateali: solo sguardi, posture, esclusione. Eppure, è proprio lì che la violenza matura. Questo scenario, che mette a nudo i limiti di un sistema incapace di cogliere i segnali più sottili del disagio giovanile, introduce perfettamente una delle sfide più complesse della nostra epoca: il riconoscimento automatico della violenza nei contesti educativi tramite modelli di deep learning.

Perché la violenza invisibile a scuola è difficile da riconoscere?

Secondo Mario Caligiuri, uno degli scopi dell’intelligence è prevedere ciò che può accadere, ovvero leggere in anticipo gli sviluppi di un contesto per prevenire il verificarsi di eventi dannosi. Se questo principio fosse applicato anche alla violenza invisibile a scuola, si potrebbe immaginare un sistema capace di riconoscere la violenza in tempo reale, o addirittura prevenirla attraverso l’analisi del comportamento. Riconoscere la violenza prima che sfoci in episodi violenti rappresenta una nuova frontiera di intervento, un modo per intelligere davvero, ovvero per leggere in profondità il disagio che serpeggia tra i più giovani.

Leggi anche:
La voce del disagio interiore: perché i Linkin Park hanno segnato una generazione

La violenza giovanile è sempre più diffusa e sfuggente, alimentata da una miscela di trasgressione, insicurezza e isolamento sociale. Tuttavia, come suggerisce il film, non sempre la violenza assume forme esplicite. Spesso si manifesta in dinamiche relazionali più sottili, come sguardi di disprezzo, esclusione o movimenti di rifiuto. Per intercettarla, serve uno sguardo nuovo, capace di osservare ciò che l’occhio umano fatica a percepire. Le tecnologie moderne, in particolare quelle legate all’intelligenza artificiale, potrebbero essere in grado di farlo.

Tecnologie contro la violenza invisibile a scuola: come funzionano

Nel campo della violence detection, le Convolutional Neural Network (CNN) rappresentano oggi uno degli strumenti più promettenti. Ispirate al funzionamento del cervello umano, le CNN analizzano immagini e video scomponendoli in livelli di dettaglio, estraendo informazioni sui movimenti, le forme e i contorni per identificarne la natura. Un’applicazione concreta di questa tecnologia potrebbe essere l’analisi delle immagini riprese nel cortile di una scuola, in cui un algoritmo CNN potrebbe rilevare movimenti sospetti, come un calcio o una spinta, e distinguerli da comportamenti scherzosi o amichevoli.

Tuttavia, il problema non è solo tecnico, ma anche semantico. Cosa definisce realmente la violenza? Come si può distinguere un abbraccio vigoroso da un’aggressione? La soglia tra un gesto affettuoso e uno ostile è spesso impercettibile, specie in adolescenti, una fascia di età caratterizzata da turbolenze emotive e psichiche che possono confondere anche un occhio attento. La difficoltà è quindi nel riconoscere la natura dell’interazione, che non è sempre visibile in modo esplicito, ma si nasconde dietro a segnali sottili.

Violenza invisibile o comportamento normale? Il problema dei dati

Uno dei limiti principali nell’adozione di queste tecnologie è la scarsità di dataset reali per l’addestramento degli algoritmi. Le scuole, infatti, per motivi etici e legali, non registrano sistematicamente ciò che accade tra gli studenti. Quando lo fanno, è spesso in contesti simulati, come nello studio di Miriana Bianculli, che ha costruito un dataset di video con attori per testare algoritmi di riconoscimento della violenza. Altre ricerche, come quella presentata al 9th International Symposium on Computational Intelligence and Industrial Applications (2020), hanno utilizzato telecamere di sorveglianza e tecniche di skeleton recognition per identificare posture violente.

In entrambi i casi, l’obiettivo era ridurre i falsi positivi, cioè evitare che gesti come un abbraccio o un’esultanza vengano erroneamente classificati come atti di violenza. Ma la vera sfida resta: le reti neurali possono imparare a riconoscere il comportamento fisico, ma possono davvero cogliere la violenza emotiva? Possono distinguere l’atto fisico dal contesto emozionale, la forza fisica dall’intenzione? La violenza, infatti, non è solo una questione di gesto, ma anche di percezione e di significato attribuito a quel gesto da chi lo subisce.

Verso una tecnologia che protegge

Una delle possibili soluzioni a questi problemi è rappresentata dal transfer learning, una tecnica che permette di adattare modelli pre-addestrati (come VGG o ResNet) a contesti specifici, come quello scolastico. Questo approccio potrebbe migliorare l’efficacia degli algoritmi, ma serve un passo in più: bisogna sviluppare un’intelligenza artificiale che non si limiti a osservare, ma che sia in grado di comprendere. Un’AI che impari a leggere il non detto, che sappia riconoscere un allarme silenzioso. Un’AI che, come l’adulto nel film che finalmente si accorge del dolore del protagonista, sappia cogliere quei segnali che, purtroppo, gli altri non vedono.

Leggi anche:
Giovani e Meridione. Cronaca di una fuga annunciata

L’adozione di queste tecnologie nei contesti educativi non avrà mai l’intento di sostituire la presenza umana, ma può affiancarla. Può diventare un’alleata preziosa per gli insegnanti, che potrebbero così essere aiutati a cogliere segnali che sfuggono nel caos quotidiano. Un sistema basato sull’intelligenza artificiale potrebbe fungere da sentinella silenziosa, che veglia sulle relazioni tra adolescenti, identificando situazioni di disagio o aggressività prima che queste sfocino in atti di violenza aperta.

Il ragazzo con i pantaloni rosa non aveva voce, ma aveva un corpo che parlava. Le reti neurali, se ben indirizzate, possono imparare ad ascoltare quei corpi e a cogliere la violenza che si cela dietro le micro-espressioni, le posture e i gesti. Sta a noi, oggi, decidere se vogliamo che questa tecnologia diventi uno strumento di controllo, sorveglianza e prevaricazione, o se vogliamo che diventi uno strumento di cura, che aiuti a riconoscere e prevenire il dolore nascosto. In fin dei conti, la scelta non riguarda solo la tecnologia, ma l’etica con cui la utilizziamo per proteggere e supportare le nuove generazioni.

Non abbiamo grandi editori alle spalle. Gli unici nostri padroni sono i lettori. Sostieni la cultura giovane, libera e indipendente: iscriviti al FR Club!

Segui Frammenti Rivista anche su Facebook e Instagram, e iscriviti alla nostra newsletter!

Riferimenti

Lorenzo Spremberg

Classe 1991. Sono originario di Tivoli e lavoro nel settore delle nuove tecnologie, in particolare quelle legate alla simulazione per l’addestramento militare. Studio come l’innovazione possa potenziare le capacità umane, pur restando profondamente legato alle esperienze reali. Credo che ogni avventura, ogni incontro e ogni sfida rappresentino un’opportunità di crescita. Sostengo il volontariato internazionale e cerco, nel mio lavoro e nella scrittura, un equilibrio tra progresso e valori umani.

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.