Sempre più spesso si parla del rapporto tra i minori e l’intelligenza artificiale, e in questi ultimi giorni è emerso uno scenario inquietante, poiché pare che gli adolescenti stiano affidando all’intelligenza artificiale i loro pensieri più intimi. Parlano, infatti, con l’A.I. di qualsiasi cosa — dalle preoccupazioni scolastiche ai turbamenti affettivi — senza alcun filtro umano. E il problema è che tutti noi siamo profondamente impreparati a regolare e gestire questa svolta, con conseguenze potenzialmente gravi.
In particolare, sembra che gli adolescenti tra i 9 e i 17 anni parlano con un chatbot (programma informatico progettato per simulare una conversazione umana) come se fossero amici veri. Quasi il 35 % li considera un “confidente” e il 50 % tra i più fragili arriva a trattarli come tali. Le chat su MyAI, ChatGPT o Character.ai non si limitano a supportare i compiti o a dare consigli scolastici, ma spesso offrono conforto emotivo, suggerimenti su amore, relazioni, o addirittura intime inclinazioni sessuali.
Tuttavia, queste A.I. non hanno emozioni né competenze umane reali, in quanto possono sbagliare, mentire, rafforzare insicurezze o addirittura travisare dati, eppure molti adolescenti vulnerabili le percepiscono come veri interlocutori, affidandosi all’A.I. senza filtri.
Le conseguenze sono molteplici per lo sviluppo emotivo degli adolescenti.
D’altra parte, affidarsi sistematicamente ad un assistente artificiale rischia di isolare ancora di più i ragazzi, durante un’età in cui il confronto umano è imprescindibile. Difatti, non esiste garanzia che l’A.I. fornisca loro consigli affidabili, ed è documentato che i chatbot consigliino diete restrittive o risposte sessuali ambigue.
Quindi, senza supervisione questi strumenti possono agire come amplificatori di ansia, insicurezza e comportamenti a rischio, specie in un’età così fragile.
Per evitare conseguenze indesiderate, in Italia, il Garante della privacy ha già bloccato chatbot come Replika, reputati rischiosi per la privacy e la vulnerabilità dei minori. Inoltre, la normativa europea (A.I. Act) considera l’AI impiegata a scopi educativi o terapeutici come sistemi ad alto rischio. Ma si deve ancora fare tanto, atteso che occorre un controllo sistematico dell’accesso degli under 14 ai sistemi A.I., e occorrono age gate veri, con verifiche e restrizioni solide — quello attuale è troppo facile da bypassare. Ancora, serve trasparenza sui limiti dell’A.I., perché la stessa deve sempre dichiarare di non essere un professionista di educazione, psicologia o consulenza affettiva. Infine, in ambito nazionale, è urgente introdurre sanzioni specifiche per chi viola queste regole, per tutelare la dignità e la crescita dei minori. A tutto questo va aggiunto il ruolo irrinunciabile di noi genitori e adulti.
Non deve verificarsi che l’AI diventi sostitutiva del dialogo con le figure umane. Gli adolescenti che chiedono consigli sentimentali all’A.I., ignorano l’importanza di un confronto concreto con genitori, insegnanti, o amici veri, e questo, forse è anche un po’ colpa nostra. Noi genitori dovremmo trascorrere più tempo con i nostri figli, parlando con loro di questa nuova realtà; dovremmo dialogare concretamente con i nostri ragazzi, chiedendo loro se e come usano questi strumenti. Dovremmo parlare dei rischi e dei limiti dell’informazione artificiale.
Contemporaneamente al dialogo genitori-figli è urgente introdurre regole più stringenti, presidi educativi e forme efficaci di controllo parentale.
Posto che la tecnologia è protagonista, dobbiamo attrezzarci affinché non diventi una trappola psicologica e sociale, altrimenti nel futuro i nostri figli rischiano di crescere in un mondo emotivo artificiale, disconnessi da sé stessi e dagli altri.

Bruno Messina
Avvocato, Vice Presidente Codacons Sicilia



