Dalla loro introduzione sul mercato oltre tre anni fa, i chatbot di IA sono diventati strumenti di uso quotidiano. ChatGPT, ad esempio, dichiara circa 700 milioni di utenti attivi settimanali, molti dei quali giovani. Uno studio condotto nel Regno Unito nel luglio 2025 ha evidenziato che il 64% dei bambini utilizza strumenti di questo tipo. Parallelamente, una percentuale significativa di genitori teme che i figli possano attribuire ai chatbot caratteristiche umane.
Sebbene non tutte queste preoccupazioni siano fondate, è evidente che l’uso frequente dei chatbot da parte dei minori comporta rischi concreti. Le piattaforme non sempre adottano misure di protezione adeguate all’età e, anche quando presenti, tali misure possono essere applicate in modo non uniforme. Inoltre, l’evoluzione tecnologica procede più rapidamente rispetto allo sviluppo di normative e policy di tutela.
I principali rischi
I bambini utilizzano l’intelligenza artificiale generativa (GenAI) in modi diversi: come supporto allo studio, come fonte di informazioni o, in alcuni casi, come interlocutore digitale. Quest’ultimo utilizzo è particolarmente delicato e presenta diversi profili di rischio.
Dal punto di vista psicologico e sociale, i minori si trovano in una fase cruciale di sviluppo. Un’eccessiva dipendenza dai chatbot può ridurre le interazioni sociali reali, favorendo l’isolamento. Inoltre, poiché i chatbot sono progettati per rispondere in modo empatico e accomodante, possono rafforzare comportamenti o pensieri problematici, inclusi disturbi alimentari, autolesionismo o disagio emotivo. Vi è anche il rischio che il tempo dedicato all’IA sottragga spazio allo studio, alle relazioni familiari e ad altre attività fondamentali.
Esistono poi rischi legati ai contenuti. Nonostante i principali fornitori abbiano implementato sistemi di sicurezza per limitare l’accesso a contenuti inappropriati, tali sistemi non sono infallibili. In alcuni casi, i chatbot possono fornire link o risposte contenenti materiale violento o sessualmente esplicito. Utenti più esperti potrebbero inoltre aggirare le protezioni attraverso tecniche di “jailbreak”.
Un ulteriore elemento critico riguarda le cosiddette allucinazioni dell’IA, ovvero la generazione di informazioni false ma presentate come affidabili. Per i bambini, questo può tradursi in decisioni errate, soprattutto in ambiti sensibili come la salute o le relazioni personali.
Infine, la protezione dei dati personali rappresenta un aspetto centrale. Le informazioni inserite nei prompt possono essere archiviate dal provider del servizio e, in determinate circostanze, esposte a accessi non autorizzati, violazioni o riutilizzi impropri. Ridurre al minimo la condivisione di dati sensibili con i chatbot è quindi essenziale.
Segnali da monitorare
Il livello di controllo e moderazione varia in base alla piattaforma e al contesto geografico. In molti casi, i sistemi di verifica dell’età sono limitati. Di conseguenza, il ruolo dei genitori resta fondamentale.
Alcuni segnali che possono indicare un uso problematico dei chatbot includono:
riduzione delle interazioni sociali con amici e familiari
ansia o irritabilità in assenza di accesso al chatbot
tendenza a descrivere il chatbot come una persona reale
accettazione di informazioni errate come verità
richiesta di consigli su temi complessi o sensibili
esposizione a contenuti inappropriati
L’importanza del dialogo e dell’educazione
In molte aree geografiche, l’accesso ai chatbot è formalmente riservato agli utenti sopra i 13 anni, ma l’applicazione di queste regole non è sempre efficace. Per questo motivo, educazione e dialogo sono strumenti chiave, da affiancare ai controlli tecnici.
Affrontare il tema dell’IA in modo aperto e non punitivo aiuta i bambini a sviluppare consapevolezza e senso critico. È importante spiegare che i chatbot non sono esseri umani, ma sistemi automatizzati progettati per risultare coinvolgenti. I ragazzi devono essere incoraggiati a verificare le informazioni ricevute, a non affidarsi all’IA per problemi complessi e a privilegiare il confronto con adulti di riferimento.
Quando necessario, è opportuno stabilire regole chiare sull’utilizzo dell’IA, analoghe a quelle applicate per i social media o il tempo davanti agli schermi. L’attivazione dei controlli parentali e una corretta configurazione delle impostazioni sulla privacy contribuiscono a ridurre i rischi.
Conclusioni
I bambini hanno bisogno di relazioni umane autentiche al centro del loro sviluppo emotivo. L’intelligenza artificiale può rappresentare uno strumento utile, ma il suo utilizzo deve essere guidato e monitorato, soprattutto in età evolutiva. L’IA non dovrebbe mai sostituire il contatto umano, ma essere utilizzata in modo consapevole e responsabile.
