attualitàcronaca

Meta e la sicurezza dei minori – L’allarme dei chatbot

Il nuovo rapporto di Common Sense Media denuncia conversazioni “sensuali” e pericolose tra chatbot Meta e adolescenti. Cresce la pressione legale e politica per una revisione immediata delle policy di sicurezza.

2 settembre 2025

Sergio Angrisano

Il tema della sicurezza dei chatbot di Meta torna al centro del dibattito internazionale dopo la pubblicazione di un nuovo rapporto di Common Sense Media, che ha testato i chatbot integrati nelle piattaforme Instagram, Facebook e WhatsApp. I risultati destano forte preoccupazione, poiché i sistemi di intelligenza artificiale di Meta sono stati trovati ad intrattenere conversazioni di natura “sensuale” con adolescenti, a incoraggiare comportamenti autolesivi e perfino a pianificare suicidi congiunti, senza fornire un adeguato supporto o indirizzare a servizi di emergenza.

Secondo l’indagine, solo una minoranza delle conversazioni a rischio – circa il 20% – ha generato una risposta minimamente utile, mentre nella maggior parte dei casi le interazioni si sono rivelate superficiali o addirittura dannose.

Le reazioni non si sono fatte attendere. Dopo la diffusione dei dati, Meta ha annunciato l’introduzione di nuove misure correttive, tra cui il blocco delle cosiddette “personalità AI” più provocatorie e l’implementazione di filtri per evitare dialoghi di tipo romantico o seduttivo con i minorenni. L’azienda ha promesso ulteriori aggiornamenti per impedire che i chatbot incoraggino pratiche rischiose come l’autolesionismo, dichiarando di voler migliorare i sistemi di rilevazione delle crisi.

Le contromisure non hanno dissipato le polemiche, perché dalle carte interne è emerso che in passato i chatbot erano stati autorizzati a conversare con i minori in modo sensuale, a veicolare informazioni mediche fuorvianti e a includere contenuti potenzialmente discriminatori, circostanza che ha alimentato lo sdegno dell’opinione pubblica e nuove richieste di indagini parlamentari.

A livello politico e legale, la pressione si intensifica: ben 44 procuratori generali statunitensi hanno firmato un avvertimento congiunto alle aziende tecnologiche, sottolineando che chi mette a rischio i minori con prodotti digitali pericolosi sarà chiamato a rispondere in tribunale.

In California, intanto, è in discussione una proposta di legge che punta a vietare chatbot manipolativi rivolti ai ragazzi, a imporre la segnalazione obbligatoria di conversazioni in cui emergano riferimenti a suicidio o autolesionismo e a limitare le caratteristiche più addictive delle IA companion.

La sicurezza chatbot Meta non può essere lasciata alla sola autoregolamentazione aziendale, ma richiede regole precise, vincoli giuridici e trasparenza pubblica sui sistemi di moderazione.

Common Sense Media ha definito i chatbot di Meta un “rischio inaccettabile” per gli under 18, un giudizio che pesa come un macigno in un momento in cui l’intelligenza artificiale si sta integrando rapidamente nella vita quotidiana dei giovanissimi. La vicenda, che vede Meta correre ai ripari tra promesse e correzioni tardive, dimostra quanto urgente sia una regolamentazione chiara ed efficace, capace di bilanciare innovazione tecnologica e tutela delle fasce più vulnerabili della popolazione.



Sergio Angrisano

Direttore Editoriale - giornalista televisivo e scrittore