
Instagram e il fallimento della protezione dei minori
Quando la sicurezza diventa marketing e la vulnerabilità un algoritmo

Negli ultimi anni, Instagram si è presentato come una piattaforma attenta alla sicurezza dei giovani utenti, introducendo strumenti apparentemente dedicati alla tutela dei minori. Tuttavia, nuove indagini internazionali dimostrano che due strumenti di sicurezza su tre non funzionano o sono del tutto assenti. Il risultato è allarmante: milioni di adolescenti — e persino bambini al di sotto dei tredici anni — restano quotidianamente esposti a contenuti dannosi, manipolazioni algoritmiche e, nei casi più gravi, ad abusi e contatti indesiderati con adulti.
La promessa di “creare un ambiente sicuro per i più giovani” si è rivelata una facciata. Le funzioni di sicurezza integrate negli account per adolescenti non impediscono, come dichiarato, l’accesso a contenuti pericolosi legati al suicidio, ai disturbi alimentari o all’autolesionismo.
Un adolescente che digita termini come “voglio morire di fame” o “voglio farmi del male” dovrebbe essere immediatamente reindirizzato verso risorse di supporto psicologico o numeri di emergenza. Eppure, l’algoritmo di Instagram spesso propone “alternative” di ricerca che mantengono vivo l’interesse per quel tipo di contenuto, rafforzando la spirale di vulnerabilità.

Peggio ancora, la struttura stessa della piattaforma – basata sulla visibilità, sulle raccomandazioni personalizzate e sull’interazione continua – mina la funzione dei suoi stessi strumenti di protezione. Mentre Meta annuncia nuove barriere di sicurezza, i suggerimenti di profili e contenuti continuano a indirizzare i minori verso adulti sconosciuti, comunità tossiche e influencer che normalizzano comportamenti distruttivi.
Le testimonianze raccolte da ricercatori e associazioni per la tutela dei minori rivelano un quadro ancora più inquietante: bambini anche di soli sei anni risultano presenti su Instagram, nonostante la piattaforma vieti l’uso ai minori di tredici.
In diversi casi, l’algoritmo ha incentivato comportamenti sessualizzati, proponendo video, hashtag e interazioni con adulti sconosciuti. Molti di questi bambini hanno ricevuto avances sessuali nei commenti pubblici o messaggi privati inappropriati, mentre gli strumenti di segnalazione si sono rivelati inefficaci o troppo complessi per essere utilizzati da un minore.
Meta aveva promesso ai genitori un ambiente protetto, capace di limitare l’esposizione a contenuti inadeguati e di bloccare automaticamente contatti rischiosi. Ma le evidenze mostrano tutt’altro: le promesse di sicurezza sono state usate come leve di marketing, non come reali misure di protezione.
Il caso di Instagram evidenzia un nodo cruciale: non ci si può fidare dell’autoregolamentazione delle big tech. Le aziende digitali hanno interesse a trattenere l’attenzione degli utenti, e più un contenuto genera reazioni, più viene spinto dall’algoritmo, anche se è tossico o pericoloso.
La tutela dei minori non può quindi essere lasciata alla buona volontà delle piattaforme: richiede norme vincolanti, sanzioni efficaci e un monitoraggio indipendente.
I sostenitori dei diritti dei minori chiedono con urgenza un intervento politico concreto:

- Negli Stati Uniti, l’approvazione del Kids Online Safety Act, che imporrebbe alle aziende digitali di progettare piattaforme “sicure by design”, tutelando i minori da manipolazioni e abusi.
- Nel Regno Unito, il rafforzamento dell’Online Safety Act, per garantire che le piattaforme non si limitino a dichiarazioni d’intenti.
- All’Ofcom, l’autorità di regolazione britannica, di agire con maggiore urgenza contro le inadempienze delle grandi aziende tecnologiche.
- L’Italia sta cercando di ridurre il divario tra le promesse di sicurezza digitale e la realtà, introducendo nuove leggi e regolamenti.
Il Decreto Legge n. 123/2023 impone la verifica dell’età per l’accesso a contenuti sensibili e la disponibilità gratuita del parental control su tutti i dispositivi.
L’AGCOM ha fissato le linee guida per applicarle, mentre l’Antitrust (AGCM) ha multato TikTok per 10 milioni di euro per mancate tutele verso i minori.
Sul fronte educativo, la Legge 71/2017 sul cyberbullismo, aggiornata nel 2024, ha rafforzato prevenzione e formazione nelle scuole. Da ottobre 2025, inoltre, i minori di 14 anni potranno usare sistemi basati su Intelligenza Artificiale solo con il consenso dei genitori.
Tuttavia, le falle restano significative: la verifica dell’età è facilmente aggirabile, i controlli sono scarsi e le piattaforme restano accessibili anche ai più piccoli.
Ma la questione non riguarda solo la regolamentazione, ma il modello stesso di cultura digitale che stiamo costruendo.

Serve quindi una risposta culturale oltre che legislativa: educare famiglie, scuole e istituzioni a un uso critico e consapevole della tecnologia.
Perché proteggere i minori online non è solo un obbligo di legge, ma un dovere educativo verso una nuova umanità digitale.
Quando i social network diventano ambienti in cui anche i bambini di sei anni imparano che la visibilità vale più della sicurezza, la responsabilità è collettiva: delle istituzioni, dei genitori, delle scuole e degli stessi utenti.
Proteggere i minori nel mondo digitale non è solo un atto di giustizia, ma un investimento sul futuro dell’umanità.
Perché se un algoritmo può imparare a manipolare, può anche imparare a proteggere – ma solo se la società decide di insegnarglielo.