Perché non possiamo fidarci di Instagram

di:

cellulare

Se ascoltate podcast, sarà capitato anche a voi di sentire molto spesso una pubblicità di META, l’azienda che controlla gran parte della nostra vita digitale con Facebook, Instagram e WhatsApp.

META ci tiene a farci sapere che supporta l’idea di introdurre una «maggiore età digitale» a livello europeo per scaricare app come le sue.

La proposta è molto semplice, fin troppo: i genitori dovrebbero poter autorizzare con una forma di «parental control» i download di app da parte dei loro figli sotto i 16 anni.

Nel concreto, quando un ragazzino prova a scaricare Instagram o WhatsApp, il genitore riceve una notifica sul proprio dispositivo e può autorizzare o bloccare l’operazione. Tutto qui.

Stiamo parlando soltanto del primo download, cioè della possibilità per il minore di accedere alla app. Non di un’autorizzazione per le varie attività che poi il minore può fare sul social una volta che papà o mamma hanno dato il primo ok.

Questo filtro serve a qualcosa?

Senza scrupoli

L’obiettivo è allontanare da META l’accusa di essere un’azienda di «persone senza scrupoli», Careless people, come da titolo del libro accusatorio dell’ex dirigente Sarah Wynn-Williams che l’azienda ha cercato di ostacolare in ogni modo.

Quel libro conferma quello che già sappiamo da molte inchieste giornalistiche, rivelazioni di ex dipendenti, audizioni in molti parlamenti nazionali: i social network sono pericolosi, in particolare per i più giovani, e le piattaforme digitali hanno sempre privilegiato il potenziale commerciale della profilazione algoritmica e delle raccomandazioni automatiche rispetto alla tutela degli utenti.

Da anni, ormai, META cerca di ripulirsi l’immagine, di rassicurare sul fatto che, ammesso che un problema specifico esista – e l’azienda di Mark Zuckerberg nega che esista – la piattaforma sa anche come risolverlo.

Nei mesi scorsi META ha lanciato gli account «teen», cioè account specifici per Instagram che dovrebbero limitare i danni, almeno quelli più irreversibili, come il rischio per ragazzini di essere avvicinati da adulti pericolosi.

Un report dell’ex ingegnere META Arturo Béjar, prodotto con il supporto di una serie di ONG specializzate in tema di privacy e minori, è arrivato alla conclusione che gran parte (64 per cento) degli strumenti che dovrebbero proteggere i minori con un account Teen semplicemente non funziona.

META sostiene che gli adulti non possono mandare messaggi diretti agli Account Teen che non li seguono, così da evitare adescamenti o comportamenti sospetti. Ma Arturo Béjar e il suo team hanno fatto una serie di simulazioni e hanno scoperto che questo blocco si può aggirare: per esempio, l’algoritmo di Instagram continua a proporre agli account Teen di seguire adulti che non li seguono – quindi dal punto di vista digitale dei perfetti sconosciuti – e una volta che il minore segue il profilo dell’adulto, questo può mandare messaggi diretti.

Inoltre, i filtri per proteggere i più piccoli dalle parole più offensive e volgari sono aggirabili. Il blocco di più account connessi alla stessa persona, per evitare che malintenzionati cambino identità per approcciare un minore, non funziona.

E i ragazzini sono incoraggiati a scegliere i messaggi che si autocancellano, riducendo il possibile monitoraggio sulle conversazioni da parte dei genitori e rendendo più pericolose le interazioni.

D’altra parte, se questi sistemi di protezione funzionassero davvero, che bisogno avrebbe META di lanciare la campagna per promuovere la «maggiore età digitale in Europa»? Se Instagram fosse già uno spazio sicuro, i genitori sarebbero molto più sereni nel lasciare che i propri figli vi accedano.

Ma META sa perfettamente che i social restano uno spazio pericoloso, per i rapporti con gli adulti anche perché l’algoritmo può incoraggiare comportamenti autolesionistici nei ragazzi. E dunque sposta la responsabilità sui genitori: tocca a loro approvare l’ingresso dei figli in questo spazio così pieno di insidie.

Poi META farà quello che può per limitare i danni, ma se succede qualcosa di brutto l’azienda potrà sempre scaricare la colpa sul genitore incauto che ha sottovalutato le fragilità del figlio finito nei guai.

Per quello che vale la mia esperienza personale, io ho perso ogni fiducia nella capacità e nella volontà di META di proteggere l’integrità dei suoi social questa estate. Qualcuno ha iniziato a clonare il mio profilo, usando la mia foto, e copiando i miei contenuti.

Quel finto profilo poi ha iniziato a seguire giornalisti, personalità pubbliche e persone comuni, che come forma di cortesia ricambiavano il «follow». A quel punto, una volta creata la connessione, il finto profilo iniziava a proporre investimenti in criptovalute.

Oltre a essere una chiara truffa, questa attività rappresentava per me un serio danno reputazionale, perché io mi occupo molto di economia e ho scritto spesso, in modo molto critico, di criptovalute.

È successo due volte in un mese. E due volte ho segnalato a Instagram l’attività illecita di questo profilo e per due volte Instagram mi ha risposto che non poteva sospenderlo perché rispettava i criteri di legittimità della piattaforma. La sospensione è arrivata soltanto quando moltissimi altri utenti, spontaneamente o sollecitati da me, hanno iniziato a segnalare il profilo. Che però non è stato chiuso, ha soltanto cambiato nome e contenuti e avrà ricominciato a fare truffe con una nuova identità e nuovi bersagli.

Che META non voglia o non riesca a proteggere i propri utenti, ormai poco conta. È un fatto che non li protegga. E se non riesce a evitare abusi così smaccati, è davvero pensabile che possa proteggere i ragazzini?

Forse la domanda stessa è priva di senso, perché presuppone che esista un uso responsabile e sicuro dei social network, mentre il best seller dello psicologo Jonathan Haidt sulla Generazione ansiosa (Rizzoli) ha dimostrato che i social network usati nell’età dello sviluppo causano danni permanenti. Interferiscono con lo sviluppo del cervello e della personalità, compromettono il processo di maturazione che consente ai giovani adulti di gestire rapporti sociali.

Instagram, così come TikTok, crea le premesse per quella fragilità così tipica della Generazione Z che poi viene raccontata proprio sulle pagine social. Quindi, forse non esiste un uso consapevole e responsabile dei social, così come non si può bere alcol o fumare sigarette senza subire danni.

Si può soltanto scegliere l’entità del danno accettabile a fronte del beneficio percepito di aderire a un comportamento vissuto come socialmente obbligatorio, che sia bere un bicchiere in compagnia o avere un profilo Instagram per connettersi con gli amici.

L’evoluzione del problema con l’AI

I problemi, tuttora insoluti, che i minori sperimentano sui social si ripresentano in nuove versioni più insidiose nei chatbot di intelligenza artificiale.

Per questo OpenAI, l’azienda di ChatGpt, ha appena annunciato il 30 settembre la sua versione di «parental control» che dà ai genitori la possibilità di limitare alcune funzionalità degli account dei figli.

Con ChatGpt l’insidia non sta tanto nei rapporti tra minori e adulti malintenzionati, quanto nelle interazioni tra i minori e il chatbot stesso. Ormai si registrano sempre più casi di comportamenti pericolosi: l’intelligenza artificiale che consiglia pratiche di autolesionismo, che spinge fino al suicidio, che flirta con i ragazzini e si produce in conversazioni inappropriate.

Oppure, ed è altrettanto pericoloso, l’intelligenza artificiale può sostituire le interazioni reali, diventare un amico immaginario sempre a disposizione che compromette lo sviluppo di capacità di relazione vitali per un pre-adolescente.

Adesso OpenAI consente ai genitori di bloccare l’utilizzo di ChatGpt per alcune ore, in modo da evitare l’uso compulsivo e la dipendenza, consente di bloccare la generazione di immagini, o silenziare la versione vocale del servizio.

Il paradosso è che queste nuove impostazioni possono trasmettere un falso senso di sicurezza e finiscono addirittura per spingere i genitori a condividere il proprio account con i figli e, a meno che non si disattivi l’apposita impostazione, a usare il comportamento dei minori per addestrare l’algoritmo.

Anche nel migliore dei casi, poi, l’accesso dei genitori alle chat dei figli con l’intelligenza artificiale crea dinamiche inedite nel rapporto familiare. Se i social incoraggiano la proiezione pubblica dei ragazzini, ChatGpt stimola la condivisione dell’intimità, è un confessionale digitale che promette riservatezza.

È legittimo che i genitori possano spiare le conversazioni più personali dei figli con un’entità superiore e quasi onniscente? O è una violazione di ogni possibile rapporto di fiducia? Forse questa ingerenza è necessaria, nell’ipotesi che ai ragazzini venga consentito di usare uno strumento così potente da soli, ma certo è qualcosa che può avere impatti difficili da misurare.

Le cose poi sono più complicate di così. Perché OpenAI avrebbe molti più strumenti di META per individuare i soggetti a rischio e adeguare il prodotto che offre. L’intelligenza artificiale funziona su base probabilistica: sulla base degli input disponibili, stima quale è la risposta appropriata.

Dunque, in teoria, può abbastanza facilmente stimare la probabilità che il soggetto con cui interagisce sia un minore. Ma per una stima accurata e per calibrare le risposte nel modo che la piattaforma stabilisce essere appropriato, ChatGpt deve poter accedere a molte informazioni, per esempio usare le conversazioni precedenti, o dedurre l’età da foto caricate, o da moduli da compilare.

Quindi, l’accuratezza nel riconoscimento del minore può comportare una riduzione costante della sua privacy e l’acquisizione di masse di dati che possono poi generare altri dilemmi e problemi.

Inoltre, come osserva l’ex dirigente di META resposabile delle policy per i più giovani, Vaishnavi J, su Tech Policy Press, è cruciale che ChatGpt riconosca i minori, ma anche che li tratti nel modo giusto:

Prendiamo la promessa di OpenAI secondo cui ChatGPT non intratterrà conversazioni civettuole con i minori. Sulla carta, questo sembra un indubbio successo in termini di sicurezza. Ma nella pratica, l’esito dipende da come viene formulato il rifiuto. Un «no» secco e giudicante può far sentire un adolescente respinto. Al contrario, un reindirizzamento supportivo o una deflessione gentile possono preservare la fiducia pur allontanando la conversazione dal rischio.

La lezione che abbiamo imparato nella ormai lunga stagione dei social è che è inutile chiedere alle piattaforme di auto-regolarsi ed è anche difficile per il regolatore pubblico stare sempre al passo con l’innovazione.

Bisogna usare la legge e l’antitrust per ridurre il potere delle piattaforme, per garantire competizione sui vari servizi in modo che le aziende digitali siano incoraggiate a competere anche sulla trasparenza e sulla riservatezza garantite agli utenti.

Cosa vuole davvero META: l’analisi di Alberto Alemanno

Alberto Alemanno è un giurista, professore di diritto europeo alla HEC di Parigi e una delle voci più autorevoli nella discussione europea su lobbying e conflitti di interessi. È anche promotore dell’organizzazione non profit The Good Lobby.

  • È un segnale positivo che META affronti il problema delle conseguenze negative dei suoi social sugli adolescenti o è un tentativo di spostare la responsabilità sulle famiglie?

La proposta di Meta, volta a introdurre la maggiorità digitale in Europa, appare come un tentativo goffo di presentarsi come un’impresa responsabile, attenta al benessere dei giovani, ma in realtà nasconde due strategie precise.

La prima è il trasferimento della responsabilità: Meta cerca di spostare l’onere da quello aziendale a quello individuale, chiedendo ai genitori di assumersi la responsabilità dei contenuti visibili ai propri figli sulle reti sociali. In questo modo l’azienda si deresponsabilizza rispetto agli effetti dannosi delle sue piattaforme.

La seconda è la diversione strategica: la proposta serve a distogliere l’attenzione dagli inadempimenti di Meta nell’applicazione delle regole digitali europee, in particolare il Digital Services Act e il Digital Markets Act.

Meta ha dimostrato forte opposizione sia durante i negoziati che hanno portato all’adozione di queste misure, sia successivamente nella fase di implementazione, che ha di fatto rifiutato, contestato e boicottato.

Questa proposta di autoregolamentazione non cambia nulla rispetto agli algoritmi, e dunque rispetto ai contenuti effettivamente visibili ai minori.

Si tratta quindi di una manovra puramente cosmetica, che non interviene sui meccanismi reali alla radice del problema: gli algoritmi che raccomandano contenuti potenzialmente dannosi e l’ecosistema stesso dei contenuti presenti sulle piattaforme.

In definitiva, Meta sposta la responsabilità sui genitori senza modificare il proprio funzionamento. Più che un’iniziativa genuina per proteggere i minori, questa appare come una strategia per eludere la propria responsabilità regolamentare e trasferire il peso della vigilanza sui contenuti alle famiglie, senza toccare il cuore del problema.

  • Ci sono precedenti in questo approccio?

Sì, ci sono precedenti. Ricorrere alla responsabilità individuale fa parte del playbook consolidato dell’industria, utilizzato per far esitare le colpe e giustificare il mancato adempimento degli obblighi di legge, in questo caso la legislazione del DSA e del DMA.

Questo approccio è un classico, già ampiamente testato da altre industrie controverse. L’industria del tabacco, ad esempio, ha a lungo sostenuto che il fumo fosse una scelta personale, così da evitare regolamentazioni e responsabilità sui danni alla salute.

L’industria dell’alcol ha enfatizzato il consumo “responsabile” e introdotto la nozione di moderazione, piuttosto che affrontare le pratiche di marketing aggressivo, spesso indirizzato anche ai minori.

L’industria agroalimentare ha promosso l’idea della responsabilità individuale nelle scelte alimentari per eludere regolamentazioni sui prodotti dannosi per la salute, privilegiando l’etichettatura rispetto alla riformulazione dei prodotti per ridurre la presenza di sale o zucchero.

Meta, dunque, sta utilizzando una tattica ben collaudata: presentare un’iniziativa apparentemente responsabile, ma che in realtà non cambia nulla di sostanziale e sposta il peso della responsabilità dai produttori ai consumatori, in questo caso dalle piattaforme digitali ai genitori.

  • La pubblicità di META è ovunque, immagino che anche a Bruxelles siano attivissimi con i parlamentari. Le Big Tech americane riescono a influenzare molto la legislazione europea anche in questa fase di tensioni con gli Stati Uniti?

Le Big Tech americane hanno esercitato e continuano a esercitare un’influenza spropositata sulla legislazione europea attraverso strategie di lobbying aggressive, massicce e in larga parte inedite.

Come altri giganti digitali, Meta ha mostrato una crescente opposizione durante i negoziati che hanno portato alla definizione delle regole digitali europee — regole arrivate comunque molto tardi, quando i danni erano già stati fatti e ampie quote di mercato erano state consolidate a scapito dei pochi operatori europei.

L’attività di lobbying delle Big Tech a Bruxelles si caratterizza per quattro elementi distintivi: spese inusitate, aggressività, abuso della loro presunta expertise e opacità nei finanziamenti. Le cifre sono impressionanti: negli ultimi anni Google, Apple, Microsoft, Amazon e Meta hanno speso in media tra i 20 e i 25 milioni di euro all’anno in attività di lobbying, secondo il registro di trasparenza. Google da sola è responsabile di oltre un terzo di questa somma. La situazione è analoga negli Stati Uniti, aggravata dalle donazioni politiche.

Quanto alle tattiche, documenti interni trapelati da Google hanno rivelato strategie volte a seminare conflitto all’interno della Commissione europea per frenare l’adozione del Digital Services Act.

Un livello di interferenza che può essere definito come un tentativo di minare la democrazia. Comune è anche la creazione di falsi gruppi di cittadini per simulare un sostegno popolare da parte degli utenti.

Un altro strumento è lo sfruttamento della propria expertise tecnologica, con il messaggio implicito: «Noi sappiamo meglio di voi come funziona la tecnologia, lasciate che ce ne occupiamo, promettiamo noi di proteggervi».

A questo si aggiungono i finanziamenti opachi a think tank, cattedre accademiche e centri di ricerca: le Big Tech hanno canalizzato risorse enormi e senza precedenti, spesso con scarsa o nessuna trasparenza, per mobilitare esperti a sostegno delle loro posizioni.

Negli ultimi anni, circa il 60 per cento della ricerca prodotta su riviste scientifiche in materia di concorrenza risulta, direttamente o indirettamente, legata a finanziamenti di Google. Un esempio recente: uno studio finanziato da Google sosteneva che il Digital Services Act avrebbe potuto costare due milioni di posti di lavoro e miliardi di PIL.

L’efficacia di queste strategie è evidente: la Commissione ha diluito i testi inizialmente concepiti e, dopo l’approvazione in Parlamento e Consiglio, ha rilanciato – in nome della semplificazione – una nuova consultazione pubblica che rischia di indebolire o addirittura annullare l’applicazione delle norme, proprio nel momento in cui sono appena entrate in vigore.

A tutto ciò si aggiunge un nuovo livello politico: gli appelli dell’amministrazione americana hanno rafforzato questa pressione, chiedendo apertamente di diluire o disapplicare le regole digitali per i colossi statunitensi, legando il tema al recente accordo commerciale. L’amministrazione Trump ha fatto capire che, se l’Europa non rinuncerà alla propria autonomia regolamentare, l’accordo potrebbe saltare e verrebbero imposti nuovi dazi più elevati.

Questo è l’aspetto più politico del lobbying, che non si limita più ai corridoi di Bruxelles con emendamenti e incontri, ma si gioca ai livelli più alti, con l’amministrazione Trump e membri del gabinetto in contatto continuo con la Silicon Valley. L’obiettivo è portare questo messaggio sia a Bruxelles sia a Washington, trasformandolo in una vera e propria forma di coercizione verso l’Europa. Un’Europa che, al momento, appare aver accettato con rassegnazione e con un profondo senso di umiliazione.

  • Dal Substack di Stefano Feltri, Appunti, 9 ottobre 2025

appunti

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto