Instagram, TikTok e la tutela dei minori

0
136
Foto da Canva.com

La notizia di partenza è – purtroppo – ancora di cronaca nera: una dodicenne è stata trovata impiccata nel bagno di casa, nel torinese. E la mente corre ad un’altra bambina soffocata per un folle e sconsiderato gioco social, nel palermitano, lo scorso gennaio. Tanto basta per riaprire l’annoso e irrisolto dibattito, reso tremendamente attuale da queste notizie di nera, su social e minori, sulle difficoltà nel regolamentarne l’accesso e sulle responsabilità di genitori, educatori, autorità, piattaforme.

Comunque la si guardi, è un bel ginepraio: come rileva Ginevra Ferrina Ceroni, vice presidente dell’Autorità Garante Privacy, in un commento pubblicato oggi da Il Messaggero, sarebbe difficile introdurre un passaggio di check “governativo” per la verifica dell’età degli utenti web, perché verrebbe meno l’elemento di anonimato alla base della fruizione dei servizi internet. E sarebbe altresì complesso affidarsi ai sistemi di machine learning e analisi predittiva, in grado di individuare l’età anagrafica degli utenti attraverso l’analisi dei loro comportamenti sulla rete (click, utilizzo del mouse, frequenza di rimbalzo, ecc). Infine, affidarsi unicamente alle segnalazioni degli utenti è fallibile e complesso, perché investirebbe gli utilizzatori delle piattaforme del ruolo di “cani da guardia” non sempre piacevole. Certo, l'”educazione digitale” è una nota dolente nel nostro paese, ma da sola non giustifica la sensazione di “far west” che sempre si prova quando si parla di minori e social.

Ecco dunque che di fronte ai blandi placebo messi in atto da TikTok (la richiesta di ri-confermare la propria età arrivata agli utenti e l’invito agli stessi a segnalare profili di età inferiore a quella consentita che – lo ricordiamo – per TikTok è 13 anni), più che altro per accontentare proprio il nostro Garante, Instagram sembra stia calando l’artiglieria pesante per tutelare la propria community.

L’obiettivo è semplice (e comprensibile): rendere la piattaforma un luogo sicuro per gli utenti più giovani. Ecco quindi che Instagram ha bloccato la possibilità, per gli utenti adulti, di mandare messaggi privati ai minori che non hanno fra i contatti diretti. Contestualmente, i teenagers riceveranno un “safety prompt”, cioè un avviso di sicurezza, ogni qual volta cercheranno di mandare messaggi privati ad adulti che hanno mostrato comportamenti sospetti. Inoltre, i teenagers avranno anche la possibilità di bloccare o segnalare gli adulti che inviano loro messaggi, e Instagram ricorderà loro di fare molta attenzione a inviare immagini, video o altri contenuti a persone adulte che non conoscono direttamente. Infine, gli algoritmi segnaleranno al team dei moderatori comportamenti sospetti come un gran numero di richieste di contatto inviate a utenti con meno di 18 anni. Ricordiamo che fra le nuove misure introdotte da Instagram c’è anche l’invito ai nuovi utenti adolescenti a rendere il proprio profilo “privato”, cioè chiuso.

Le misure messe in campo da Instagram, però, non si fermano agli “avvisi”: l’azienda ha infatti annunciato lo sviluppo di un sistema di AI – Artificial Intelligence – e machine learning in grado di verificare l’età di un utente al momento dell’iscrizione. Anche per Instagram l’età minima per l’accesso è di 13 anni, ma sappiamo tutti bene quanto sia facile mentire sulla propria età. Non ci è dato tuttavia sapere (almeno per il momento) come funzionerà l’AI targata Instagram.

Risulta però evidente quanto sia importante, per Instagram almeno, la cui strategia è chiaramente quella di spingere sugli acquisti in-app, proteggere la propria community (soprattutto quella con carta di credito e facoltà di usarla) ed evitare di andare a “solleticare” le autorità di tutela privacy e tutela minori, come invece sembra accadere sempre più spesso con la rivale TikTok.