Meta chiede una maggiore regolamentazione della sicurezza dei bambini online

Sulla scia del suo primo vertice sulla sicurezza per il benessere dei giovani, che si è tenuto il mese scorso a Washington DC, Meta ha chiesto la cooperazione globale tra i governi per stabilire nuovi requisiti definitivi per quanto riguarda la sicurezza dei bambini online. L’attenzione è rivolta soprattutto alle disposizioni per accesso e rilevamento, nonché regole su “quale è” e “quale non è” un contenuto accettabile, in relazione alle app social.

Sicurezza dei bambini online: Meta riunisce esperti

Il vertice sulla sicurezza dei giovani di Meta ha riunito esperti di salute mentale, educatori, ricercatori, autori di politiche e genitori. Tutti hanno tenuto tenuto una serie di discussioni sulle questioni chiave relative alla sicurezza dei minori online e su come affrontare al meglio i requisiti in evoluzione di questo aspetto chiave.

Vari rapporti hanno già indicato la profondità del problema: dagli impatti mentali dell’auto-confronto negativo su Instagram, ai bambini che muoiono mentre intraprendono acrobazie pericolose, ispirati alle tendenze di TikTok. Lo stesso TikTok che sta rischiando il ban dagli USA proprio per problemi leagati alla sicurezza.

Le app dei social media hanno già requisiti di età, insieme a una varietà di strumenti progettati per rilevare e impedire ai giovani di accettare e accedere a materiale inappropriato. Ma la maggior parte di queste misure di sicurezza è facilmente aggirabile. Infatti i bambini che crescono online stanno diventando sempre più esperti nell’eludere ciò che ai loro genitori potrebbe non andare bene.

Sicurezza dei minori online: si chiedono sistemi più avanzati

Sistemi più avanzati, tuttavia, sono già in funzione, compreso il gating di accesso al riconoscimento facciale. Questo sistema non è certamente consigliato, date le preoccupazioni relative al caricamento delle immagini dei bambini. Per non parlare del software di stima dell’età più avanzato, che può determinare l’età del titolare dell’account in base a un intervallo di fattori.

Instagram sta già lavorando con piattaforme di terze parti su quest’ultimo aspetto. Meta, inoltre, ha implementato una serie di misure aggiuntive per rilevare e impedire ai bambini di accedere alle sue app. Ma non vuole essere la sola, e vede in questo un problema a più ampio raggio.

Le parole di Nick Clegg, Presidente degli affari globali di Meta

L’esigenza sempre più sentita di garantire la sicurezza dei bambini online è ribadita da più parti. Secondo Nick Clegg, presidente degli affari globali di Meta: “L’Unione Europea e gli Stati Uniti hanno cercato di istituire vari forum in cui i principali responsabili delle decisioni delle agenzie di regolamentazione di DC e delle agenzie di regolamentazione di Bruxelles si incontrino (…). Tanto più potrebbero farlo con le loro controparti, come l’India, sarebbe un’ottima cosa per questo ordine del giorno.

Meta ha adottato un approccio simile con la regolamentazione dei contenuti, implementando il proprio consiglio di sorveglianza esterno per esaminare le sue decisioni interne. In questo senso, il colosso ha invitato anche i governi a prendere nota del nuovo approccio e stabilire regole più stabili che si applicherebbero a tutti i fornitori online.

Ciò toglierebbe alcune di queste difficili decisioni dalle mani di Meta, riducendo il controllo sull’azienda. Sarebbero stabiliti anche requisiti universali per tutte le piattaforme, il che attuerebbe un miglioramento della sicurezza in generale.

C’è qualche domanda al riguardo su potenziali restrizioni alla concorrenza. Le start-up, infatti, potrebbero non avere le risorse per soddisfare tali requisiti. Ciò potrebbe consolidare il dominio di Meta nel settore; eppure, anche con questa considerazione, l’argomento ha ancora senso. E dati gli impatti nel mondo reale che abbiamo visto come risultato delle tendenze e dei cambiamenti originati dai social media, ha senso che i governi dovrebbero cercare di sviluppare requisiti normativi più definitivi, su larga scala.

Nel frattempo, però, Meta si dimostra meno attenta ad altre problematiche come la gestione del consenso per il trattamento dei tati personali. Aspetto, questo, che ha portato una multa UE per Meta della cifra di 390 milioni di euro.

La richiesta di regolamentazione di Meta. I tre elementi chiave

In particolare, la richiesta di regolamentazione di Meta affronta tre elementi chiave:

  • Verificare l’età: in modo che i bambini piccoli non possano accedere ad app non create per loro e che gli adolescenti possano avere esperienze coerenti e adeguate all’età.
  • Fornire esperienze adeguate all’età: in modo che gli adolescenti possano aspettarsi esperienze altrettanto sicure in tutte le app personalizzate in base alla loro età e fase della vita.
  • Costruire i controlli parentali: in modo che genitori e tutori abbiano gli strumenti per navigare insieme nelle esperienze online per i loro ragazzi.

Meta osserva che continuerà a sviluppare la propria lina. Preferirebbe, però, vedere una regolamentazione più centralizzata e definitiva, a cui tutte le piattaforme possano attenersi.

Dato il potenziale danno, la spinta avrà certamente un seguito e sarà interessante vedere se questo diventerà un punto di discussione più importante tra gli stati membri delle Nazioni Unite, tanto per cominciare, nei prossimi mesi.

Un articolo di Alice Borghesini pubblicato il 11/01/2023 e modificato l'ultima volta il 11/01/2023

Alice Borghesini

Neolaureata in Giurisprudenza, da sempre coltiva una grande passione per il Gossip. È costantemente aggiornata sulle vicende dei personaggi televisivi e dei VIP dell’intero mondo Web. Ha un forte seguito su Instagram, dove gestisce una pagina di moda e makeup per ragazze.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *