Meta ha annunciato una nuova funzionalità di sicurezza progettata per offrire ai genitori maggiore visibilità su come i loro adolescenti interagiscono con Meta AI. Fornendo approfondimenti di alto livello sulla cronologia delle ricerche dell’intelligenza artificiale, l’azienda mira ad affrontare la crescente ansia dei genitori riguardo al ruolo dell’intelligenza artificiale nella vita dei minori.
Зміст
Colmare il divario informativo
Mentre molti genitori esprimono preoccupazione per la rapida integrazione dell’intelligenza artificiale nella cultura giovanile, rapporti recenti suggeriscono che gli adolescenti sono spesso indifferenti e già utilizzano questi strumenti per qualsiasi cosa, dall’assistenza accademica alla compagnia sociale.
Per colmare questa lacuna, Meta sta lanciando una scheda “Approfondimenti” all’interno dei suoi strumenti di supervisione dei genitori su Facebook, Messenger e Instagram. Invece di mostrare i registri esatti delle chat, la funzione fornisce una panoramica categorizzata degli argomenti esplorati dai ragazzi nell’ultima settimana. Queste categorie includono:
- Stile di vita: come moda, cibo e viaggi.
- Salute e benessere: copre fitness, salute fisica e salute mentale.
La funzionalità è attualmente disponibile per i genitori nel Regno Unito, Canada, Australia e Brasile, e Meta indica che questo è solo l’inizio di un lancio globale più ampio.
Protezioni di sicurezza a più livelli
L’introduzione degli approfondimenti di ricerca fa parte di una serie più ampia di misure di sicurezza intese a rendere Meta AI “adatta all’età”. Meta afferma che l’intelligenza artificiale è programmata per evitare risposte che sarebbero considerate inappropriate per un pubblico di età superiore ai 13 anni, spesso reindirizzando gli adolescenti a risorse professionali invece di fornire risposte dirette a domande sensibili.
Oltre al monitoraggio degli argomenti, Meta sta lavorando a diverse altre iniziative:
– Avvisi di emergenza: L’azienda sta sviluppando sistemi per avvisare i genitori se un adolescente cerca argomenti relativi all’autolesionismo o al suicidio (attualmente in fase di sviluppo).
– Dialogo guidato: In collaborazione con il Centro di ricerca sul cyberbullismo, Meta fornisce “avvii di conversazione” per aiutare i genitori ad affrontare il tema dell’intelligenza artificiale con i propri figli in modo non giudicante.
– Supervisione di esperti: è stato formato un Consiglio di esperti sul benessere dell’intelligenza artificiale, composto da consulenti di istituzioni accademiche e di salute mentale, per fornire una guida continua sulla sicurezza degli adolescenti.
Crescente scetticismo e preoccupazioni in materia di responsabilità
Nonostante questi progressi, Meta deve affrontare critiche significative riguardo all’efficacia delle sue misure di sicurezza. Questo annuncio fa seguito ai recenti intoppi legali nel New Mexico e in California, dove la società è stata giudicata negligente in casi cruciali sui social media.
I critici e gli informatori sostengono che queste caratteristiche potrebbero riguardare più le pubbliche relazioni che una vera protezione. Kelly Stonelake, una informatore di Meta, ha paragonato la strategia dell’azienda alla risposta storica dell’industria del tabacco ai rischi per la salute, rilasciando funzionalità di “sicurezza” per fornire l’apparenza di controllo pur mantenendo modelli di profitto.
Questo scetticismo è rafforzato da una recente valutazione indipendente delle funzionalità di sicurezza degli account per adolescenti di Instagram, che ha rilevato che:
– Il 64% delle funzionalità di sicurezza elencate erano inefficaci o non più disponibili.
– Solo il 17% delle funzionalità ha funzionato esattamente come descritto.
“Annuncia una nuova funzionalità di sicurezza. Genera migliaia di articoli sulla stampa. Offri ai genitori l’apparenza di controllo.” — Kelly Stonelake, informatrice di Meta
Conclusione
Meta sta tentando di mitigare le preoccupazioni dei genitori offrendo trasparenza nell’utilizzo dell’intelligenza artificiale attraverso approfondimenti categorizzati. Tuttavia, con le recenti sentenze legali e gli studi indipendenti che mettono in dubbio l’efficacia degli strumenti di sicurezza esistenti, il reale impatto di queste nuove funzionalità sulla sicurezza degli adolescenti rimane non dimostrato.































