Meta a annoncé une nouvelle fonctionnalité de sécurité conçue pour donner aux parents plus de visibilité sur la façon dont leurs adolescents interagissent avec Meta AI. En fournissant des informations de haut niveau sur l’historique de recherche de l’IA, la société vise à répondre à l’anxiété croissante des parents concernant le rôle de l’intelligence artificielle dans la vie des mineurs.
Зміст
Combler le déficit d’information
Alors que de nombreux parents expriment leurs inquiétudes quant à l’intégration rapide de l’IA dans la culture des jeunes, des rapports récents suggèrent que les adolescents sont souvent indifférents, utilisant déjà ces outils pour tout, de l’aide scolaire à la camaraderie sociale.
Pour combler cette lacune, Meta déploie un onglet « Insights » au sein de ses outils de supervision parentale sur Facebook, Messenger et Instagram. Plutôt que d’afficher des journaux de discussion exacts, la fonctionnalité fournit un aperçu catégorisé des sujets que leur adolescent a explorés au cours de la semaine dernière. Ces catégories comprennent :
- Style de vie : Comme la mode, la nourriture et les voyages.
- Santé et bien-être : Couvrant la forme physique, la santé physique et la santé mentale.
La fonctionnalité est actuellement disponible pour les parents au Royaume-Uni, au Canada, en Australie et au Brésil, Meta indiquant qu’il ne s’agit que du début d’un déploiement mondial plus large.
Protections de sécurité superposées
L’introduction des informations de recherche fait partie d’une suite plus large de mesures de sécurité destinées à rendre la Meta AI « adaptée à l’âge ». Meta affirme que l’IA est programmée pour éviter les réponses qui seraient considérées comme inappropriées pour un public de 13 ans et plus, redirigeant souvent les adolescents vers des ressources professionnelles plutôt que de fournir des réponses directes aux requêtes sensibles.
Au-delà du suivi thématique, Meta travaille sur plusieurs autres initiatives :
– Alertes d’urgence : La société développe des systèmes pour avertir les parents si un adolescent recherche des sujets liés à l’automutilation ou au suicide (actuellement en développement).
– Dialogue guidé : En partenariat avec le Centre de recherche sur la cyberintimidation, Meta propose des « amorces de conversation » pour aider les parents à aborder le sujet de l’IA avec leurs enfants sans porter de jugement.
– Supervision d’experts : Un Conseil d’experts en bien-être en IA, composé de conseillers d’établissements universitaires et de santé mentale, a été formé pour fournir des conseils continus sur la sécurité des adolescents.
Scepticisme croissant et préoccupations en matière de responsabilité
Malgré ces progrès, Meta fait face à d’importantes critiques concernant l’efficacité de ses mesures de sécurité. Cette annonce fait suite à de récents revers juridiques au Nouveau-Mexique et en Californie, où l’entreprise a été jugée négligente dans des affaires marquantes sur les réseaux sociaux.
Les critiques et les lanceurs d’alerte affirment que ces caractéristiques relèvent peut-être davantage des relations publiques que d’une véritable protection. Kelly Stonelake, une lanceuse d’alerte de Meta, a comparé la stratégie de l’entreprise à la réponse historique de l’industrie du tabac aux risques pour la santé : en publiant des fonctionnalités de « sécurité » pour donner l’apparence de contrôle tout en maintenant des modèles de profit.
Ce scepticisme est renforcé par une récente évaluation indépendante des fonctionnalités de sécurité des comptes Instagram pour adolescents, qui a révélé que :
– 64 % des dispositifs de sécurité répertoriés étaient soit inefficaces, soit n’étaient plus disponibles.
– Seulement 17 % des fonctionnalités fonctionnaient exactement comme décrit.
“Annoncez une nouvelle fonctionnalité de sécurité. Générez des milliers de pièces de presse. Offrez aux parents l’apparence du contrôle.” — Kelly Stonelake, lanceuse d’alerte Meta
Conclusion
Meta tente d’atténuer les inquiétudes des parents en offrant de la transparence sur l’utilisation de l’IA grâce à des informations catégorisées. Cependant, avec des décisions de justice récentes et des études indépendantes remettant en question l’efficacité des outils de sécurité existants, le véritable impact de ces nouvelles fonctionnalités sur la sécurité des adolescents reste à prouver.
