Meta hat eine neue Sicherheitsfunktion angekündigt, die Eltern mehr Einblick in die Interaktion ihrer Teenager mit Meta AI geben soll. Durch die Bereitstellung umfassender Einblicke in den KI-Suchverlauf möchte das Unternehmen der wachsenden Besorgnis der Eltern hinsichtlich der Rolle der künstlichen Intelligenz im Leben von Minderjährigen entgegenwirken.
Зміст
Überbrückung der Informationslücke
Während viele Eltern Bedenken hinsichtlich der schnellen Integration von KI in die Jugendkultur äußern, deuten aktuelle Berichte darauf hin, dass Teenager oft gleichgültig sind und diese Tools bereits für alles nutzen, von akademischer Unterstützung bis hin zu sozialer Kameradschaft.
Um diese Lücke zu schließen, führt Meta in seinen Elternaufsichtstools auf Facebook, Messenger und Instagram einen Tab „Insights“ ein. Anstatt genaue Chatprotokolle anzuzeigen, bietet die Funktion einen kategorisierten Überblick über die Themen, mit denen sich ihr Teenager in der letzten Woche beschäftigt hat. Zu diesen Kategorien gehören:
- Lebensstil: Wie Mode, Essen und Reisen.
- Gesundheit und Wohlbefinden: Deckt Fitness, körperliche Gesundheit und geistige Gesundheit ab.
Die Funktion ist derzeit für Eltern in Großbritannien, Kanada, Australien und Brasilien verfügbar, wobei Meta darauf hinweist, dass dies nur der Anfang einer umfassenderen globalen Einführung ist.
Mehrschichtiger Sicherheitsschutz
Die Einführung von Sucheinblicken ist Teil einer umfassenderen Reihe von Sicherheitsmaßnahmen, die Meta AI „altersgerecht“ machen sollen. Meta behauptet, die KI sei so programmiert, dass sie Antworten vermeidet, die für ein Publikum ab 13 Jahren als unangemessen gelten würden, und leitet Jugendliche oft an professionelle Ressourcen weiter, anstatt direkte Antworten auf sensible Fragen zu geben.
Über die Themenverfolgung hinaus arbeitet Meta an mehreren anderen Initiativen:
– Notfallwarnungen: Das Unternehmen entwickelt Systeme, um Eltern zu benachrichtigen, wenn ein Teenager nach Themen im Zusammenhang mit Selbstverletzung oder Selbstmord sucht (derzeit in der Entwicklung).
– Geführter Dialog: In Zusammenarbeit mit dem Cyberbullying Research Center bietet Meta „Gesprächsstarter“ an, um Eltern dabei zu helfen, mit ihren Kindern auf unvoreingenommene Weise an das Thema KI heranzugehen.
– Expertenaufsicht: Ein Expertenrat für KI-Wohlbefinden, bestehend aus Beratern aus akademischen und psychiatrischen Einrichtungen, wurde gegründet, um fortlaufend Leitlinien zur Sicherheit von Teenagern bereitzustellen.
Wachsende Skepsis und Bedenken hinsichtlich der Rechenschaftspflicht
Trotz dieser Fortschritte sieht sich Meta erheblicher Kritik hinsichtlich der Wirksamkeit seiner Sicherheitsmaßnahmen ausgesetzt. Diese Ankündigung folgt auf die jüngsten rechtlichen Rückschläge in New Mexico und Kalifornien, wo das Unternehmen in bahnbrechenden Social-Media-Fällen für fahrlässig befunden wurde.
Kritiker und Whistleblower argumentieren, dass es bei diesen Funktionen möglicherweise eher um Öffentlichkeitsarbeit als um echten Schutz geht. Kelly Stonelake, eine Meta-Whistleblowerin, hat die Strategie des Unternehmens mit der historischen Reaktion der Tabakindustrie auf Gesundheitsrisiken verglichen – die Einführung von „Sicherheitsfunktionen“, um den Anschein von Kontrolle zu erwecken und gleichzeitig Gewinnmodelle aufrechtzuerhalten.
Diese Skepsis wird durch eine kürzlich durchgeführte unabhängige Bewertung der Sicherheitsfunktionen für Teenager-Konten von Instagram bestärkt, die Folgendes ergab:
– 64 % der aufgeführten Sicherheitsfunktionen waren entweder unwirksam oder nicht mehr verfügbar.
– Nur 17 % der Funktionen funktionierten genau wie beschrieben.
„Kündigen Sie eine neue Sicherheitsfunktion an. Generieren Sie Tausende von Presseartikeln. Bieten Sie Eltern den Anschein von Kontrolle.“ — Kelly Stonelake, Meta-Whistleblowerin
Fazit
Meta versucht, die Bedenken der Eltern zu zerstreuen, indem es durch kategorisierte Erkenntnisse Transparenz über die KI-Nutzung bietet. Da jedoch aktuelle Gerichtsurteile und unabhängige Studien die Wirksamkeit bestehender Sicherheitstools in Frage stellen, bleibt der tatsächliche Einfluss dieser neuen Funktionen auf die Sicherheit von Jugendlichen unbewiesen.
