Instagram wprowadza nową funkcję, która powiadomi rodziców, jeśli ich nastoletnie dzieci będą wielokrotnie szukać treści związanych z samobójstwem lub samookaleczeniem. Ogłoszona w czwartek zmiana ma na celu podniesienie świadomości rodziców na temat potencjalnych kryzysów zdrowia psychicznego wśród młodych użytkowników. Oznacza to znaczącą zmianę w podejściu platformy do bezpieczeństwa nastolatków, polegającą na przejściu od prostego blokowania szkodliwych treści do proaktywnego informowania opiekunów.
Jak działa system
System powiadamiania integruje się z istniejącymi funkcjami kontroli rodzicielskiej na Instagramie, które można powiązać z kontami nastolatków dla użytkowników w wieku od 13 do 17 lat. Powtarzające się w krótkim czasie wyszukiwania związane z samobójstwem będą powodować powiadomienia wysyłane do rodziców za pośrednictwem alertów w aplikacji, e-maili, SMS-ów lub WhatsApp, w zależności od zarejestrowanych danych kontaktowych. Instagram twierdzi, że system ma wykrywać frazy wskazujące na rzeczywisty zamiar wyrządzenia sobie krzywdy, w tym określenia promujące lub gloryfikujące samobójstwo.
Platforma zapewni także rodzicom zasoby opracowane przez ekspertów, aby ułatwić rozmowy z nastolatkami na temat ich uczuć samobójczych. Jednakże w przypadku bezpośredniego zagrożenia Instagram będzie nadal powiadamiał służby ratunkowe zgodnie z obowiązującą polityką. Premiera rozpocznie się w USA, Wielkiej Brytanii i Kanadzie w przyszłym tygodniu, a szersze wdrożenie zaplanowano na początek marca. Meta, spółka matka Instagrama, również opracowuje podobne alerty dla swoich funkcji skoncentrowanych na sztucznej inteligencji.
Dlaczego to jest ważne?
Decyzja ta wynika z rosnącej krytyki wpływu mediów społecznościowych na zdrowie psychiczne młodych ludzi. Oświadczenie to jest następstwem niedawnych procesów sądowych przeciwko Meta, w tym pozwów rodziców, których nastoletnie dzieci popełniły samobójstwo po tym, jak były wykorzystywane w Internecie. W zeszłym tygodniu dyrektor generalny Mark Zuckerberg zeznawał na temat rzekomo uzależniającej i szkodliwej natury mediów społecznościowych. Zmiany te podkreślają rosnącą presję na firmy technologiczne, aby zajęły się rzeczywistymi konsekwencjami swoich platform.
Opinie ekspertów
Doktor John Ackerman, ekspert w dziedzinie zapobiegania samobójstwom wśród młodych ludzi, ostrożnie pochwalił tę inicjatywę. „Podoba mi się, że rozszerzają zabezpieczenia… Podoba mi się, że mówią o tym rodzicom” – powiedział. Ackerman podkreślił jednak znaczenie przejrzystości w zakresie konkretnych wyszukiwanych haseł, które powodują alerty, oraz zapewnienia, że system dostosowuje się do zmieniającego się slangu używanego przez nastolatków, aby uniknąć wykrycia.
Przestrzegł także przed „formalizmem”, wzywając Instagram do zapewnienia dostępności i wykonalności powiadomień. Jeśli powiadomienia zostaną zignorowane lub nie przyniosą wymiernego wsparcia, istnieje ryzyko, że funkcja będzie nieskuteczna.
Co stanie się dalej?
Rodzicom, którzy otrzymają ostrzeżenie, eksperci zalecają zachowanie spokoju i uznanie złożoności sytuacji. Należy skupić się na zapewnieniu wsparcia, a nie na próbie natychmiastowego rozwiązania problemu. Czujne nastolatki mogą czuć się sfrustrowane, ale zachęca się je do szukania pomocy u zaufanych dorosłych, jeśli ich rodzice nie wspierają.
Ostatecznie zmiana ta odzwierciedla rosnące uznanie, że platformy technologiczne mają obowiązek chronić dobrostan psychiczny młodych użytkowników. Chociaż skuteczność ostrzeżeń dla rodziców dopiero się okaże, stanowi to ważny krok w kierunku rozwiązania złożonego związku między mediami społecznościowymi a samobójstwami nastolatków.
Jeśli Ty lub ktoś, kogo znasz, ma myśli samobójcze, zwróć się o pomoc: Infolinia kryzysowa 988 (zadzwoń lub napisz), Linia ratunkowa Trans, The Trevor Project lub Linia tekstowa kryzysowa. Zasoby są dostępne, a wsparcie jest w zasięgu ręki.


























