Dom Szpital online Samobójstwem a Facebook AI

Samobójstwem a Facebook AI

Spisu treści:

Anonim

Kiedy dana osoba umiera przez samobójstwo, ludzie w swoim życiu często zastanawiają się, co mogli zrobić, aby temu zapobiec.

Użytkownicy mediów społecznościowych mogą nawet żałować, że widzą coś niepokojącego, ale nie robią nic z tym.

ReklamaReklama Próbując pomóc, Facebook ogłosił, że rozszerza swoje zastosowanie narzędzi sztucznej inteligencji (AI), aby określić, kiedy ktoś wyraża myśli o samobójstwie lub samouszkodzeniu na stronie mediów społecznościowych.

Przed tym miesiącem Facebook korzystał tylko z narzędzi niektórych użytkowników w Stanach Zjednoczonych. Teraz jest dostępny dla większości 2 miliardów użytkowników witryny, z wyjątkiem tych w Unii Europejskiej, które mają bardziej rygorystyczne prawo dotyczące prywatności i Internetu.

Mark Zuckerberg, dyrektor generalny Facebooka, mówi, że użycie AI jest pozytywnym zjawiskiem.

Ogłoszenie

Niedawno opublikował na swojej osi czasu na Facebooku, że "W ciągu ostatniego miesiąca, te narzędzia AI pomogły nam połączyć się z osobami reagującymi szybko ponad 100 razy. "

Jak dokładnie narzędzia to robią?

ReklamaReklama Facebook nie ujawnia dogłębnych szczegółów, ale wygląda na to, że narzędzie działa poprzez przeglądanie postów lub filmów wideo i oznaczanie ich podczas odbierania słów, filmów i zdjęć, które mogą wskazywać na osobę. zagrożone samobójstwem.

Facebook już wykorzystuje sztuczną inteligencję w podobnej sprawie, aby skanować i usuwać posty przedstawiające pornografię dziecięcą i inne kontrowersyjne treści.

Przedstawiciel Facebooka powiedział Healthline, że narzędzia do zapobiegania samobójstwom pomagają szybciej wykrywać treści. AI pomaga również nadawać priorytet raportom, wskazując, które przypadki są bardziej serioius.

Następnie wyszkoleni członkowie zespołu społecznościowego Facebooka dokonują przeglądu treści i określają rodzaj pomocy dla użytkownika.

Członkowie ci pracują na całym świecie, przez całą dobę, i przeglądają oba raporty z narzędzi AI oraz od zainteresowanych użytkowników Facebooka.

ReklamaReklama Jednym ze sposobów, w jaki narzędzie AI wykrywa skłonności samobójcze, jest monitowanie użytkowników o pytania typu "Czy wszystko w porządku? " "Czy mogę pomóc? "I" Czy potrzebujesz pomocy? "

Zespół społecznościowy Facebooka ma za zadanie przeglądanie treści zgłoszonych jako brutalne lub niepokojące.

W maju Facebook ogłosił, że doda 3 000 dodatkowych pracowników do zespołu operacyjnego, który zatrudniał 4 500 pracowników.

Reklama Według rzecznika Facebooka, technologia pomaga wykrywać treści i filmy, które ludzie publikują na Facebooku często szybciej niż przyjaciele lub członkowie rodziny mogą zgłosić materiał.

Po wykryciu tego, użytkownik Facebooka jest w kontakcie z obsługą Live Chat na Facebooku z organizacji wsparcia kryzysowego za pośrednictwem Messengera i może czatować w czasie rzeczywistym.

ReklamaReklama

Obrońcy samobójstw na pokładzie

Tworząc AI w celu zapobiegania samobójstwom, Facebook współpracuje z organizacjami zdrowia psychicznego, w tym Save. org, National Suicide Prevention Lifeline "1-800-273-TALK (8255)" oraz Forefront Suicide Prevention.

Daniel J. Reidenberg, PsyD, dyrektor wykonawczy Save. org, mówi, że jest podekscytowany tym, że Facebook robi postępy, aby pomóc w postępach w zapobieganiu samobójstwom w sposób, który wcześniej nie był zrobiony.

"Jeśli spojrzymy przez ostatnie 50 lub 60 lat - niezależnie od tego, czy mówimy o postępach w leczeniu lub leczeniu samobójstwa i zdrowia psychicznego - nie widzieliśmy redukcji ani nie zaobserwowaliśmy upadku samobójców z powodu tych rzeczy, więc pomysł że technologia może pomóc, jest najlepszą okazją, jaką mamy teraz, aby ratować życie "- powiedział Reidenberg Healthline.

Ogłoszenie

Chociaż zauważa, że ​​narzędzia sztucznej inteligencji mogą nie być w pełni zaprojektowane i mogą przedstawiać fałszywe alarmy osób, które są zagrożone, twierdzi, że jest to nowatorska interwencja w zakresie zapobiegania samobójstwom, która może zająć trochę czasu, aby zrozumieć jej skuteczność.

"Zanim pojawiła się AI, pojawiły się fałszywe alarmy od ludzi, którzy zgłaszali rzeczy na Facebooku, którzy uważali przyjaciela za samobójcę. Sztuczna inteligencja tylko przyspiesza proces, aby pomóc wyeliminować niektóre z fałszywych alarmów i naprawdę podnieść tych, którzy są naprawdę zagrożeni "- powiedział Reidenberg.

ReklamaReklama Dodaje, że ludzie wykazują oznaki skłonności samobójczych w mediach społecznościowych i że nie jest to ani dobre, ani złe.

"Media społecznościowe to właśnie tam, gdzie ludzie żyją dzisiaj. Wiele lat temu mieszkali w parku lub w przerwie, lub zapisywali sobie nawzajem notatki, być może udostępniane przez telefon. Ponieważ coraz więcej osób żyje w mediach społecznościowych, dzielą je zarówno szczęśliwe chwile, jak i wyzwania, które napotykają "- powiedział.

Zmiana, dodaje, pozwala ludziom dotrzeć do setek osób naraz.

Reidenberg mówi, że jeśli zauważysz kogoś w mediach społecznościowych, który może cierpieć na depresję lub ryzyko samookaleczenia, skontaktuj się z nim, wysyłając wiadomość, SMS-a lub telefonicznie, jeśli jesteś bliskim znajomym. Facebook oferuje nawet wstępnie wypełnione teksty, aby ułatwić rozpoczęcie rozmowy.

Jeśli nie czujesz się komfortowo z tym podejściem, Reidenberg sugeruje użycie funkcji raportowania na Facebooku.

"Jest to łatwe i szybkie. Technologia nie może zrobić tego sama. Potrzebujemy ludzi do zaangażowania. Nie robienie czegoś to najgorsza możliwa rzecz, "powiedział.

A co z kwestiami prywatności?

Poza dobrą intencją, trudno nie uwzględniać inwazji na prywatność.

Charles Lee Mudd Jr., prawnik ds. Prywatności i dyrektor w Mudd Law, twierdzi, że skanowanie słów kluczowych na Facebooku nie powinno być uznawane za naruszenie prywatności, jeśli zostało ujawnione z wyprzedzeniem.

"Tak długo jak Facebook ujawnia, że ​​przegląda treść, nie widzę prawdziwych obaw o prywatność" - powiedział Mudd Healthline. "Należy zrozumieć, że wszystko publikowane w dowolnym miejscu w Internecie, w tym za pośrednictwem poczty e-mail - prywatnej lub nie - lub mediów społecznościowych, może trafić do niezamierzonych odbiorców.Przynajmniej jeśli Facebook poinformuje nas, że ma roboty czytające naszą pocztę - lub przynajmniej skanuje słowa kluczowe lub wyrażenia - możemy dostosować nasze zachowanie, jeśli będzie to konieczne. "

Podczas gdy prawnie Facebook może być jasne, czy to etyczne postępowanie jest przedmiotem debaty.

Keshav Malani, współzałożyciel Powr of You, firmy, która pomaga ludziom zarabiać na ich cyfrowej obecności, mówi, bez względu na intencje Facebooka, każda osoba powinna mieć swobodę decydowania, w jaki sposób wykorzystywane są jej dane osobowe.

"Albo jest to śliskie nachylenie tego, co jest uważane za" dobre ", a" złe "wykorzystanie danych osobowych, które udostępniamy na platformach takich jak Facebook. Również intencje nie są wystarczające, ponieważ błędy w danych mogą skutkować nieważnymi lub szkodliwymi roszczeniami nawet z podstawowej analizy korelacji historycznej ", powiedział Malani dla Healthline.

Dodaje, że sztuczna inteligencja jest tak dobra, jak dane, które otrzymuje jako dane wejściowe.

"Poszczególne platformy, takie jak Facebook, zakładające, że znają cię na tyle dobrze, by wyciągać wnioski na temat twojego samopoczucia, byłyby naiwne. Facebook, czy jakikolwiek inny punkt w mediach, zajmuje się tylko niewielką częścią naszego życia i często maluje obraz, który udostępniamy, dlatego wyciąganie wniosków z tak ograniczonego i potencjalnie stronniczego źródła danych powinno odbywać się z niezwykłą ostrożnością ". powiedział.

Reidenberg mówi, że ludzie nie powinni się bać Facebooka używając sztucznej inteligencji.

"To nie jest Facebook prześladujący ludzi czy wchodzenie w biznes ludzi," powiedział. "Wykorzystuje technologię i ludzi, aby ratować ludzkie życie" - powiedział. "Zaufaj mi, jeśli masz kogoś bliskiego w kryzysie, chcesz, aby zrobiono dla nich wszystko, niezależnie od tego, czy jesteś w pogotowiu czy w trybie online. "

Ma on nadzieję, że więcej technologii może interweniować z ludźmi w kryzysie.

"Kiedy ktoś jest w kryzysie, opcje i alternatywy znikają z nich. Stają się bardzo skupieni na tym, co dzieje się w tym momencie i nie mają narzędzi niezbędnych do ich przeprowadzenia "- powiedział.

W każdej chwili technologia może dać ludziom więcej możliwości, Reidenberg mówi, że im mniej będą w kryzysie. Chciałby, aby technologia stworzyła więcej sposobów identyfikacji zagrożonych osób, zanim będą zagrożone, powiedzmy, depresją.

Na przykład, mówi, że jeśli wiemy, że w miarę, jak stajemy się bardziej przygnębieni, że mniej wchodzimy w interakcje, izolujemy więcej, wycofujemy się, zużywamy mniej energii, rozmawiamy i piszemy inaczej, wtedy programowanie technologii, aby zauważyć, że te zmiany mogą być korzystne.

"Powiedzmy, że jesteś zwykłym plakatem na Facebooku, ale w życiu masz coraz mniej depresji, a twoja aktywność powoli spada. Potem zaczynasz zamieszczać zdjęcia na Instagramie kogoś bardzo smutnego lub ponurego dnia na dworze. Jeśli uda nam się uzyskać technologię, która pozwoli ci zorientować się, co dzieje się w Twoim życiu w oparciu o twoje zachowanie w Internecie, możemy zacząć udzielać ci takich rzeczy, jak zasoby lub wsparcie, i może uda nam się to zmienić - powiedział Reidenberg.

Zuckerberg podzielał podobne zdanie w swoim poście, nawiązując do przyszłych planów wykorzystania sztucznej inteligencji w inny sposób.

"Możemy zrobić jeszcze więcej, aby to poprawić", napisał. "W przyszłości, sztuczna inteligencja będzie w stanie zrozumieć więcej subtelnych niuansów języka i będzie w stanie zidentyfikować różne problemy poza samobójstwem, w tym szybko dostrzegając więcej rodzajów nękania i nienawiści. "