Algorytm został tak napisany, aby rozpoznawał charakterystyczne dla osób o samobójczych myślach frazy oraz pytania innych użytkowników w rodzaju: “wszystko w porządku?” lub “czy mogę jakoś pomóc?” Gdy system wykryje wzorzec, prześle zgłoszenie do moderatorów Facebooka, którzy przyjrzą mu się, a następnie podejmą decyzję, czy skontaktować się z użytkownikiem, proponując mu numer telefonu linii zaufania, czy powiadomić rodzinę i bliskich, czy też zgłosić sprawę lokalnym władzom. Sztuczna inteligencja będzie też używana do ustawiania kolejki zgłoszeń. Algorytm oceni, w jakim stopniu groźna jest dana sytuacja i kim w pierwszej kolejności powinni zająć się moderatorzy. Oczywiście poza działaniem algorytmu, użytkownicy, którzy zauważą coś niepokojącego, będą mogli także sami wysłać zgłoszenie.
W 2009 roku, gdy Facebook nie był jeszcze tak popularnym portalem, zdarzało się, że publikowano tam listy pożegnalne, na które mało kto zwracał uwagę. Głośny był przypadek śmierci 30-letniego Paula Zolezzi’ego. Każdego roku w Stanach Zjednoczonych samobójstwo popełnia ponad 44 tysiące ludzi. Na każde 25 prób odebrania sobie życia, jedna jest skuteczna. | CHIP