Alle 40 Sekunden stirbt eine Person durch Selbstmord. Dies ist die zweithäufigste Todesursache für Menschen zwischen 15 und 29 Jahren. Könnte AI auf Facebook helfen?

Wenn eine Person durch Selbstmord stirbt, fragen sich diejenigen in ihrem Leben oft, was sie getan haben könnten, um dies zu verhindern.

Social-Media-Nutzer bereuen möglicherweise sogar, dass sie etwas Beunruhigendes von der Person gepostet haben, tun jedoch nichts dagegen.

Um zu helfen, hat Facebook angekündigt, den Einsatz von Tools für künstliche Intelligenz KI zu erweitern, um festzustellen, wann jemand auf der Social-Media-Website Gedanken über Selbstmord oder Selbstverletzung äußert.

Vor diesem Monat hat Facebook die Tools nur bei einigen Nutzern in den USA verwendet. Jetzt steht sie den meisten 2 Milliarden Nutzern der Website zur Verfügung, mit Ausnahme derjenigen in der Europäischen Union, die strengere Datenschutz- und Internetgesetze hat.

Mark Zuckerberg, der Chief Executive Officer von Facebook, sagt, dass dieser Einsatz von KI eine positive Entwicklung ist.

Er vor kurzem veröffentlicht auf seiner Facebook-Timeline „Allein im letzten Monat haben uns diese KI-Tools mehr als 100 Mal geholfen, schnell mit Ersthelfern in Kontakt zu treten.“

Wie genau machen die Werkzeuge das?

Facebook enthüllt keine detaillierten Details, aber es scheint, dass das Tool Beiträge oder Videos durchblättert und markiert, wenn es Wörter, Videos und Bilder aufnimmt, die möglicherweise darauf hinweisen, dass eine Person einem Selbstmordrisiko ausgesetzt ist.

Facebook verwendet AI in ähnlicher Weise bereits, um Beiträge zu scannen und zu entfernen, die Kinderpornografie und andere anstößige Inhalte enthalten.

Ein Facebook-Vertreter sagte GesundLinie, dass die Suizidpräventionstools helfen, Inhalte schneller zu erkennen. Die KI hilft auch dabei, die Berichte zu priorisieren und anzugeben, welche Fälle seriöser sind.

Anschließend überprüfen geschulte Mitglieder des Community-Betriebsteams von Facebook den Inhalt und bestimmen die Art der Hilfe, die dem Benutzer bereitgestellt werden soll.

Diese Mitglieder arbeiten rund um die Uhr auf der ganzen Welt und überprüfen sowohl Berichte von KI-Tools als auch von betroffenen Facebook-Nutzern.

Eine Möglichkeit, wie das KI-Tool Suizidtendenzen erkennt, besteht darin, Benutzer mit Fragen wie „Geht es Ihnen gut?“, „Kann ich helfen?“ Und „Benötigen Sie Hilfe?“ Aufzufordern.

Das Community-Betriebsteam von Facebook hat die Aufgabe, Inhalte zu überprüfen, die als gewalttätig oder beunruhigend gemeldet wurden.

Im Mai kündigte Facebook an, dass es hinzufügen würde 3.000 mehr Mitarbeiter im Betriebsteam, das zu diesem Zeitpunkt 4.500 Mitarbeiter hatte.

Laut dem Facebook-Sprecher hilft die Technologie dabei, Inhalte und Videos zu erkennen, die auf Facebook oftmals schneller veröffentlicht werden, als ein Freund oder ein Familienmitglied das Material melden kann.

Wenn diese erkannt werden, wird der Facebook-Benutzer über Messenger mit dem Facebook Live-Chat-Support von Krisen-Support-Organisationen in Kontakt gebracht und kann in Echtzeit chatten.

Bei der Erstellung von KI zur Selbstmordprävention arbeitet Facebook mit Organisationen für psychische Gesundheit zusammen, darunter Save.org , Nationale Rettungsleine für Suizidprävention „1-800-273-TALK 8255“ und Selbstmordprävention an vorderster Front .

Daniel J. Reidenberg, PsyD, Geschäftsführer von Save.org, ist begeistert, dass Facebook Schritte unternimmt, um die Selbstmordpräventionsbemühungen auf bisher nicht gekannte Weise voranzutreiben.

„Wenn wir uns die letzten 50 oder 60 Jahre ansehen - ob es sich um Fortschritte bei der Medikation oder bei der Behandlung von Selbstmord und psychischer Gesundheit handelt -, haben wir aufgrund dieser Dinge keine Reduzierungen oder Selbstmordrückgänge gesehen, also die Idee, dassVielleicht kann Technologie helfen, ist die beste Gelegenheit, die wir derzeit haben, um Leben zu retten “, sagte Reidenberg gegenüber GesundLinie.

Während er feststellt, dass die KI-Tools möglicherweise nicht vollständig entwickelt sind und möglicherweise falsch positive Ergebnisse von gefährdeten Personen darstellen, ist dies eine innovative Intervention zur Suizidprävention, die einige Zeit in Anspruch nehmen kann, um ihre Wirksamkeit zu verstehen.

„Bevor die KI kam, gab es falsche Positive von Leuten, die Facebook Dinge meldeten, die dachten, ein Freund könnte Selbstmord begehen. Die KI beschleunigt nur den Prozess, um einige dieser falschen Positiven zu beseitigen und diejenigen wirklich aufzugreifen, die dies tunsind wirklich gefährdet “, sagte Reidenberg.

Er fügt hinzu, dass Menschen in den sozialen Medien Anzeichen von Selbstmordtendenzen zeigen und dass dies weder eine gute noch eine schlechte Sache ist.

„In den sozialen Medien leben die Menschen heute ihr Leben. Vor Jahren haben sie es im Park oder in der Pause gelebt oder sich gegenseitig Notizen geschrieben, die möglicherweise telefonisch geteilt wurden. Immer mehr Menschen leben ihr LebenSie leben in sozialen Medien und teilen sowohl die glücklichen Momente als auch die Herausforderungen, denen sie gegenüberstehen “, sagte er.

Die Änderung, fügt er hinzu, ermöglicht es Menschen, Hunderte und Hunderte von Menschen gleichzeitig zu erreichen.

Reidenberg sagt, wenn Sie jemanden in sozialen Medien bemerken, der depressiv ist oder einem Risiko für Selbstverletzung ausgesetzt ist, wenden Sie sich mit einer Nachricht, einem Text oder einem Telefonanruf an ihn, wenn Sie enge Freunde sind. Facebook bietet sogar bereits ausgefüllte Texte anum es einfacher zu machen, ein Gespräch zu beginnen.

Wenn Sie sich mit diesem Ansatz nicht wohl fühlen, schlägt Reidenberg vor, die Berichtsfunktion auf Facebook zu verwenden.

"Es ist einfach und schnell zu erledigen. Die Technologie kann dies nicht alleine tun. Wir brauchen Menschen, die einbezogen werden. Etwas nicht zu tun ist das Schlimmste, was passieren kann", sagte er.

Abgesehen von der guten Absicht ist es schwierig, eine Verletzung der Privatsphäre nicht in Betracht zu ziehen.

Charles Lee Mudd Jr., ein Datenschutzanwalt und Principal bei Mudd Law, sagt, dass das Scannen von Facebook nach Schlüsselwörtern nicht als Datenschutzverletzung angesehen werden sollte, wenn dies im Voraus bekannt gegeben wurde.

„Solange Facebook bekannt gibt, dass es den Inhalt überprüft, sehe ich keine wirklichen Datenschutzbedenken“, sagte Mudd zu GesundLinie. „Man sollte verstehen, dass alles, was irgendwo im Internet veröffentlicht wird, auch per E-Mail - privat oder nicht - oder über soziale MedienFinden Sie den Weg zu unbeabsichtigten Empfängern. Zumindest wenn Facebook uns mitteilt, dass es Roboter gibt, die unsere E-Mails lesen - oder zumindest nach Schlüsselwörtern oder Phrasen suchen - können wir unser Verhalten anpassen, falls dies erforderlich sein sollte. “

Auch wenn Facebook rechtlich klar ist, ob es ethisch handelt, steht zur Debatte.

Keshav Malani, Mitbegründer von Powr of You, einem Unternehmen, das Menschen dabei hilft, mit ihrer digitalen Präsenz Geld zu verdienen, sagt, unabhängig von den Absichten von Facebook sollte jeder frei entscheiden können, wie seine persönlichen Daten verwendet werden.

„Oder es ist ein schlüpfriger Anstieg der Verwendung von persönlichen Informationen, die wir auf Plattformen wie Facebook teilen, als„ gut “oder„ schlecht “. Außerdem reichen Absichten nicht aus, da Verzerrungen in Daten zu Ungültigkeit führen könnenoder schädliche Behauptungen, die nur aus einer grundlegenden historischen Korrelationsanalyse stammen “, sagte Malani gegenüber GesundLinie.

Er fügt hinzu, dass AI nur so gut ist wie die Daten, die es als Eingabe empfängt.

„Einzelne Plattformen wie Facebook, die davon ausgehen, dass sie Sie gut genug kennen, um Rückschlüsse auf Ihr Wohlbefinden zu ziehen, wären naiv. Facebook oder andere Medien in dieser Angelegenheit decken nur einen kleinen Teil unseres Lebens ab und oftMalen Sie ein Bild, das wir teilen möchten. Daher sollten Schlussfolgerungen aus einer derart begrenzten und möglicherweise voreingenommenen Datenquelle mit äußerster Vorsicht gezogen werden “, sagte er.

Trotzdem sagt Reidenberg, dass die Leute keine Angst vor Facebook haben sollten, wenn sie KI verwenden.

„Dies ist nicht Facebook, das Menschen verfolgt oder in das Geschäft von Menschen einsteigt“, sagte er. „Es nutzt Technologie und Menschen, um Menschenleben zu retten“, sagte er. „Vertrauen Sie mir, wenn Sie einen geliebten Menschen in einer Krise haben, Siemöchte, dass alles für sie getan wird, egal ob Sie in einer Notaufnahme oder online sind. “

Tatsächlich hofft er, dass mehr Technologie in Menschen in der Krise eingreifen kann.

"Wenn sich jemand in einer Krise befindet, gehen Optionen und Alternativen von ihnen weg. Sie konzentrieren sich sehr auf das, was in diesem Moment passiert, und sie verfügen nicht über die notwendigen Werkzeuge, um sie durchzuhalten", sagte er.

Immer wenn Technologie dazu beitragen kann, Menschen mehr Optionen zu bieten, sagt Reidenberg, je weniger sie sich in einer Krise befinden. Er würde gerne sehen, dass Technologie mehr Möglichkeiten schafft, gefährdete Personen zu identifizieren, bevor sie überhaupt einem Risiko für beispielsweise Depressionen ausgesetzt sind.

Zum Beispiel sagt er, wenn wir wissen, dass wir mit zunehmender Depression weniger interagieren, mehr isolieren, mehr zurückziehen, weniger Energie haben und anders sprechen und schreiben, dann könnte die Programmiertechnologie, um diese Änderungen zu bemerken, von Vorteil sein.

„Nehmen wir an, Sie sind ein normales Poster auf Facebook, aber dann werden Sie im Leben depressiver und Ihre Aktivitäten nehmen langsam ab. Dann veröffentlichen Sie auf Instagram Bilder von jemandem, der sehr traurig oder an einem düsteren Tag draußen istWir können Technologie dazu bringen, anhand Ihres Online-Verhaltens zu erfassen, was mit Ihnen in Ihrem Leben passiert. Wir könnten Ihnen Dinge wie Ressourcen oder Unterstützung geben und vielleicht können wir das ändern “, sagte Reidenberg.

Zuckerberg teilte ein ähnliches Gefühl in seinem Beitrag und spielte auf zukünftige Pläne an, KI auf andere Weise einzusetzen.

„Wir können noch viel mehr tun, um dies weiter zu verbessern“, schrieb er. „In Zukunft wird die KI in der Lage sein, die subtilen Nuancen der Sprache besser zu verstehen und auch andere Probleme als den Selbstmord zu identifizieren, einschließlich des schnellen Erkennens weiterer Arten von Mobbing und Hass. “