Share on facebook
Share on twitter
Share on linkedin
Share on print

Wenn online Suizidgefahr droht

Share on facebook
Share on twitter
Share on linkedin
Share on print

Das ist ein bezahlter Beitrag mit kommerziellem Charakter. Text und Bild wurden von der Firma Muster AG aus Musterwil zur Verfügung gestellt oder im Auftrag der Muster AG erstellt.

Facebook und die weiteren sozialen Medien beschäftigen nun auch die Ethik. Deutsche Ethikexperten kritisieren ein Programm von Facebook, das mithilfe künstlicher Intelligenz suizidgefährdete Nutzer erkennen will. Sie forderten kürzlich schnelle gesetzliche Regelungen zum Umgang mit sensiblen Gesundheitsdaten. In jedem Fall müsse die Einwilligung der Betroffenen eingeholt werden.

Mitarbeiter werden aktiv

«Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar», erklärte die Vorsitzende des Europäischen Ethikrats, Chris­tiane Woopen.

Das soziale Netzwerk müsse sich an die wissenschaftlichen Standards für Screeningverfahren halten. Dazu gehöre der Nachweis, dass «das Screening mehr nutzt als schadet», so die Medizinethikerin an der Universität Köln.

Seit 2017 benutzt Facebook einen Algorithmus, um Suizide zu verhindern. Er scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizid­risiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote zukommen lassen oder sich an Behörden und Polizei wenden.

Heikle Daten

Die wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig, Anne Riechert, betonte, Daten zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheit müssten besonders geschützt werden. Dies gelte gerade für Daten, die Ausdruck einer Notlage seien und deren Offenlegung den Betroffenen beschämen könnten. «Im Falle einer Einwilligung muss diese informiert und ausdrücklich erfolgen, was in der Praxis schwierig umzusetzen sein dürfte.»

Skeptisch äusserte sich auch der Paderborner Philosoph und Informatiker Tobias Matzner. Er forderte eine «unbedingte Einwilligung der Betroffenen, eine unabhängige Evaluation und öffentlich nachvollzieh­bare Kriterien. Nichts davon ist hier gegeben», sagte er. Laut Medienberichten evalu­iere Face­book nicht einmal, ob die Alarme zutreffend waren.

Beitrag zur Gesundheit?

Matzner betonte, Facebook arbeite mit Algorithmen und suche eine Art allgemeines Muster für Suizidgefahr. Damit könnten versehentlich auch Einträge ermittelt werden, die nichts mit Suizid zu tun hätten. «Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Angehörige und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen.»

Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass «dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten», sagte er.

Die Wissenschaftler äusserten sich zu einem Artikel im US-Wissenschaftsmagazin «Annals of Internal Medicine». Darin betonen zwei US-Wissenschaftler, dass Facebook einerseits einen Beitrag zur öffentlichen Gesundheit liefere und sich deshalb den Auflagen für klinische Forschung unterwerfen müsse. Generell begrüssten sie jedoch innovative Ansätze wie diesen, um Tode durch Suizid zu verhindern.

Eine Facebook-Sprecherin erklärte, die entsprechenden Tools kämen «bislang» in der EU nicht zur Anwendung. «Wir arbeiten seit mehr als zehn Jahren an dem Thema Suizidprävention und werden uns auch weiterhin mit Experten dazu austauschen, was für Menschen in derartigen Notsituationen hilfreich ist», fügte sie hinzu. Jeder Nutzer könne Inhalte melden, wenn jemand mit Suizid oder Selbstverletzung verbundene Mitteilungen poste.

kath.ch

Kommentar (0)

Schreiben Sie einen Kommentar. Stornieren.

Ihre E-Mail Adresse wird nicht veröffentlicht. Die Pflichtfelder sind mit * markiert.

Mehr zum Thema