Ethikexperten kritisieren Facebook
Algorithmus gegen Suizid.
Wir benötigen Ihre Zustimmung um BotTalk anzuzeigen
Unter Umständen sammelt BotTalk personenbezogene Daten für eigene Zwecke und verarbeitet diese in einem Land mit nach EU-Standards nicht ausreichenden Datenschutzniveau.
Durch Klick auf "Akzeptieren" geben Sie Ihre Einwilligung für die Datenübermittlung, die Sie jederzeit über Cookie-Einstellungen widerrufen können.
AkzeptierenMehr Informationen
"Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar", erklärte die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen, in Köln. Das Soziale Netzwerk müsse sich an die wissenschaftlichen Standards für Screeningverfahren halten.
Seit 2017 benutzt Facebook einen Algorithmus, um Suizide zu verhindern. Er scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizid-Risiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote zukommen lassen oder sich an Behörden und Polizei wenden. Die Reaktionen der deutschen Wissenschaftler folgten auf einen Artikel im US-Wissenschaftsmagazin Annals of Internal Medicine. Darin betonen zwei US-Wissenschaftler, dass Facebook einerseits einen Beitrag zur öffentlichen Gesundheit liefere und sich deshalb den Auflagen für klinische Forschung unterwerfen müsse. Generell begrüßten sie jedoch innovative Ansätze wie diesen.
Kommentare
Liebe Leserinnen und Leser,
leider können Artikel, die älter als sechs Monate sind, nicht mehr kommentiert werden.
Die Kommentarfunktion dieses Artikels ist geschlossen.
Viele Grüße von Ihrer BZ