Im Intercept gibt es einen sehr interessanten Artikel, warum eine IT-gestützte Suche nach Terroristen wenig erfolgversprechend ist. Allerdings lernte ich gerade aus dem Artikel auch noch etwas komplett anderes:
The briefing suggested that the algorithm Facebook uses to spot and prevent possible suicides might be a helpful model for a technology to locate terrorists, asking: “Are there other areas where online providers have used technology to identify harmful content and remove it? … Something like Facebook’s suicide process flow?”
Also Facebook leitet aus dem Verhalten seiner Nutzer ab ob sie selbstmordgefährdet sind?
Diese Technik kann also mit 65% Wahrscheinlichkeit ermitteln, ob jemand sich das Leben nehmen möchte. Und natürlich kann man sagen, dass das helfen könnte Menschen davor zu bewahren sich umzubringen. Man kann allerdings auch die Frage stellen ob Facebook in irgendeiner Form das moralische Recht hat, eine Analyse der psychischen Verfassung seiner Kunden vorzunehmen. Oder anders ausgedrückt: bei einer so niedrigen Wahrscheinlichkeit kommt es zwangsläufig zu False-Positive-Meldungen – was das für Folgen haben kann, kann man sich vorstellen.
Ebenso kann man sich vorstellen, welche Gruppen Interesse an solchen Daten hätten: Versicherungen, Arbeitgeber, …
Und ich stelle mal die Vermutung an das den wenigsten Facebook-Nutzern klar ist, dass im Hintergrund Software darüber entscheidet in welcher mentalen Verfassung sie sich möglicher Weise gerade befinden.
Wow. Krass.