Themen
Tipp des Monats
Machen Sie in nur zehn Minuten den IT-Sicherheitscheck von Deutschland sicher im Netz. Der Test liefert Handlungsempfehlungen, mit denen Sie die eigene IT-Sicherheitslage verbessern können.
Newsletter
Um neue Beiträge regelmäßig zu erhalten, können Sie hier unseren Newsletter abonnieren:
Algorithmen als Allheilmittel
Ende September hat mich eine Meldung aufgeschreckt: Forscher arbeiten an einem Algorithmus, der Lügen in E‑Mails erkennen soll. Eigentlich ein Hammer …
… aber die Meldung ist ziemlich untergegangen im Chaos der Yahoo-Datenpannen und der Samsung-Probleme mit dem Galaxy Note 7.
Spiegel Online berichtete am 28.09.2016, dass britische Forscher an einem Algorithmus arbeiten, der E‑Mails automatisiert auf Lügen prüfen und diese aufdecken soll.
Derzeit erreicht der Algorithmus eine Erfolgsquote von 60,02 Prozent.
Dieser Wert macht mich stutzig!
Auch wenn der Algorithmus mit dieser Quote besser als ein geschulter Polizist ist, der bei einer Vernehmung mit nur 54-prozentiger Trefferquote eine Lüge seines Gegenübers erkennt, sind 60 Prozent nur unwesentlich besser als das berühmte Zufallsprinzip.
Zudem können einer Person in einem Rechtsstaat keine Nachteile entstehen, nur weil ein Polizist die „Vermutung“ hat, ich lüge. Für wirkliche Nachteile braucht es „handfeste“ Beweise.
Dagegen werden von uns Menschen Ergebnisse aus Tests, angegeben in Zahlen mit einer Pseudogenauigkeit von zwei Nachkommastellen, oft als wahr angesehen. Zumindest sind wir sehr geneigt, diesen Tests zu glauben. Beispiel: Ein positiver Vaterschaftstest mit einem Ergebnis von 98,56 Prozent spricht Bände.
Große Tragweite
Wenn wir uns jetzt noch vor Augen halten, dass Algorithmen an jeder möglichen und unmöglichen Stelle unseres Alltags einsetzbar sind, sehe ich schwarz. Die Vernehmung durch einen Polizisten setzt voraus, dass ich irgendwie in irgendetwas verwickelt bin. Ein Algorithmus ist leicht verfügbar und kommt über kurz oder lang überall zum Einsatz.
Stellen Sie sich vor, der Chef möchte prüfen, ob die Krankmeldung des Mitarbeiters der Wahrheit entspricht und bekommt als Ergebnis: „Zu 60,02 Prozent gelogen“.
Wollen wir solche weitreichenden Entscheidungen künftig wirklich Algorithmen und damit Computern überlassen? Ich halte das für sehr gefährlich.

Abschluss der Ausbildung mit dem zweiten juristischen Staatsexamen 1997. Seitdem in unterschiedlichen Bereichen bei der DATEV eG in Nürnberg tätig. Praktische Erfahrung im IT-Umfeld hat er insbesondere in seiner zehnjährigen Tätigkeit in der Softwareentwicklung gesammelt. Hierbei war er u.a. mit der Einrichtung und Aktualisierung von Netzwerkumgebungen in Steuerberater- und Rechtsanwaltskanzleien betraut. Seit fünf Jahren ist Bernd Bosch als externer Datenschutzberater für Kanzleien tätig.

Neueste Kommentare