DsiN-Blog

Der IT-Sicher­heitsblog für den Mit­tel­stand

Themen

Tipp des Monats

Machen Sie in nur zehn Minuten den IT-Sicher­heits­check von Deutschland sicher im Netz. Der Test liefert Hand­lungs­emp­feh­lungen, mit denen Sie die eigene IT-Sicher­heitslage ver­bessern können.

News­letter

Um neue Bei­träge regel­mäßig zu erhalten, können Sie hier unseren News­letter abon­nieren:

Algo­rithmen als All­heil­mittel

Ende Sep­tember hat mich eine Meldung auf­ge­schreckt: For­scher arbeiten an einem Algo­rithmus, der Lügen in E‑Mails erkennen soll. Eigentlich ein Hammer …


… aber die Meldung ist ziemlich unter­ge­gangen im Chaos der Yahoo-Daten­­pannen und der Samsung-Pro­­­bleme mit dem Galaxy Note 7.
Spiegel Online berichtete am 28.09.2016, dass bri­tische For­scher an einem Algo­rithmus arbeiten, der E‑Mails auto­ma­ti­siert auf Lügen prüfen und diese auf­decken soll.
Derzeit erreicht der Algo­rithmus eine Erfolgs­quote von 60,02 Prozent.

Dieser Wert macht mich stutzig!

Auch wenn der Algo­rithmus mit dieser Quote  besser als ein geschulter Polizist ist, der bei einer Ver­nehmung mit nur 54-pro­­­zen­­tiger Tref­fer­quote eine Lüge seines Gegen­übers erkennt, sind 60 Prozent nur unwe­sentlich besser als das berühmte Zufalls­prinzip.


Zudem können einer Person in einem Rechts­staat keine Nach­teile ent­stehen, nur weil ein Polizist die „Ver­mutung“ hat, ich lüge. Für wirk­liche Nach­teile braucht es „hand­feste“ Beweise.
Dagegen werden von uns Men­schen Ergeb­nisse aus Tests, ange­geben in Zahlen mit einer Pseu­do­ge­nau­igkeit von zwei Nach­kom­ma­stellen, oft als wahr ange­sehen. Zumindest sind wir sehr geneigt, diesen Tests zu glauben. Bei­spiel: Ein posi­tiver Vater­schaftstest mit einem Ergebnis von 98,56 Prozent spricht Bände.

Große Trag­weite
Wenn wir uns jetzt noch vor Augen halten, dass Algo­rithmen an jeder mög­lichen und unmög­lichen Stelle unseres Alltags ein­setzbar sind, sehe ich schwarz. Die Ver­nehmung durch einen Poli­zisten setzt voraus, dass ich irgendwie in irgend­etwas ver­wi­ckelt bin. Ein Algo­rithmus ist leicht ver­fügbar und kommt über kurz oder lang überall zum Einsatz.
Stellen Sie sich vor, der Chef möchte prüfen, ob die Krank­meldung des Mit­ar­beiters der Wahrheit ent­spricht und bekommt als Ergebnis: „Zu 60,02 Prozent gelogen“.

Wollen wir solche weit­rei­chenden Ent­schei­dungen künftig wirklich Algo­rithmen und damit Com­putern über­lassen? Ich halte das für sehr gefährlich.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Bernd Bosch, DATEV eG

Abschluss der Aus­bildung mit dem zweiten juris­ti­schen Staats­examen 1997. Seitdem in unter­schied­lichen Bereichen bei der DATEV eG in Nürnberg tätig. Prak­tische Erfahrung im IT-Umfeld hat er ins­be­sondere in seiner zehn­jäh­rigen Tätigkeit in der Soft­ware­ent­wicklung gesammelt. Hierbei war er u.a. mit der Ein­richtung und Aktua­li­sierung von Netz­werk­um­ge­bungen in Steu­er­be­rater- und Rechts­an­walts­kanz­leien betraut. Seit fünf Jahren ist Bernd Bosch als externer Daten­schutz­be­rater für Kanz­leien tätig.

 

Koope­ra­ti­ons­partner

Für DATEV sind Daten­schutz und Daten­si­cherheit seit Gründung des Unter­nehmens zen­trale Ele­mente in der Geschäfts­po­litik. Daher enga­giert sich DATEV mit dem Blog für mehr IT-Sicherheit im Mit­tel­stand.