| Letztes Update:

Neue Autos mit Blackboxes für die Unfallanalyse

Ich bin schon müde Auto gefahren, das will ich gar nicht leugnen. Wer nach einem Kundentermin in der Ferne abends noch nach Hause kommen will, hat manchmal keine Wahl. Bei mir hilft dann zuverlässig eine Energie-Brause.

Vor einer Weile hatte ich einen Leihwagen, einen Golf 7 mit Fahrerüberwachungs...irgendwas. Keine Lust die Technik nachzublättern. Diese Müdigkeitserkennung war so schlecht und nervig, dass ich sie am Liebsten ausgeschaltet hätte. Ich fand nur nicht heraus, wie ich sie abschalten kann, und dem Leihwagen lag kein Handbuch bei. Dieser penetrante Golf warnte mich nach gut einer Stunde Fahrt auf einer schön leeren Autobahn am laufenden Band vor meiner eigenen Müdigkeit. Nur: Ich war alles andere als müde, im Gegenteil - es war vormittags, ich war sehr guter Laune, hatte Musik gehört und freute mich auf die Ankunft zu Hause.

Ich weiß nicht, wie dieser Überwachungscomputer funktioniert, und anhand welcher Kriterien der Fahrer beurteilt wird. Ob mit Kameras, oder durch die Fahrweise oder sonstwas - im VW hat das jedenfalls zuverlässig nicht funktioniert.

Warum texte ich diese Anekdote?

Weil Neuwagen in Zukunft verpflichtend bestimmte Ausstattungsmerkmale haben müssen - und zwar quer durch alle Klassen. Es gibt eine EU-Verordnung, die das vorschreibt. Zu den Systemen, die zur Pflicht werden, gehören u.a.

und andere Funktionen. Finde ich grundsätzlich prima, dass Sicherheit auch in kleinen Fahrzeugen eine größere Rolle spielen soll und man für "kleines" Geld nicht nur eine motorisierte Plastikschachtel auf vier Gummis erhält.

Hinsichtlich potenzieller Datenschutzprobleme stechen zwei geforderte Systeme besonders hervor:

  1. Ein System zur Überwachung des Autos - bzw. zur Aufzeichnung von Vorgängen während eines Unfalls.
  2. Ein System zur Überwachung des Fahrers, speziell Müdigkeit und Konzentration.

Während Punkt 1 aus meiner Sicht noch relativ unkritisch ist, sofern die in der Verordnung ausformulierte Anonymisierung der Daten auch wirklich umgesetzt wird, ist Punkt 2 schon eher gammelfleischig. Ich will mal kurz umreißen, warum.

Stellt euch mal vor, ihr seid in der gleichen Situation wie ich. In einem Auto, dessen "Überwachungssysteme" ähnlich zuverlässig funktionieren wie in dem Golf, der mir seinerzeit zur Verfügung stand. Das Auto beharrt darauf, dass ihr müde oder unkonzentriert seid, obwohl das gar nicht stimmt. Es kommt zu einem Unfall. Die Systeme werden ausgelesen, und es stellt sich laut Blackbox heraus, dass ihr vor dem Unfall angeblich müde oder unkonzentriert gewesen seid.

Was passiert dann wohl? Seid ihr schuldig(er)? Wird die Versicherung Amok laufen und eure Beiträge erhöhen, oder gar kündigen, weil ihr müde gefahren seid? Oder MPU? Punkte in Flensburg? Geldstrafen? Alles unklar derzeit, aber eines kann ich euch versprechen: Software-Systeme machen Fehler können nicht zuverlässig zu den gleichen Schlüssen kommen wie Menschen, weil es ihnen an Kontext, Instinkt und Menschlichkeit mangelt. Die von ihnen gelieferten Daten als Grundlage für die Urteilsfindung zu nutzen, ist (zumindest nach dem gegenwärtigen Stand der Technik) ein Fehler. Und er wird immer und immer wieder gemacht werden. Mir grauts.

Versteht mich nicht falsch: Ich bin kein Gegner von Computern im Auto - im Gegenteil. Sie können Leben retten, unterhalten, unterstützen. Aber auch das genaue Gegenteil. Deshalb muss man genau hinschauen und abwägen. Und vor allem sollte Software nicht dazu genutzt werden, Menschen zu be- oder verurteilen, nicht in der Größenordnung wie hier.