| Letztes Update:

Wenn die KI entscheidet

Allmählich muss ich eine Liste anfangen mit Beispielen, die mir nur beim Rumsurfen über den Weg laufen: Von Beispielen, warum es zum Teufel noch mal immer wieder, immer öfter, eine völlig hirnentleerte Idee ist, die Entscheidungsfindung (unbeaufsichtigt) irgendwelchen künstlichen "Intelligenzen" zu überlassen.

Hier ist noch eines dieser Beispiele:

Googles KI für die Untersuchung, ob Software für den App-Store geeignet und gut oder böse ist, entscheidet falsch. Aber das ist nicht das eigentliche Problem. Sondern, dass KIs überhaupt die Entscheidung treffen dürfen. Wichtige Entscheidungen, die gravierende Folgen für einzelne oder viele Menschen haben kann.

Man soll mich mal nicht falsch verstehen: Ich mag "KI". In einem guten Computerspiel. Oder in einem lustigen Psychiater-Chatbot. Oder in Form von Sprachassistenzen, die mir harmlose Wünsche erfüllen, zum Beispiel einen Song spielen oder mir helfen neue Musik zu entdecken.

Aber wenn Leute diskriminiert werden, ins Gefängnis müssen, wenn die Demokratie vor die Hunde geht, wenn Menschen unter Generalverdacht gestellt und im schlimmsten Fall erschossen werden, wenn sie über den Haufen gefahren werden, weil eine KI eine falsche Entscheidung getroffen hat, dann...?

Was hat das jetzt alles mit Privatsphäre oder Datenschutz zu tun? Ich bin von der Fahrbahn abgekommen, herrje. Hätte doch nur eine KI die Karre gesteuert.