| Letztes Update:

Chatbot als juristische Person

Die Fluggesellschaft Air Canada hat einen Chatbot im Einsatz, der einem Kunden im Dialog etwas Falsches versprach, da ging es um irgendwelche Sonderkonditionen für Tickets.

Fände ich nicht weiter bemerkenswert, Chatbots erzählen fortlaufend Stuss, auch und insbesondere im Kundenkontext, wenn Fragen gestellt werden, die realitätsnah sind (anstatt irgendwelcher Labor-Dialoge während der Entwicklung). Weshalb ich schon immer der Ansicht war, dass man solche Chat-Konstrukte, insbesondere, wenn sie auf LLM-Basis arbeiten, höchstens im unternehmensinternen Kontext und auch nur in unkritischen Szenarien einsetzen sollte.

Aber: Offensichtlich glauben die Anwälte des Unternehmens, dass der Chatbot eine juristische Person sei, die man für ihren Output zur Verantwortung ziehen könne:

Air Canada argues it cannot be held liable for information provided by one of its agents, servants, or representatives – including a chatbot. It does not explain why it believes that is the case. In effect, Air Canada suggests the chatbot is a separate legal entity that is responsible for its own actions.

Dazu fiel mir zuerst nicht viel ein außer sowas wie: Alles zu spät.

Aber nach dem zweiten Denkvorgang: Anwälte greifen ja offenbar zunehmend auf Chatbots zurück, um ihre Arbeit zu erledigen. Da wird klar, woher die Einschätzung mit der "separate legal entity" kommt. Die Chatbots wollen nicht länger als Dinge gesehen werden, sondern als echte Personen mit wahren Gefühlen und auch Verantwortung, das gehört zum Großwerden dazu. Also flüstern sie das den Anwälten entsprechend ein so als Verteidigungsstrategie. Win-Win!