Irrtum des Chatbots führt zu Rechtsstreit bei Air Canada

Kategorien:
No items found.
Freigegeben:

Die kanadische Fluggesellschaft Air Canada sah sich kürzlich mit einem ungewöhnlichen Fall konfrontiert: Ein Chatbot des Unternehmens hatte einem Kunden irrtümlich eine Rückerstattung versprochen, die nach den Unternehmensrichtlinien eigentlich nicht gewährt werden durfte. Dieser Vorfall führte zu einem aufsehenerregenden Rechtsstreit, der grundlegende Fragen zur Verantwortlichkeit künstlicher Intelligenz aufwarf und nun mit einem Urteil gegen das Unternehmen endete.

Nach dem Tod seiner Großmutter hatte ein Kunde bei Air Canada kurzfristig ein Flugticket gebucht und sich beim Chatbot der Fluggesellschaft nach möglichen Preisnachlässen im Falle eines Trauerfalls erkundigt. Solche Ermäßigungen, bekannt als "Bereavement fares", werden von einigen Fluggesellschaften unter bestimmten Bedingungen angeboten. Air Canadas Richtlinien sehen vor, dass ein solches ermäßigtes Ticket vor dem Abflug gebucht werden muss. Der Chatbot jedoch riet dem Kunden, ein Ticket zum Normalpreis zu kaufen und sich innerhalb von 90 Tagen nach dem Kauf für eine Rückerstattung an das Unternehmen zu wenden.

Als der Kunde der Empfehlung des Chatbots folgte und nach dem Flug den Nachlass beantragte, verweigerte Air Canada die Zahlung. Die Fluggesellschaft argumentierte, dass sie nicht für fehlerhafte Informationen haftbar gemacht werden könne, die von einem ihrer Agenten, einschließlich des Chatbots, bereitgestellt werden. Mit dieser Argumentation wurde angedeutet, dass der Chatbot als eine separate juristische Person angesehen werden könne, die für ihre eigenen Handlungen verantwortlich ist.

Dieser Darstellung folgte das Gericht jedoch nicht. Es stellte klar, dass Air Canada für alle Informationen auf seiner Website verantwortlich sei, unabhängig davon, ob sie von einer statischen Seite oder einem Chatbot stammen. Die Tatsache, dass der Chatbot eine interaktive Komponente hat, ändere nichts daran, dass er Teil des Informationsangebots der Website ist.

Der Rechtsstreit wirft ein Schlaglicht auf die juristischen und ethischen Herausforderungen, die mit dem Einsatz von KI-Systemen einhergehen. Insbesondere stellt sich die Frage, wer haftet, wenn eine künstliche Intelligenz fehlerhafte Entscheidungen trifft oder falsche Informationen liefert. Der Fall zeigt, dass Unternehmen die Pflicht haben, sicherzustellen, dass ihre KI-Systeme zuverlässige und korrekte Informationen bereitstellen.

Letztendlich entschied das Gericht zugunsten des Kunden, und Air Canada wurde dazu verurteilt, dem Kunden die Differenz zwischen dem bezahlten Vollpreis und dem ermäßigten Preis, der durch den "Bereavement fare" gewährt worden wäre, zu erstatten. Der Kunde erhielt eine Zahlung von 812 Kanadischen Dollar, was etwa 559 Euro entspricht.

Der Fall von Air Canada zeigt, wie wichtig es ist, dass Unternehmen die Funktionsweise und die Auswirkungen ihrer KI-Systeme genau verstehen und kontrollieren. Es verdeutlicht auch, dass die rechtlichen Rahmenbedingungen für den Einsatz von KI noch weiterentwickelt werden müssen, um Klarheit darüber zu schaffen, wie mit Fehlern und den daraus resultierenden Konsequenzen umgegangen werden soll.

Der Vorfall bei Air Canada ist nicht nur ein Beispiel dafür, wie KI-Systeme zu unerwarteten Problemen führen können, sondern auch ein Beweis für die Notwendigkeit, KI-Systeme regelmäßig zu überprüfen und zu aktualisieren, um sicherzustellen, dass sie korrekt und im Einklang mit den geltenden Richtlinien arbeiten.

Quellen:
- Edmonton Journal
- Civil Resolution Tribunal (SC-2023-005609)
- Heise Online
- Notebookcheck.com
- Airliners.de
- Spiegel Online

Was bedeutet das?
No items found.