Chatbot zákazníkovi kanadské letecké společnosti Air Canada chybně přislíbil levnější letenku. Aerolinky slevu nechtěly přiznat, ale soud nyní rozhodl, že klient byl v právu. Napsal to deník Edmonton Journal. Je to jeden z prvních právních sporů, který se zabýval odpovědností umělé inteligence (AI).
Air Canada tak musí zákazníkovi poskytnout slevu, o které ho jménem firmy informoval chatbot. Soud v provincii Britská Kolumbie nyní letecké společnosti nařídil, aby klientovi z Vancouveru zaplatila 812 kanadských dolarů (13.210 Kč). Umělá inteligence předtím v rozporu s podnikovými pravidly zákazníkovi slíbila, že mu část peněz vrátí, až si zakoupí letenku za plnou cenu.
Chatbot přitom chyboval jen v detailu. Zákazník podle rozsudku požádal společnost o slevu na rezervaci na poslední chvíli z důvodu ztráty blízké osoby – zemřela mu babička. Takové „tarify pro pozůstalé“ nabízí několik leteckých společností, Air Canada je jednou z nich.
Směrnice Air Canada však stanoví, že taková letenka musí být rezervována před odletem. Chatbot naopak zákazníkovi poradil, aby si nejprve rezervoval letenku za běžnou cenu a do 90 dnů se obrátil na společnost s žádostí o vrácení peněz.
Mohlo by vás zajímat
Muž postupoval podle chatbotova návodu, Air Canada ale dodatečnou slevu odmítla. Zajímavá je hlavně argumentace letecké společnosti, která veškerou odpovědnost sváděla na umělou inteligenci. Společnost podle rozsudku tvrdila, „že nemůže být činěna odpovědnou za informace poskytnuté kterýmkoli z jejích agentů, zaměstnanců nebo zástupců – včetně chatbota“. Naznačovala přitom, „že chatbot je samostatným právním subjektem odpovědným za své vlastní jednání.“
Tento argument soud nicméně nepřesvědčil. „Společnosti Air Canada by mělo být jasné, že je odpovědná za všechny informace na svých internetových stránkách,“ uvádí se v soudním rozhodnutí. Nezáleží podle něj na tom, zda informace pocházejí ze statické stránky nebo od chatbota.
Kolem používání umělé inteligence zůstává mnoho otázek. Není například vyřešeno, kdo přebírá odpovědnost v případě, že AI rozhodne nesprávně.