image

Air Canada moet klant vergoeden na misleiding door chatbot

maandag 19 februari 2024, 12:04 door Redactie, 13 reacties

Air Canada moet een klant vergoeden nadat die door de chatbot van de luchtvaartmaatschappij was misleid. De klant wilde wegens het overlijden van zijn oma een ticket boeken en werd daarbij geholpen door een chatbot. Die vertelde hem dat Air Canada kortingen geeft aan reizigers die wegens een tragedie een last minute vlucht willen boeken. De chatbot stelde dat de klant negentig dagen de tijd had om zijn korting aan te vragen.

Na zijn vlucht deed de klant een verzoek om de korting, maar de luchtvaartmaatschappij liet weten dat die niet van toepassing is op al uitgevoerde vluchten, zoals op de website staat vermeld. Daarop liet de klant screenshots zien van het gesprek met de chatbot. Air Canada erkende dat de chatbot 'misleidende woorden' had gebruikt en het de chatbot zou updaten. De klant klaagde daarop de luchtvaartmaatschappij aan om de korting alsnog te krijgen.

Air Canada stelde dat de chatbot een aparte juridische entiteit is, die voor zijn eigen acties verantwoordelijk is. De rechter oordeelde dat hoewel een chatbot een interactief onderdeel is, die nog steeds onderdeel uitmaakt van de website van Air Canada. "Het zou duidelijk voor Air Canada moeten zijn dat het verantwoordelijk is voor alle informatie op de website. Het maakt niet uit of deze informatie afkomstig is van een statische pagina of een chatbot", aldus de rechter. Die veroordeelde de luchtvaartmaatschappij tot het betalen van een schadevergoeding van 812 Canadese dollars.

Reacties (13)
19-02-2024, 12:09 door MathFox
De enig logische uitspraak... Als je een bot inzet dan ben je aansprakelijk voor de acties van die bot.
19-02-2024, 13:08 door Anoniem
Air Canada stelde dat de chatbot een aparte juridische entiteit is, die voor zijn eigen acties verantwoordelijk is.

Ehh, wat zegt U? een AI chatbot die voor zijn eigen acties verantwoordelijk is? Dat zou wel de meest ideale manier zijn van verantwoordelijkheid afschuiven: "ik heb het niet gezegd, geen van mijn medewerkers heeft het gezegd, maar een aparte juridische entiteit waar ik geen verantwoordelijkheid voor heb..."

Als het een medewerker was, in dienst van Air Canada, dan zou Air Canada toch ook nog steeds verantwoordelijk zijn voor de uitspraken van die medewerker?
19-02-2024, 13:39 door Anoniem
Air Canada stelde dat de chatbot een aparte juridische entiteit is, die voor zijn eigen acties verantwoordelijk is.
Nou, dan moet Air Canada de schade maar op die chatbot verhalen.

Wie weet heeft Air Canada in zoverre een punt dat ze die chatbot niet in eigen beheer hebben maar als dienst inkopen bij een ander bedrijf, maar dan is het nog steeds zo dat Air Canada daarvoor gekozen heeft en verantwoordelijk is tegenover de klant, en zelf maar met dat andere bedrijf uit moet vechten of die de schade moet betalen.
19-02-2024, 13:53 door Anoniem
Door MathFox: De enig logische uitspraak... Als je een bot inzet dan ben je aansprakelijk voor de acties van die bot.

Bijna wel. De constructie dat de een eigen juridische entitteit is, is nogal zot.

Maar (in elk geval in NL) is een leverancier wel beschermd tegen "overduidelijke fouten" en niet gehouden aan een 'onmogelijk lage prijs' , ook als die op hun website of folder stond.
Gevallen met de komma één of twee plaatsen verkeerd, en een dikke TV voor 9.99 euro ofzo zijn bij de rechter in het voordeel van de winkelier beslist.

Voor het geval hier (korting voor boeken of achteraf) lijkt me dat niet "overduidelijk genoeg" , maar bot danwel 'typefout' is niet per definitie 100% bindend, iig in de NL juridische context.
19-02-2024, 13:57 door Bitje-scheef
Volkomen juiste uitspraak ! Chatbot prima, maar dan ook de juiste informatie.
19-02-2024, 15:34 door Anoniem
Door Anoniem:
Air Canada stelde dat de chatbot een aparte juridische entiteit is, die voor zijn eigen acties verantwoordelijk is.

Ehh, wat zegt U? een AI chatbot die voor zijn eigen acties verantwoordelijk is? Dat zou wel de meest ideale manier zijn van verantwoordelijkheid afschuiven: "ik heb het niet gezegd, geen van mijn medewerkers heeft het gezegd, maar een aparte juridische entiteit waar ik geen verantwoordelijkheid voor heb..."

Als het een medewerker was, in dienst van Air Canada, dan zou Air Canada toch ook nog steeds verantwoordelijk zijn voor de uitspraken van die medewerker?
Wordt nog leuk straks heeft de chatbot recht op vergoeding bij uit dienst gaan hahahah
Is de chatbot ook ondervraagd over de gang van zaken en heeft deze een eigen advocaat beschikbaar gekregen?

Als dat serieus een door advocaten bureau getoetsde reactie was vanuit Air Canada dan mogen ze mij betreft die advocaten ook wel vervangen met bots.
19-02-2024, 16:28 door Anoniem
Door Anoniem:
Air Canada stelde dat de chatbot een aparte juridische entiteit is, die voor zijn eigen acties verantwoordelijk is.

Ehh, wat zegt U? een AI chatbot die voor zijn eigen acties verantwoordelijk is? Dat zou wel de meest ideale manier zijn van verantwoordelijkheid afschuiven: "ik heb het niet gezegd, geen van mijn medewerkers heeft het gezegd, maar een aparte juridische entiteit waar ik geen verantwoordelijkheid voor heb..."

Als het een medewerker was, in dienst van Air Canada, dan zou Air Canada toch ook nog steeds verantwoordelijk zijn voor de uitspraken van die medewerker?

Nee, want die zullen ze ook wel in een apart juridische entiteit gezet hebben.
100 medewerkers, 100 entiteiten. Maakt een medewerker een fout, is hij/zij aanspprakelijk. Niet Air Canada.
En zo kennen we er nog wel een paar.
Gladjanussen. En enige menselijkheid kennen ze bij dat bedrijf ook al niet.
Ik zou die man rechtreeks uit de bonussen van de directie betalen.
19-02-2024, 16:51 door Briolet
Door MathFox: De enig logische uitspraak... Als je een bot inzet dan ben je aansprakelijk voor de acties van die bot.

Precies. Het zou wat zijn als je als bedrijf al je klantcontacten aan een callcenter uitbesteed en dan niet meer verantwoordelijk bent voor alles wat er mis gaat.

Het enige wat Air Canada kan doen is de schade nu op de beheerder van de chatbot af te schuiven.
19-02-2024, 17:51 door Anoniem
Door Briolet:
Door MathFox: De enig logische uitspraak... Als je een bot inzet dan ben je aansprakelijk voor de acties van die bot.

Precies. Het zou wat zijn als je als bedrijf al je klantcontacten aan een callcenter uitbesteed en dan niet meer verantwoordelijk bent voor alles wat er mis gaat.

Het enige wat Air Canada kan doen is de schade nu op de beheerder van de chatbot af te schuiven.

Maar die beheerder heeft de chatbot natuurlijk ook in een aparte juridische entiteit gestopt (een uitgekleedde BV of eenmanszaak of iets dergelijks), om zelf niet aansprakelijk te hoeven zijn.
Bij schade wordt de chatbot failliet verklaard.

En dan kan iedereen naar zijn geld fluiten.

... .... Behalve de chatbot. Want die zal er wel voor gezorgd hebben, dat al het geld dat klanten door zijn "misleiding" misgelopen hebben, op zijn eigen zwitserse rekening terecht gekomen is. (Buiten medeweten van zijn beheerder om, natuurlijk)

0:-)
20-02-2024, 00:17 door Anoniem
Door Anoniem:
Door Briolet:
Door MathFox: De enig logische uitspraak... Als je een bot inzet dan ben je aansprakelijk voor de acties van die bot.

Precies. Het zou wat zijn als je als bedrijf al je klantcontacten aan een callcenter uitbesteed en dan niet meer verantwoordelijk bent voor alles wat er mis gaat.

Het enige wat Air Canada kan doen is de schade nu op de beheerder van de chatbot af te schuiven.

Maar die beheerder heeft de chatbot natuurlijk ook in een aparte juridische entiteit gestopt (een uitgekleedde BV of eenmanszaak of iets dergelijks), om zelf niet aansprakelijk te hoeven zijn.
Bij schade wordt de chatbot failliet verklaard.

En dan kan iedereen naar zijn geld fluiten.

... .... Behalve de chatbot. Want die zal er wel voor gezorgd hebben, dat al het geld dat klanten door zijn "misleiding" misgelopen hebben, op zijn eigen zwitserse rekening terecht gekomen is. (Buiten medeweten van zijn beheerder om, natuurlijk)

0:-)
Als iemand die beheer doet voor dit soort diensten voor meer dan 5 jaar kan ik je vertellen dat de Knowledgebase altijd wordt gestuurd naar de opdrachtgever voor goedkeuring. Je sluit gebruikelijk offtopic reacties af door bepaalde keywords hogere scores te geven en bepaalde keywords express lagere. We hebben bijvoorbeeld een negatieve lijst omtrent muziek, eten, politici en algebra omdat niks in onze sectors hier over gaat. De bot zal daarbij zo snel mogelijk het gesprek terug on topic brengen en als dat niet lukt krijg een supervisor een signaal om te reviewen en desnoods gesprek af te kappen of bezoeker te blocken.

In dit geval had een negatieve score in combinatie met funneling naar een KB item generieke url met standaard reactie waar de informatie staat het kunnen verhelpen. Dit zijn van die zaken dat je zelfs chat-agents (vlees en bloed) niet wil dat ze zelf invulling geven aan de vraag. Simpelweg flaggen voor review opdrachtgever en die kan dan beslissen wat de verdere afwikkeling is.

En de meeste leveranciers van chatdiensten weten dit maar als te goed. De klant zal altijd zeuren over dit soort vragen die beantwoord zijn. Ook al weet je als leverancier dat je antwoord vaak beter was dan als de opdrachtgever hem had beantwoord. En geloof me meeste opdrachtgevers weten niet hoe je online met mensen moet om gaan. Maar het is niet je taak om de opdrachtgever te behoeden van hun eigen fouten enkel voor die van jou. Tenzij je ervoor betaalt wordt.

Ik kan me dan ook niet voorstellen dat de chatbot-leverancer hier iets mee te maken heeft gehad. Eerder dat de klant Air Canada te vaag is geweest over wat ze wouden beschouwen als do not answer topics, keywords

TLDR;
Chatbot leverancier heeft zich vermoedelijk goed ingedekt en aangeleverde instructies door opdrachtgever waren te los of opdrachtgever heeft verzuimd goed naar de aangeleverde data te kijken voor goedkeuring voor invoering.
20-02-2024, 02:54 door Anoniem
Als consument kun je, of hoef je niet te weten dat je met een chatbot te maken had. Een bedrijf kan daar dus ook "de schuld" niet op afschuiven. (Commercieel al helemaal dom, om je klant de schuld van je eigen falend systeem te geven!!! We gaan hier trouwens spoedig nog meer sappige voorbeelden van gretige klantenklotentrappers over lezen met al die luiemensentechnieken, zeker weten.)

Als door of namens de firma je korting is beloofd, die je kunt aantonen, dan hoort die ook verleend te worden.

Het is net als wanneer iets niet helemaal goed geprijsd in de winkel ligt. Dan kan de cheffin van de winkel ook niet "de schuld" afschuiven op een personeelslid dat niet op tijd de prijsjes had veranderd. Maar zal het gewoon moeten verkopen voor de prijs die op of bij het artikel staat. Consumentenrecht.
20-02-2024, 12:53 door Anoniem
Door Anoniem: Als iemand die beheer doet voor dit soort diensten voor meer dan 5 jaar kan ik je vertellen dat de Knowledgebase altijd wordt gestuurd naar de opdrachtgever voor goedkeuring. Je sluit gebruikelijk offtopic reacties af door bepaalde keywords hogere scores te geven en bepaalde keywords express lagere. We hebben bijvoorbeeld een negatieve lijst omtrent muziek, eten, politici en algebra omdat niks in onze sectors hier over gaat. De bot zal daarbij zo snel mogelijk het gesprek terug on topic brengen en als dat niet lukt krijg een supervisor een signaal om te reviewen en desnoods gesprek af te kappen of bezoeker te blocken.

In dit geval had een negatieve score in combinatie met funneling naar een KB item generieke url met standaard reactie waar de informatie staat het kunnen verhelpen. Dit zijn van die zaken dat je zelfs chat-agents (vlees en bloed) niet wil dat ze zelf invulling geven aan de vraag. Simpelweg flaggen voor review opdrachtgever en die kan dan beslissen wat de verdere afwikkeling is.

En de meeste leveranciers van chatdiensten weten dit maar als te goed. De klant zal altijd zeuren over dit soort vragen die beantwoord zijn. Ook al weet je als leverancier dat je antwoord vaak beter was dan als de opdrachtgever hem had beantwoord. En geloof me meeste opdrachtgevers weten niet hoe je online met mensen moet om gaan. Maar het is niet je taak om de opdrachtgever te behoeden van hun eigen fouten enkel voor die van jou. Tenzij je ervoor betaalt wordt.

Ik kan me dan ook niet voorstellen dat de chatbot-leverancer hier iets mee te maken heeft gehad. Eerder dat de klant Air Canada te vaag is geweest over wat ze wouden beschouwen als do not answer topics, keywords

TLDR;
Chatbot leverancier heeft zich vermoedelijk goed ingedekt en aangeleverde instructies door opdrachtgever waren te los of opdrachtgever heeft verzuimd goed naar de aangeleverde data te kijken voor goedkeuring voor invoering.

Jouw reactie illustreet (waarschijnlijk onbedoeld) het grotere probleem. De manier waarop je over klanten praat, heeft niets meer te maken met de klant als mens, ook al gebruik je nog wel een keer het woord "mensen" en de uitdrukking "chat-agents (vlees en bloed)".

Je wilt van te voren "do not answer topics" vastgelegd hebben, die dan ook nog worden gedefinieerd aan de hand van "keywords". Dus als een menselijke klant de pech heeft wat verkeerde "keywords" in de mond te nemen, dan wordt-ie afgekapt. Ondertussen worden er duizenden cursussen "communicatie" gegeven, waarin medewerkers leren hoe ze handig kunnen doen ALSOF ze empathisch communiceren en dan achteraf KUNNEN ZEGGEN dat ze gecommuniceerd hebben.

Die hele mindset is vanaf het begin al fout, als het tenminste de bedoeling is goede service te leveren en vertrouwen op te bouwen. De bedoeling is natuurlijk iets anders, namelijk snel punten scoren en pegels verdienen. Dan krijg je dit soort kwaadaardige "industrie". Bot-leveranciers zijn een soort aasgieren die ook wat mee willen kluiven aan de botjes. In ruil daarvoor bieden ze de opdrachtgevers nagelvijltjes aan als gereedschap om klanten wat sneller "koud" te krijgen.
21-02-2024, 16:59 door Anoniem
Door Anoniem:
Door Anoniem: Als iemand die beheer doet voor dit soort diensten voor meer dan 5 jaar kan ik je vertellen dat de Knowledgebase altijd wordt gestuurd naar de opdrachtgever voor goedkeuring. Je sluit gebruikelijk offtopic reacties af door bepaalde keywords hogere scores te geven en bepaalde keywords express lagere. We hebben bijvoorbeeld een negatieve lijst omtrent muziek, eten, politici en algebra omdat niks in onze sectors hier over gaat. De bot zal daarbij zo snel mogelijk het gesprek terug on topic brengen en als dat niet lukt krijg een supervisor een signaal om te reviewen en desnoods gesprek af te kappen of bezoeker te blocken.

In dit geval had een negatieve score in combinatie met funneling naar een KB item generieke url met standaard reactie waar de informatie staat het kunnen verhelpen. Dit zijn van die zaken dat je zelfs chat-agents (vlees en bloed) niet wil dat ze zelf invulling geven aan de vraag. Simpelweg flaggen voor review opdrachtgever en die kan dan beslissen wat de verdere afwikkeling is.

En de meeste leveranciers van chatdiensten weten dit maar als te goed. De klant zal altijd zeuren over dit soort vragen die beantwoord zijn. Ook al weet je als leverancier dat je antwoord vaak beter was dan als de opdrachtgever hem had beantwoord. En geloof me meeste opdrachtgevers weten niet hoe je online met mensen moet om gaan. Maar het is niet je taak om de opdrachtgever te behoeden van hun eigen fouten enkel voor die van jou. Tenzij je ervoor betaalt wordt.

Ik kan me dan ook niet voorstellen dat de chatbot-leverancer hier iets mee te maken heeft gehad. Eerder dat de klant Air Canada te vaag is geweest over wat ze wouden beschouwen als do not answer topics, keywords

TLDR;
Chatbot leverancier heeft zich vermoedelijk goed ingedekt en aangeleverde instructies door opdrachtgever waren te los of opdrachtgever heeft verzuimd goed naar de aangeleverde data te kijken voor goedkeuring voor invoering.

Jouw reactie illustreet (waarschijnlijk onbedoeld) het grotere probleem. De manier waarop je over klanten praat, heeft niets meer te maken met de klant als mens, ook al gebruik je nog wel een keer het woord "mensen" en de uitdrukking "chat-agents (vlees en bloed)".

Je wilt van te voren "do not answer topics" vastgelegd hebben, die dan ook nog worden gedefinieerd aan de hand van "keywords". Dus als een menselijke klant de pech heeft wat verkeerde "keywords" in de mond te nemen, dan wordt-ie afgekapt. Ondertussen worden er duizenden cursussen "communicatie" gegeven, waarin medewerkers leren hoe ze handig kunnen doen ALSOF ze empathisch communiceren en dan achteraf KUNNEN ZEGGEN dat ze gecommuniceerd hebben.

Die hele mindset is vanaf het begin al fout, als het tenminste de bedoeling is goede service te leveren en vertrouwen op te bouwen. De bedoeling is natuurlijk iets anders, namelijk snel punten scoren en pegels verdienen. Dan krijg je dit soort kwaadaardige "industrie". Bot-leveranciers zijn een soort aasgieren die ook wat mee willen kluiven aan de botjes. In ruil daarvoor bieden ze de opdrachtgevers nagelvijltjes aan als gereedschap om klanten wat sneller "koud" te krijgen.
Nee hoor niks onbedoeld. Ik weet exact hoe het overkomt gewoon als het eerlijke antwoord. Je bent een nummertje je bent een id voor de service en de mens erachter is in meeste zakelijke situaties niet relevant aan de opdracht die we krijgen van een leverancier nog voor de levering van het product.

Als je een bot maakt voor een meubelzaak en de bezoeker komt met vragen over welke pizza hij het beste kan krijgen dan snap je hopelijk ook wel dat dat niet gewenst is.

Je gaat ook niet politiek bespreken met je huisarts je gaat ook niet je kapper vragen stellen over wat je moet doen om een lening te krijgen en hem haar beschouwen als financieel adviseur dus waarom stellen mensen zulke vragen wel als het online chat betreft? Het antwoord is meestal verveling en baldadigheid.

Alles dat je zakelijk vraagt moet in een bepaalde context worden geplaatst en elk antwoord kost geld die je doorberekend. Zie je al een leverancier een doorberekening maken over vragen van studenten met te weinig tijd die gaan vragen om richting aanwijzing naar een bushalte? (ja dat is een werkelijk gebeurd scenario) Nee die filter je en die locaties block je bij herhaling. En blijft niet bij studenten oh zeker niet. We hebben zelfs ambtenaren gehad die de chat probeerde te gebruiken uit verveling niet wetende dat we een partnership hebben met onder andere hun locatie en dus ook directe lijntjes met IT en managers on floor die meteen korte metten maakte met de ongein omdat de rekening direct op hun bord weer kwam.

En ja het gaat om geld het is een business after all je werkt met conversie rates.

De klant van ons bepaald hoe empatisch en hoe open er gecommuniceerd wordt niet wij als leverancier. Als de klant dit soort vragen wel wil prima niet onze beslissing en dan bereken we het gewoon vrolijk door. Maar tot nu toe van de 1000+ bedrijven hebben we er 0,0 die het op prijs stellen. Zelfde gebeurt met omgangs vormen formeel, informeel, aanspreek groeten en noem maar op. Het enige waar we niet van af wijken is als keywords in associatie met geestelijke gezondheid naar voren komen. Dan krijgt de bezoeker verwijzing naar hulpdiensten en gaat de chat naar een supervisor die de bezoeker respectvol kan uitleggen dat we niet getrained zijn in het bieden van dit type ondersteuning en bij vermoeden van direct gevaar contact met instantie om dit verder over te nemen middels een guest access channel.


Maar wil je een diepgaand gesprek voeren dan praat lekker met vrienden, famillie een psycholoog, coach of iemand anders die daar tijd voor vrij wil en kan maken betaald of onbetaald. Daar zijn chatdienst leveranciers niet voor.

Je vergelijking gaat verder niet op een lijk komt niet aan kloppen bij de aaseter om gegeten te worden.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.