Chatbots in der Verbraucherfinanzierung
HeimHeim > Nachricht > Chatbots in der Verbraucherfinanzierung

Chatbots in der Verbraucherfinanzierung

Jul 22, 2023

Die Zusammenarbeit mit Kunden zur Lösung eines Problems oder zur Beantwortung einer Frage ist eine wesentliche Funktion von Finanzinstituten – und die Grundlage des Relationship Banking.1 Kunden wenden sich an ihre Finanzinstitute, wenn sie Hilfe zu Finanzprodukten und -dienstleistungen benötigen, und erwarten zu Recht, zeitnahe, unkomplizierte Antworten zu erhalten. unabhängig von den verwendeten Prozessen oder Technologien.

Die folgende vom Consumer Financial Protection Bureau (CFPB) durchgeführte Studie untersucht, wie sich die Einführung fortschrittlicher Technologien, die oft als „künstliche Intelligenz“ vermarktet werden, auf den Finanzmärkten auf das Kundenserviceerlebnis auswirken kann. Der Zweck dieses Berichts besteht darin, zu erläutern, wie Chatbot-Technologien von Finanzinstituten genutzt werden und welche Herausforderungen ihre Kunden damit bewältigen müssen. Die Analyse des CFPB legt Folgendes nahe:

Finanzinstitute nutzen seit langem verschiedene Kanäle, um mit potenziellen und bestehenden Kunden zu interagieren. Bankfilialen wurden eingerichtet, um Kunden einen Ort in der Nähe ihres Wohnortes zu bieten, an dem sie Bankgeschäfte tätigen und Kundenservice und Support erhalten können.4 Die Möglichkeit, Fragen zu stellen und persönlich mit einem Finanzinstitut zu interagieren, ist seit langem ein zentraler Grundsatz des Relationship Banking.

Im Laufe der Zeit haben Finanzinstitute Kontaktzentren (früher Call Center genannt) eingerichtet, damit Kunden einfacher mit ihrem Finanzinstitut interagieren können. Als diese Institutionen wuchsen, wurden viele Contact-Center-Funktionen auf interaktive Sprachantworttechnologie umgestellt, um Anrufe an das entsprechende Personal weiterzuleiten und die Kosten zu senken. Als neue Technologien verfügbar wurden, stellten Finanzinstitute Online-Schnittstellen für den Kundensupport bereit, etwa mobile Anwendungen5 und die Möglichkeit, Nachrichten zu senden und zu empfangen oder über „Live-Chat“. Die Einführung von Chat in der Verbraucherfinanzierung ermöglichte es Kunden, in Echtzeit über eine Chat-Plattform mit Kundendienstmitarbeitern hin und her zu interagieren.

Chatbots, die mithilfe von Computerprogrammen menschenähnliche Antworten simulieren, wurden größtenteils eingeführt, um die Kosten für menschliche Kundendienstmitarbeiter zu senken. Vor kurzem haben Finanzinstitute damit begonnen, mit generativem maschinellen Lernen und anderen zugrunde liegenden Technologien wie neuronalen Netzen und Verarbeitung natürlicher Sprache zu experimentieren, um automatisch Chat-Antworten mithilfe von Text und Stimmen zu erstellen.6 Im Folgenden beschreiben wir die Verwendung von Chatbots für Kundensupportzwecke.

Chatbots sind Computerprogramme, die Elemente menschlicher Konversation nachahmen. Obwohl sie sich in Bezug auf Komplexität, Automatisierung und Funktionen erheblich unterscheiden können, nehmen sie alle die Eingaben eines Benutzers auf und nutzen die Programmierung, um eine Ausgabe zu erzeugen.7

Regelbasierte Chatbots nutzen entweder Entscheidungsbaumlogik oder eine Datenbank mit Schlüsselwörtern, um voreingestellte, begrenzte Antworten auszulösen. Diese Chatbots können dem Benutzer ein festgelegtes Menü mit Optionen zur Auswahl präsentieren oder den Benutzer anhand einer Reihe von Schlüsselwörtern zwischen Optionen navigieren und Antworten anhand vorgegebener Regeln generieren. Der Benutzer ist in der Regel auf vordefinierte mögliche Eingaben beschränkt.8 Beispielsweise kann ein Bank-Chatbot eine festgelegte Anzahl von Optionen auflisten, aus denen der Verbraucher auswählen kann, z. B. die Überprüfung seines Kontostands oder die Durchführung einer Zahlung.

Komplexere Chatbots nutzen zusätzliche Technologien, um Antworten zu generieren. Insbesondere können diese Chatbots so konzipiert sein, dass sie maschinelles Lernen oder Technologien nutzen, die oft als „künstliche Intelligenz“ vermarktet werden, um einen natürlichen Dialog zu simulieren.9 Andere komplexe Chatbots verwenden LLMs, um die Muster zwischen Wörtern in großen Datensätzen zu analysieren und vorherzusagen, welcher Text als Reaktion auf a folgen sollte Frage der Person.10

Domänenspezifische Chatbots sollen Nutzer bei der Bewältigung bestimmter Aufgaben unterstützen und sind in ihrer Funktionalität auf einen Themenbereich wie Gesundheitswesen, Bildung oder Bankwesen beschränkt.11 Unsere Analyse konzentriert sich auf Chatbots in der Finanzbranche.

Chatbots sind in der gesamten Finanzbranche weit verbreitet, unter anderem auf Websites, mobilen Anwendungen und Social-Media-Konten von Banken, Hypothekendienstleistern, Inkassobüros und anderen Finanzunternehmen. Im Jahr 2022 haben über 98 Millionen Nutzer (ungefähr 37 % der US-Bevölkerung) mit dem Chatbot einer Bank interagiert. Diese Zahl soll bis 2026.12 auf 110,9 Millionen Nutzer ansteigen

Bemerkenswert ist, dass alle zehn führenden Geschäftsbanken des Landes Chatbots unterschiedlicher Komplexität verwenden, um mit Kunden in Kontakt zu treten. Diese Chatbots haben manchmal menschliche Namen, nutzen Popup-Funktionen, um das Engagement zu fördern, und können sogar Direktnachrichten auf Social-Media-Konten austauschen. Die Einführung von Chatbots durch Finanzinstitute zur Bereitstellung von Kundenservice kann durch bestimmte Merkmale erklärt werden, wie z. B. ihre Verfügbarkeit rund um die Uhr und sofortige Antworten.13 Die Einführung kann auch durch Kosteneinsparungen für diese Institutionen vorangetrieben werden. Berichte zeigen beispielsweise, dass Chatbots im Vergleich zum Einsatz von Kundenservicemodellen mit menschlichen Agenten Kosteneinsparungen in Höhe von 8 Milliarden US-Dollar pro Jahr ermöglichen, was einer Einsparung von etwa 0,70 US-Dollar pro Kundeninteraktion entspricht.14

Chatbots sind seit fast einem Jahrzehnt Teil des Finanzmarktes und ihre Popularität hat im Laufe der Jahre stetig zugenommen.15 Heutzutage verwendet ein Großteil der Branche zumindest einfache regelbasierte Chatbots entweder mit Entscheidungsbaumlogik oder Datenbanken mit Schlüsselwörtern oder Emojis, die auslösen voreingestellte, begrenzte Antworten. Diese Chatbots werden häufig von proprietären Technologieunternehmen Dritter betrieben. Beispielsweise stellt Kasisto gesprächsorientierte, auf Finanzen ausgerichtete Chatbots für JPMorgan Chase und TD Bank bereit,16 während Interactions Citibank unterstützt.17

Da die Akzeptanz von Chatbots zunimmt, haben einige Institutionen, wie etwa Capital One, ihre eigenen Chatbot-Technologien entwickelt, indem sie Algorithmen anhand echter Kundengespräche und Chatprotokolle trainieren.18 Capital One hat im März 2017 Eno, einen SMS- oder Textnachrichten-Chatbot, auf den Markt gebracht.19 Ähnlich wie bei anderen Banking-Chatbots behauptet Capitol One, dass Eno Kontostände überprüfen, aktuelle Transaktionen und verfügbares Guthaben überprüfen, wissen kann, wann Zahlungen fällig sind, eine Rechnung bezahlen, eine Karte aktivieren, eine Karte sperren oder ersetzen, persönliche Informationen aktualisieren und Kontonummern finden können , und fügen Sie autorisierte Benutzer hinzu.20 Ebenso kündigte die Bank of America 2018 ihren eigenen Chatbot, Erica, an. Bis Oktober 2022 wurde Erica von fast 32 Millionen Kunden in über 1 Milliarde Interaktionen genutzt.21

In jüngerer Zeit hat die Bankenbranche damit begonnen, fortschrittliche Technologien wie generative Chatbots und andere als „künstliche Intelligenz“ vermarktete Technologien einzuführen. Beispielsweise schlug der Chief Information Officer von Goldman Sachs im April 2023 vor, dass die technischen Mitarbeiter der Bank mit der Entwicklung eines eigenen „ChatGS“ oder LLM-Chatbots beginnen sollten, um den Mitarbeitern der Bank dabei zu helfen, Wissen zu speichern und wichtige Kundenfragen bei Bedarf zu beantworten.22

Da der Einsatz der Chatbot-Technologie in der Branche immer weiter voranschreitet, hat sie sich in einigen Fällen bei Datensätzen oder Plattformen auf die größten Technologieunternehmen verlassen. Beispielsweise kündigte Truist im September 2022 seinen digitalen Assistenten an, der auf Amazon Lex basiert, einem Amazon Web Services (AWS)-Produkt.23 Wells Fargo kündigte im Oktober 2022 die Einführung von Fargo an, einem neuen virtuellen Chatbot-Assistenten, der die Google Cloud-Plattform von Alphabet nutzt LLMs zu nutzen, um Kundeneingaben zu verarbeiten und maßgeschneiderte Antworten bereitzustellen.24 Darüber hinaus gab Morgan Stanley bekannt, dass es einen neuen Chatbot testet, der auf den von Microsoft unterstützten GPT 4-Technologien von OpenAI basiert, um Skripte an Finanzberater weiterzuleiten.25

Die Chatbot-Funktionalität beschränkt sich nicht nur auf den Textaustausch. Beispielsweise hat die US Bank im Juni 2020 Smart Assistant über eine mobile App eingeführt. Smart Assistant reagiert in erster Linie auf Sprachansagen und ermöglicht Textanfragen als sekundäre Alternative.26 Wie andere Bank-Chatbots folgt Smart Assistant einer einfachen regelbasierten Funktionalität, die darauf ausgelegt ist alltägliche Bankaufgaben, einschließlich der Ermittlung der Kreditwürdigkeit der Benutzer, der Überweisung von Geld zwischen Konten, der Anfechtung von Transaktionen und der Erleichterung von Zahlungen an andere Benutzer über Zelle.27

Viele Finanzunternehmen haben den Einsatz regelbasierter Chatbots auch auf solche ausgeweitet, die von Social-Media-Plattformen betrieben werden. Unter den Top-10-Banken des Landes ermöglichen die meisten Direktnachrichten und Geschäftschats entweder auf Twitter oder auf Facebook und Instagram von Meta. Der Business Chat von Facebook und Instagram erzeugt unter anderem automatisierte Antworten.28

So wie sich der Kundensupport vor Jahrzehnten von der persönlichen Betreuung zu Remote-Callcentern verlagerte, bewegen sich Sektoren in der gesamten Wirtschaft nun von der menschlichen Betreuung hin zur algorithmischen Betreuung.

Die CFPB sammelt Beschwerden der Öffentlichkeit über Finanzprodukte und -dienstleistungen für Verbraucher. Mit der zunehmenden Nutzung von Chatbots durch Finanzinstitute beschreiben Beschwerden aus der Öffentlichkeit zunehmend Probleme, die Menschen bei der Interaktion mit Chatbots hatten. In einigen Fällen werfen diese Probleme Fragen zur Einhaltung des geltenden Rechts auf. Im Folgenden beschreiben wir einige der Herausforderungen, mit denen Kunden konfrontiert waren und die in den beim CFPB eingereichten Beschwerden detailliert beschrieben werden. Wir untersuchen auch branchenweite Probleme, die durch den Einsatz von Chatbots entstehen.

Der Begriff künstliche Intelligenz oder „KI“ wird verwendet, um darauf hinzuweisen, dass ein Kunde mit einem hochentwickelten System interagiert und dass die Antworten, die es liefert, tatsächlich intelligent und genau sind. Aber „KI“ und automatisierte Technologien gibt es in verschiedenen Formen. Es kann sein, dass es sich tatsächlich um ein sehr rudimentäres System handelt, das nur über die Möglichkeit hinausgeht, grundlegende Informationen abzurufen und sie wiederzugeben oder Kunden auf Richtlinien oder FAQs hinzuweisen. In Fällen, in denen „KI“ die Anfrage der Person nicht versteht oder die Nachricht der Person der Programmierung des Systems widerspricht, sind Chatbots nicht als primäres Mittel zur Kundenbetreuung geeignet.

Menschen verlassen sich darauf, dass Finanzinstitute Streitigkeiten korrekt und zeitnah anerkennen, untersuchen und beilegen. In diesen Kundenerwartungen und gesetzlichen Anforderungen ist verankert, dass Unternehmen genau erkennen, wann ein Kunde Bedenken oder Streitigkeiten vorbringt. Chatbots und stark programmierte Vertreter können zu einem gewissen Maß an Inflexibilität führen, sodass nur bestimmte Wörter oder eine bestimmte Syntax die Erkennung eines Streits auslösen und den Prozess der Streitbeilegung einleiten können. Infolgedessen ist die Fähigkeit von Chatbots und Skripten, einen Streit zu erkennen, möglicherweise eingeschränkt.

Selbst wenn Chatbots erkennen können, dass ein Streit vom Kunden vorgebracht wird, kann es technische Einschränkungen bei ihrer Fähigkeit geben, diesen Streit zu untersuchen und zu lösen. In einigen Fällen bestreiten Kunden falsche Transaktionen oder Informationen. Chatbots, die sich darauf beschränken, einfach dieselben Systeminformationen wiederzugeben, die der Kunde ihnen zu widersprechen versucht, reichen nicht aus. Ein solches Nachplappern trägt nicht dazu bei, Streitigkeiten oder Anfragen sinnvoll zu behandeln.

Eine Person notierte zum Beispiel:29

Darüber hinaus sind regelbasierte Chatbots in der Regel Einbahnstraßen, da sie darauf ausgelegt sind, Kontoinformationen von Benutzern anzunehmen oder zu verarbeiten und nicht auf Anfragen außerhalb des Umfangs ihrer Dateneingaben reagieren können. Ein Chatbot mit einer eingeschränkten Syntax kann sich wie eine Befehlszeilenschnittstelle anfühlen, bei der Kunden den richtigen Ausdruck kennen müssen, um die gesuchten Informationen abzurufen.30 Diese Einschränkung kann besonders problematisch für Personen mit eingeschränkten Englischkenntnissen sein, bei denen die Technologie auf einem basiert Aufgrund der begrenzten Anzahl an Dialekten ist es für Verbraucher mit unterschiedlichen Dialektbedürfnissen schwierig, mithilfe von Chatbots Hilfe von ihrem Finanzinstitut zu erhalten. Obwohl es als bequemer angepriesen wird, kann das Durchlaufen der Abläufe einer simulierten Konversation im Vergleich zum Durchsuchen von Informationen mit klarer und logischer Navigation mühsam und undurchsichtig sein. Beispielsweise beschwerte sich kürzlich eine Person:31

Wie weiter unten näher erläutert wird, antworten Chatbots manchmal falsch.32 Wenn das finanzielle Leben einer Person gefährdet ist, können die Folgen einer falschen Antwort gravierend sein. In Fällen, in denen Finanzinstitute sich auf Chatbots verlassen, um Menschen mit bestimmten Informationen zu versorgen, deren Richtigkeit gesetzlich vorgeschrieben ist, kann eine Unrichtigkeit gegen diese gesetzlichen Verpflichtungen verstoßen.

Insbesondere komplexe Chatbots, die LLMs verwenden, haben manchmal Probleme, genaue und zuverlässige Informationen bereitzustellen. Bei konversationsorientierten, generativen Chatbots, die auf LLMs trainiert wurden, sind die zugrunde liegenden statistischen Methoden nicht gut geeignet, zwischen sachlich korrekten und falschen Daten zu unterscheiden. Daher stützen sich diese Chatbots möglicherweise auf Datensätze, die Fälle von Fehlinformationen oder Desinformationen enthalten, die dann in den von ihnen generierten Inhalten wiederholt werden.

Aktuelle Studien deuten darauf hin, dass Chatbots ungenaue Informationen liefern können. Beispielsweise zeigte eine Vergleichsstudie mit dem von Microsoft unterstützten ChatGPT von OpenAI, dem BlenderBot von Meta und dem LaMDA von Alphabet, dass diese Chatbots häufig falsche Ausgaben generieren, die für einige Benutzer nicht erkennbar sind.33 Aktuelle Tests des Bard-Chatbots von Alphabet ergaben, dass dieser auch fiktive Ausgaben generierte.34 Darüber hinaus hat eine aktuelle Studie gezeigt, dass das von Microsoft unterstützte ChatGPT von OpenAI Vorurteile verstärken und falsche Ergebnisse erzeugen kann.35 Pädagogen haben Chatbots als „nicht gut geeignet für Aufgaben beschrieben, die Logik, Fachwissen oder aktuelle Informationen erfordern“. 36 Dies macht den Einsatz von Konversations-Chatbots, die auf LLMs im Bankwesen geschult sind, zu einer unzuverlässigen Quelle für die Beantwortung von Kundenanfragen.

Trotz der Tatsache, dass Chatbots falsch liegen können, fordern Benutzer Finanzberatung von generativen Chatbots an.37 Eine Umfrage ergab beispielsweise, dass Menschen LLM-Chatbots verwendeten, um Empfehlungen und Ratschläge zu Kreditkarten, Debitkarten, Giro- und Sparkonten sowie Hypothekengebern anzufordern und Privatkredite.38

Durch den Einsatz von Chatbots im Banking soll den Kunden bei ihren Anliegen unmittelbare und zeitnahe Hilfe geboten werden. Wenn ein Chatbot auf einer unzuverlässigen Technologie oder ungenauen Daten basiert oder kaum mehr als ein Tor zu den öffentlichen Richtlinien oder FAQs des Unternehmens darstellt, bleiben Kunden möglicherweise ohne Rückgriff. Für Finanzinstitute ist es von entscheidender Bedeutung, Menschen in Bezug auf ihr Finanzleben zuverlässige und genaue Antworten zu geben.

Automatisierte Antworten eines Chatbots können das Problem eines Kunden möglicherweise nicht lösen und führen ihn stattdessen in kontinuierliche Schleifen aus sich wiederholendem, nicht hilfreichem Jargon oder juristischem Fachjargon, ohne dass ein Umweg zu einem menschlichen Kundendienstmitarbeiter möglich ist. Diese „Schreckensschleifen“ werden häufig dadurch verursacht, dass das Problem eines Kunden außerhalb der begrenzten Möglichkeiten des Chatbots liegt und es den Kunden dadurch unmöglich wird, ein ernsthaftes und möglicherweise notwendiges Gespräch mit ihrem Finanzinstitut zu führen. Wie oben erwähnt, verlassen sich einige Chatbots auf LLMs, um Antworten auf häufige Kundenanfragen zu generieren. Während manche Menschen mithilfe eines Chatbots möglicherweise eine Antwort auf eine bestimmte Anfrage erhalten, kann die Möglichkeit, eine klare und zuverlässige Antwort zu erhalten, durch dieselbe Technologie erschwert werden.

Finanzinstitute behaupten möglicherweise, dass automatisierte Systeme effektiver oder effizienter seien, beispielsweise weil eine Person möglicherweise sofort eine Antwort erhält. Aber automatisierte Antworten können sehr skriptbasiert sein und Kunden lediglich zu langen Richtlinienerklärungen oder FAQs weiterleiten, die möglicherweise, wenn überhaupt, nur sehr wenige hilfreiche Informationen enthalten. Diese Systeme verlagern möglicherweise einfach die Last, die ein Mensch mit der Erklärung solcher Richtlinien oder die Verantwortung sachkundiger Kundendienstmitarbeiter hat, auf einen kostengünstigeren automatisierten Prozess. Infolgedessen haben mehrere Kunden bei der CFPB Beschwerden darüber eingereicht, dass sie mit Chatbots in „Unglücksschleifen“ stecken bleiben. Zum Beispiel:39

Und ein anderer Kunde beschwerte sich:40

Chatbots sind darauf programmiert, bestimmte Aufgaben zu lösen oder Informationen abzurufen, und manchmal können sie die Dienste nicht sinnvoll auf einen Kunden in Not zuschneiden. Wenn Kunden Hilfe in finanziellen Angelegenheiten suchen, fühlen sie sich möglicherweise ängstlich, gestresst, verwirrt oder frustriert. Untersuchungen haben gezeigt, dass sich bei Menschen, die Angst verspüren, ihre Sicht auf Risiken und Entscheidungen ändert.41 Die Einschränkungen eines Chatbots können dazu führen, dass der Kunde nicht auf seine grundlegenden Finanzinformationen zugreifen kann, was seine Frustration erhöht. Eine Umfrage ergab beispielsweise, dass 80 % der Verbraucher, die mit einem Chatbot interagierten, frustrierter waren und 78 % sich mit einem Menschen in Verbindung setzen mussten, nachdem der Chatbot ihre Bedürfnisse nicht erfüllte.42 Ein Verbraucher bemerkte beispielsweise:43

Verbraucher könnten zudem feststellen, dass der Zugang zum menschlichen Kundendienst durch unangemessene Wartezeiten noch weiter blockiert wird. Diese Hindernisse führen nicht nur dazu, dass Verbraucher stecken bleiben und ohne Hilfe sind, sondern beeinträchtigen auch ernsthaft ihre Fähigkeit, ihre Finanzen zu verwalten. Verbraucher haben sich bei der CFPB über folgende Probleme beschwert:44

Darüber hinaus ist die begrenzte Natur dieser Chatbots und der fehlende Zugang zu einem menschlichen Kundendienstmitarbeiter für Kunden möglicherweise nicht erkennbar, wenn sie sich zum ersten Mal für eine Beziehung mit einem bestimmten Finanzinstitut anmelden. Es wird erst sichtbar, wenn Kunden auf ein Problem stoßen und Zeit und Mühe investieren müssen, um es zu lösen. Das verschwendet Zeit, schränkt die Wahlmöglichkeiten der Verbraucher ein und untergräbt Finanzinstitute, die versuchen, im Wettbewerb zu bestehen, indem sie in einen sinnvollen und effektiven Kundensupport investieren.

Der Einsatz fortschrittlicher Technologien anstelle von Menschen kann auch eine bewusste Entscheidung von Unternehmen sein, die ihren Umsatz steigern oder Abschreibungen minimieren möchten. Tatsächlich ist es bei fortgeschrittenen Technologien möglicherweise weniger wahrscheinlich, dass sie auf Gebühren verzichten oder Preisverhandlungen offen sind.45

Auf einer hohen Ebene hängt die Zuverlässigkeit automatisierter Systeme teilweise davon ab, wie ein Unternehmen entschieden hat, Funktionen zu priorisieren und Entwicklungsressourcen zuzuweisen. Um beispielsweise den Umsatz zu steigern, kann es eine höhere Priorität haben, die Fähigkeit automatisierter Systeme zu verbessern, relevante Finanzprodukte auf der Grundlage ihrer Daten für einen bestimmten Kunden zu bewerben. Diese Investition kann auf Kosten von Funktionen gehen, die nicht zu einem Umsatzwachstum führen. Selbst wenn ein automatisiertes System bestimmte Kundenfunktionen gut bewältigen kann, kann es bei der Bewältigung anderer Funktionen möglicherweise schlecht sein. Vereinfacht ausgedrückt können Investitionsentscheidungen dazu führen, dass nicht ausreichend in die Zuverlässigkeit eines Chatbots investiert wird. Eine Person beschwerte sich darüber:46

Darüber hinaus können Chatbots wie jede andere Technologie abstürzen. Wenn ein kaputter Chatbot für einen Kunden die einzige Möglichkeit ist, zeitkritische Hilfe von seinem Finanzinstitut zu erhalten, kann dies dazu führen, dass die Leute kaum oder gar keinen Kundenservice mehr haben. Verbraucherbeschwerden zeigen uns einige der technischen Einschränkungen von Chatbots, zum Beispiel:47

Ganz gleich, ob es sich um ein Programmier- oder Softwareproblem handelt, ein frustrierter Kunde sieht nur einen nicht funktionierenden Chatbot.

Aufgrund ihres automatisierten Charakters werden Chatbots häufig von Kriminellen genutzt, um gefälschte Chatbots mit Identitätsdiebstahl zu erstellen, mit denen Phishing-Angriffe in großem Umfang durchgeführt werden können. Konversationsagenten wirken oft „menschenähnlich“, was möglicherweise dazu führt, dass Benutzer ihre Fähigkeiten überschätzen und mehr Informationen weitergeben, als dies in einem einfachen Webformular der Fall wäre. Es ist dann ziemlich gefährlich, wenn Benutzer persönliche Informationen mit diesen Chatbots teilen, die sich als solche ausgeben. In den letzten Jahren ist es zu einer Zunahme von Betrügereien gekommen, bei denen Nutzer gängiger Messenger-Plattformen darauf abzielen, an ihre persönlichen Daten oder Zahlungsinformationen zu gelangen und sie dann über Geldtransfer-Apps zur Zahlung falscher Gebühren zu verleiten.48

Chatbots nutzen nicht nur Identitätsdiebstahl, um Verbrauchern Schaden zuzufügen, sondern können auch so programmiert werden, dass sie Informationen von einem anderen Chatbot abrufen. In diesen Situationen sind Chatbots möglicherweise so programmiert, dass sie bestimmte Datenschutz- und Sicherheitsprotokolle einhalten, sind aber nicht unbedingt so programmiert, dass sie verdächtige Verhaltensmuster oder Nachahmungsversuche erkennen, und sind möglicherweise nicht in der Lage, Versuche von Betrügern zu erkennen und darauf zu reagieren, um persönliche Informationen abzugreifen oder zu stehlen Identitäten der Menschen.

Im Mai 2022 gaben sich Betrüger beispielsweise als DHL aus – ein Unternehmen für Paketzustellung und Expressversand –, indem sie ihre Opfer per E-Mail an einen Chatbot weiterleiteten, um zusätzliche Versandkosten für den Empfang von Paketen anzufordern. Die Chatbot-Konversation schien vertrauenswürdig, da sie ein Captcha-Formular, E-Mail- und Passwort-Eingabeaufforderungen und sogar ein Foto eines beschädigten Pakets enthielt.49

Finanzinstitute sind verpflichtet, persönlich identifizierbare Informationen sicher aufzubewahren, unabhängig von der verwendeten Technologie.50 Sicherheitsforscher haben eine Vielzahl potenzieller Schwachstellen in Chatbots aufgezeigt, von Unternehmen, die unsichere und veraltete Webübertragungsprotokolle verwenden, bis hin zu verzweifelten und frustrierten Verbrauchern, die persönliche Informationen in Chats eingeben Plattformen, weil sie Hilfe brauchen.51

Um sich beispielsweise als Inhaber eines bestimmten Kontos zu bestätigen, müssen Kunden in der Regel persönliche Daten angeben. Wenn Kunden einem Unternehmen persönliche und finanzielle Informationen zur Verfügung stellen, erwarten sie, dass diese mit Sorgfalt behandelt und vertraulich behandelt werden. Wenn Kunden persönliche Informationen in Chat-Protokolle eingeben, sollten diese Protokolle daher als vertrauliche Verbraucherinformationen betrachtet und vor Sicherheitsverletzungen oder Eindringlingen geschützt werden. Chat-Protokolle stellen einen weiteren Angriffspunkt für Datenschutzangriffe dar, wodurch es schwieriger wird, die Privatsphäre und Sicherheit der persönlichen und finanziellen Daten der Verbraucher vollständig zu schützen. Im Jahr 2018 beauftragte Ticketmaster UK Inbenta Technologies für verschiedene Dienste, darunter eine „Konversations-KI“ auf seiner Zahlungsseite. Hacker zielten auf die Server von Inbenta und fügten bösartigen Code ein, der in den Chatbot eingegebene Informationen aufzeichnete, um Zahlungen von Plattformbenutzern abzuwickeln. Dies führte zu einem Cyberangriff, der 9,4 Millionen betroffene Personen betraf, darunter 60.000 einzelne Zahlungskartendaten.52

Darüber hinaus stützen sich LLM-geschulte Chatbots auf Trainingsdatensätze, die Informationen über Personen enthalten, die möglicherweise illegal erlangt wurden.53 Datenschutzverletzungen können auftreten, wenn Trainingsdaten persönliche Informationen enthalten, die dann direkt vom Modell ohne Verschulden der betroffenen Person offengelegt werden. 54 Einige dieser Risiken scheinen von Finanzinstituten erkannt zu werden, zumindest was den Schutz ihrer internen Informationen betrifft, da mehrere große Banken die Nutzung des von Microsoft unterstützten ChatGPT von OpenAI durch ihre Mitarbeiter eingeschränkt haben.55

Der Umfang der für KI-Systeme wie Chatbots erforderlichen Sicherheitstests ist umfangreich und erfordert sowohl strenge Tests als auch eine gründliche Prüfung aller am Betrieb beteiligten Drittanbieter. Es gibt einfach zu viele Schwachstellen, als dass diesen Systemen sensible Kundendaten ohne entsprechende Schutzmaßnahmen anvertraut werden könnten.

Die Verbraucherbeschwerden, die das CFPB über Chatbots erhalten hat, geben Anlass zur Sorge, ob der Einsatz von Chatbots die Fähigkeit der Institutionen beeinträchtigt, die Sicherheit der Verbraucherdaten zu schützen.56

Da Finanzinstitute weiterhin in Technologien wie Chatbots investieren, um den Kundensupport abzuwickeln und gleichzeitig die Kosten zu senken, sollten sie die Einschränkungen der Technologie berücksichtigen, wie sie in diesem Bericht beschrieben werden. Der Einsatz der Chatbot-Technologie als primäre Art der Interaktion mit Menschen kann für einzelne Finanzinstitute mehrere Risiken mit sich bringen, darunter die folgenden:

Der Kongress verabschiedete Bundesgesetze zur Verbraucherfinanzie, die den Finanzinstituten eine Reihe relevanter Verpflichtungen auferlegen. Diese Verpflichtungen tragen dazu bei, dass Finanzinstitute fair mit ihren Kunden umgehen, indem sie ihnen unter anderem klare Antworten geben.

Finanzinstitute laufen Gefahr, dass, wenn Chatbots Kundenkommunikationen aufnehmen und Antworten geben, die von Chatbots bereitgestellten Informationen möglicherweise nicht korrekt sind, die Technologie möglicherweise nicht erkennt, dass ein Verbraucher sich auf seine Bundesrechte beruft, oder dass sie seine Privatsphäre und Daten nicht schützt.

Wenn Verbraucher Hilfe von ihrem Finanzinstitut benötigen, kann die Situation ernst und dringend sein. Wenn sie in den Schleifen sich wiederholender, wenig hilfreicher Fachsprache stecken bleiben, nicht in der Lage sind, die richtigen Regeln auszulösen, um die benötigte Antwort zu erhalten, und sie keinen Zugang zu einem menschlichen Kundendienstmitarbeiter haben, wird ihr Vertrauen in ihr Finanzinstitut schwinden.

Angesichts der Struktur der Märkte für viele Finanzprodukte und -dienstleistungen für Verbraucher haben die Menschen möglicherweise nur eine begrenzte Verhandlungsmacht, um auf einen besseren Service zu drängen, wenn ein Anbieter für sie ausgewählt wird. Bei der Auswahl eines Hypothekendienstleisters oder einer Kreditauskunftei haben Verbraucher beispielsweise kaum oder gar keine Wahlmöglichkeiten. Selbst in Märkten, in denen Verbraucher eine größere Auswahl haben, konkurrieren Finanzinstitute unter Umständen bei bestimmten Funktionen wie dem Kundenservice möglicherweise nicht intensiv, da Kunden diese Funktionen erst nach der Auswahl des Anbieters nutzen können und daher in gewisser Weise an sie gebunden sind. In solchen Kontexten könnte die Möglichkeit erheblicher Kosteneinsparungen einen starken Anreiz für Institutionen darstellen, den Kundensupport über Chatbots oder andere automatisierte Systeme zu leiten, auch wenn dies das Kundenerlebnis in gewissem Maße beeinträchtigt. Wichtig ist, dass in solchen Märkten, in denen der Wettbewerb fehlt oder geschwächt ist, das Ausmaß der Kosteneinsparungen, die in Form besserer Produkte und Dienstleistungen an die Verbraucher weitergegeben werden, geringer ist.

Finanzinstitute gehen möglicherweise noch weiter und reduzieren oder eliminieren den Zugang zu maßgeschneiderter menschlicher Unterstützung. Diese Reduzierung geht jedoch wahrscheinlich auf Kosten der Servicequalität und des Vertrauens. Dieser Kompromiss gilt insbesondere für Kundensegmente, in denen Chatbot-Interaktionen häufiger fehlschlagen, beispielsweise bei Gruppen mit begrenzter technischer Verfügbarkeit oder begrenzten Englischkenntnissen.

Wenn Chatbots auf den Märkten für Finanzprodukte und -dienstleistungen für Verbraucher versagen, zerstören sie nicht nur das Vertrauen der Kunden, sondern können auch großen Schaden anrichten. Wenn die finanzielle Stabilität einer Person gefährdet ist, steht viel auf dem Spiel. Die Fähigkeit, Streitigkeiten von Kunden zu erkennen und zu bearbeiten, ist eine wesentliche Funktion; Die Streitbeilegung ist manchmal die einzig sinnvolle Möglichkeit, einen Fehler umgehend zu korrigieren, bevor er zu schlechteren Ergebnissen führt. Die Bereitstellung unrichtiger Informationen zu einem Finanzprodukt oder einer Finanzdienstleistung für Verbraucher könnte beispielsweise katastrophale Folgen haben. Dies könnte zur Beurteilung unangemessener Gebühren führen, was wiederum zu schlechteren Ergebnissen führen könnte, wie z. B. einem Zahlungsausfall, der dazu führt, dass sich der Kunde für eine schlechtere Option oder ein schlechteres Verbraucherfinanzprodukt entscheidet, oder zu anderen Schäden.

Daher kann es für eine Person katastrophal sein, einen Streit nicht anzuerkennen oder beizulegen. Dies kann ihr Vertrauen in die Institution untergraben und sie davon abhalten, in Zukunft bei Problemen Hilfe zu suchen, Frustration und Zeitverschwendung hervorrufen und lösbare Probleme ungelöst lassen, was zu noch schlimmeren negativen Ergebnissen führt.

Der Einsatz mangelhafter Chatbots durch Finanzinstitute birgt die Gefahr, ihre Kunden zu verärgern und ihnen erheblichen Schaden zuzufügen, für den sie möglicherweise zur Verantwortung gezogen werden.

Dieser Bericht beleuchtet einige der Herausforderungen, die mit dem Einsatz von Chatbots in Finanzdienstleistungen für Verbraucher verbunden sind. Da Sektoren in der gesamten Wirtschaft weiterhin „künstliche Intelligenz“-Lösungen in den Kundenservice integrieren, wird es wahrscheinlich eine Reihe starker finanzieller Anreize geben, auf den Support zu verzichten, der persönlich, per Telefon oder per Live-Chat angeboten wird.

Mangelhafte Chatbots, die den Zugang zu Live-Unterstützung durch Menschen verhindern, können zu Gesetzesverstößen, vermindertem Service und anderen Schäden führen. Die Abkehr vom Relationship Banking hin zum algorithmischen Banking wird eine Reihe langfristiger Auswirkungen haben, die die CFPB weiterhin genau beobachten wird.

Die CFPB beobachtet den Markt aktiv und erwartet von Institutionen, die Chatbots einsetzen, dass sie dies im Einklang mit den Kunden- und gesetzlichen Verpflichtungen tun. Die CFPB ermutigt außerdem Personen, die aufgrund mangelnder menschlicher Interaktion Schwierigkeiten haben, Antworten auf ihre Fragen zu erhalten, eine Verbraucherbeschwerde bei der CFPB einzureichen.

Verbraucher können Beschwerden über Finanzprodukte und -dienstleistungen einreichen, indem sie die Website der CFPB besuchen oder (855) 411-CFPB (2372) anrufen.

Mitarbeiter von Unternehmen, die der Meinung sind, dass ihr Unternehmen gegen Bundesgesetze zur Verbraucherfinanzpolitik verstoßen hat, werden aufgefordert, Informationen über ihr Wissen an [email protected] zu senden.

Die CFPB überwacht den Einsatz von Technologien, die oft als „Künstliche Intelligenz“ vermarktet werden, um sicherzustellen, dass sie nicht die Rechte der Verbraucher verletzen.

09. DEZ. 2022

18. November 2022

31. Okt. 2022

06. JUNI 2023

01. JUNI 2023

01. JUNI 2023

17. Juli 2020

10. MÄRZ 2020

06. DEZEMBER 2018