?
Suche momentan nicht verfügbar, bitte versuchen Sie es später noch einmal.
Nehmen Sie bitte mit uns Kontakt auf. Zum Kontaktformular
  • Mit Künstlicher Intelligenz umzugehen lernen

    26.07.2023 | Melanie Frei
    Sophie Hundertmark ist Chatbot-Expertin und hat Florian Nägele und sein Team bei Helvetia bei der Einführung der «neuen» Clara mit ChatGPT begleitet. Im Interview erzählen die beiden von ihrer Faszination für Chatbots und über erste Erkenntnisse des Experiments.
sophie-hundertmark-chatgpt

Mit Künstlicher Intelligenz umzugehen lernen

26.07.2023 | Melanie Frei
sophie-hundertmark-chatgpt
Sophie Hundertmark ist Chatbot-Expertin und hat Florian Nägele und sein Team bei Helvetia bei der Einführung der «neuen» Clara mit ChatGPT begleitet. Im Interview erzählen die beiden von ihrer Faszination für Chatbots und über erste Erkenntnisse des Experiments.

Sophie, du beschäftigst dich mit Chatbots und der Nutzung von Künstlicher Intelligenz. Was fasziniert dich an deinem Forschungsgebiet?

Auf das Thema bin ich gestossen, als es mir für meine Masterarbeit vorgeschlagen wurde. Rasch habe ich gemerkt, dass man mit diesen Technologien Menschen begeistern kann, und bin dabei geblieben. Zudem ist die Entwicklung faszinierend. Wir führen heute Dialoge mit einer KI, die sich absolut natürlich anfühlen.

In welchen Bereichen siehst du das grösste Potenzial für den Einsatz von KI?

Bei der Automatisierung von Kundendialogen stehen grosse Entwicklungsschritte bevor, davon bin ich überzeugt. Bei Versicherungen zudem bei der Aufnahme von Schäden und in der Betrugserkennung. Gleichzeitig gibt es viele Anwendungsmöglichkeiten innerhalb des Unternehmens. Diese gehen in der Diskussion oft vergessen. Beispielsweise liesse sich ein Chatbot nutzen, um Anfragen ans HR zu beantworten. Aber auch in anderen Branchen kann KI viel bewirken. Zum Beispiel kann eine KI basierend auf Krankheitssymptomen Diagnosen stellen. Denn eine KI greift auf mehr Wissen zu, als es einem Arzt oder einer Ärztin je möglich wäre. Dies ist gleichzeitig ein gutes Beispiel für die Gefahr bei der Nutzung: Als Laiin würde ich einer KI meine Diagnose vermutlich einfach glauben; eine Fachperson kann sie einordnen und verifizieren.

Ist das auch bei unserem Experiment eine Gefahr? Dass man Clara alles glaubt?

Klar. Bei den ersten Chatbots erkannten wir als Nutzer:innen die Limitationen ja noch recht schnell. Bei modernen Chatbots wirken die Antworten meist überzeugend.

In einem Interview hast du kürzlich gesagt, dass 80 Prozent der Anfragen in Dienstleistungsbetrieben automatisiert werden können. Wagst du eine Prognose, bis wann es soweit ist?

Wenn es so schnell weitergeht wie bisher, dann in zwei bis drei Jahren. Helvetia hat die Erweiterung bei Clara in einem Monat realisiert. Stellen wir uns also vor, was in zwölf Monaten alles möglich ist. Vielleicht macht Clara in einem Jahr schon Produkteempfehlungen.

Was sagst du jenen, die befürchten, wegen einer KI ihre Stelle zu verlieren?

Aktuell bringt KI in erster Linie Entlastung. Und damit sind ja erst einmal Vorteile verbunden, etwa die kürzeren Wartezeiten für Anrufende. Sicherlich wird sich die Arbeit mittelfristig aber verlagern. Es gibt dann vielleicht Mitarbeitende, die eine KI anstelle eines neuen Kollegen anlernen.

Im März haben Elon Musk und Apple-Mitbegründer Steve Wozniak gemeinsam mit zahlreichen weiteren Expertinnen und Experten einen Forschungsstopp für KI gefordert. Denkst du, es braucht diesen Stopp?

Sie fordern den Stopp, damit die Menschen mit der Entwicklung Schritt halten können. Ich finde eine solche starre Regel schwierig; sicherlich müssen die Fachleute die Gesellschaft aber auf diese Reise mitnehmen. Wir müssen lernen, mit Künstlicher Intelligenz umzugehen. KI ist diesbezüglich wie Wikipedia: eine gute Sache, wenn man die Angaben einordnen kann.

Florian Nägele

Helvetia nutzt ChatGPT

Seit Ende März setzt Helvetia die Technologie von ChatGPT im direkten Kundenkontakt ein: Chatbot Clara beantwortet damit Versicherungs- und Vorsorgefragen. Dabei greift sie auf die Informationen der Helvetia Website zu. Clara gibt also nur Inhalte wieder, die sich auch online finden lassen. Der neue Service ist klar als öffentliches Experiment deklariert: Helvetia erforscht die Möglichkeiten und die Grenzen von ChatGPT gemeinsam mit ihren Kundinnen und Kunden. Wichtig ist auch zu lernen, wie Nutzerinnen und Nutzer den Service einer KI annehmen – schliesslich will Helvetia sich unter anderem über einfache Kundenzugänge von der Konkurrenz abheben.

Welche Fragen werden Clara denn nun gestellt? Florian Nägele, Leiter Conversational & Marketing Automation, erklärt: «Oft wird nach dem Nutzen der unterschiedlichen Produkte und Deckungsbausteine gefragt.» Zudem gebe es eine zweite Kategorie von Usern, die vor allem die Grenzen der Technologie testen wollten: Diese Personen stellen Clara beispielsweise philosophische Fragen oder Rechenaufgaben.

Und auch eine weitere Erkenntnis hat das Chatbot-Team bereits gemacht: Nutzerinnen und Nutzer haben hohe Erwartungen an einen Chatbot, der künstliche Intelligenz nutzt. Florian Nägele sagt: «Die Menschen erwarten von einer KI mehr, als wenn sie bei Google nach Informationen suchen. Sie stellen ihre Fragen so, wie sie es auch bei einer Fachperson tun würden.» Es sei allerdings ganz logisch, dass die Menschen im Umgang mit der Technologie noch experimentieren. «Wir sind uns Rechenmaschinen gewöhnt. ChatGPT ist eine Sprachmaschine und liefert andere Ergebnisse.»

Übrigens: Das ChatGPT-Experiment von Helvetia stösst allseits auf grosses Interesse. Sogar die Tagesschau hat darüber berichtet.

Was ist ChatGPT?

ChatGPT ist ein Sprachmodell (Large Language Model, kurz LLM). Es ist in der Lage, riesige Mengen an Text zu nutzen und basierend darauf Antworten zu generieren. Dahinter steht ein statistisches Modell; dieses nutzt Wahrscheinlichkeitsrechnungen, um die nächsten Wörter in einem Satz vorauszusagen. ChatGPT kann Texte verfassen, die auch von einem Menschen stammen könnten. Weil das Modell allerdings kein echtes Wissen hat, sondern Antworten basierend auf Wahrscheinlichkeiten formuliert, können diese auch falsch sein.