Versprochen von ChatGPT
ChatGPT macht die Runde am Arbeitsplatz. Doch wer kennt Funktionsweise, Fähigkeiten, Nutzen und Risiken gut genug, um eine sichere Entscheidung über den professionellen Einsatz des Sprachmodells treffen zu können?
09/2023
Ob für Recherchen, Brainstorming oder das Erstellen von Texten – viele große Unternehmen wollen das Sprachmodell ChatGPT einführen. Oder sie nutzen es bereits – zum Teil mit individualisiertem Zuschnitt. Die Hoffnung: Das Instrument der künstlichen Intelligenz (KI) soll Mitarbeitende entlasten und die Produktivität steigern. Doch Geschäftsprozesse zu verbessern und das Personal im professionellen Umgang mit dem neuen digitalen Kollegen zu trainieren, ist eine manchmal unterschätzte Herausforderung.
Erster Schritt in jedem Fall: ChatGPT sollte in seinen Grundlagen, Fähigkeiten und Grenzen verstanden werden. Das interdisziplinäre Expertenteam für Datenanalyse und künstliche Intelligenz der Managementberatung Porsche Consulting gibt Antworten auf elf klassische Fragen und beschreibt Lösungen aus Erfahrungen bei Klienten.
Sie antworteten: Dana, Fabian und Kevin
1. Wie würde eine gute Kurzbeschreibung von ChatGPT am besten formuliert werden?
Dana Ruiter: „ChatGPT ist ein sogenannter Chatbot – ein Sprachmodell, das mit künstlicher Intelligenz menschliche Sprache simulieren kann. ChatGPT hat gelernt, Fragen möglichst menschenähnlich zu beantworten. Dadurch sehen die Antworten von ChatGPT schon sehr natürlich aus. Aber täuschen lassen sollte man sich nicht: Es ist ein Sprachmodell und kein Wissensmodell. Und Vorsicht: Das Modell hat auch nicht das Ziel, faktisch korrekte Informationen auszugeben. Trotzdem zeigen große Sprachmodelle erstaunliche Abstraktionsfähigkeiten. Sie sind in der Lage, verschiedenste Aufgaben zu erledigen, ohne dass ein Entwickler es ihnen vorher beigebracht hat. Große Sprachmodelle haben nicht nur die KI-Forschungswelt, sondern auch die Geschäftswelt aufgemischt.“
2. Woher „weiß“ ChatGPT eigentlich so viel? Und: Wer „füttert“ ChatGPT?
Dana Ruiter: „Im sogenannten ‚Pre-Training‘ lernt das Sprachmodell mithilfe riesiger Datenmengen aus dem Internet, wie menschliche Sprache aufgebaut ist. Darauf folgt das ‚Fine-Tuning‘, bei dem das Modell lernt, eine bestimmte Aufgabe auszuführen. Bei ChatGPT haben die Entwickler dem Modell sehr viele Frage-Antwort-Paare gezeigt. Dadurch hat das Modell gelernt, das Beantworten von Fragen zu simulieren. Der letzte Lernschritt bei ChatGPT ist kontinuierlich und passiert auch heute noch: Durch Feedback der Menschen als Nutzer erkennt das Modell, welche von ihm generierten Antworten hilfreich waren und welche nicht. Das geschieht immer, wenn jemand etwas in ChatGPT eingibt und anschließend die generierte Antwort als gut oder schlecht bewertet. Dieser Input der Nutzer kann dazu beitragen, dass die Antworten künftig vom Sprachmodell passender formuliert werden.“
3. Ist das System so schlau, dass es selbstständig echte „Neuigkeiten“ generieren kann. Oder kombiniert es lediglich bereits bekannte, vorhandene Textpassagen?
Dana Ruiter: „Große Sprachmodelle haben die besondere Eigenschaft, dass sie mit wachsender Komplexität, also der Anzahl an Trainingsdaten und Neuronen, immer mehr eigenständige Fähigkeiten aufweisen. Ohne dass jemand es ihnen explizit beigebracht hätte, können die Modelle plötzlich erstaunliche Dinge. Zum Beispiel könnte ich ChatGPT auffordern, eine salopp geschriebene E‑Mail aus dem Deutschen in Shakespeare-Englisch zu übersetzen. Das geht tatsächlich, obwohl das Modell solch eine Fragestellung während des Trainings sicherlich nicht gesehen hat. Sprachmodelle können das, weil sie verschiedene Abstraktionsebenen lernen. Eigentlich ähnlich wie ein Gehirn: Auf den untersten Ebenen befinden sich sehr grundlegende Informationen, wie zum Beispiel Wortbedeutungen. Auf den mittleren Ebenen werden Wörter schon in Kontext gesetzt, und auf der letzten Ebene liegt die Abstraktion. Wenn das Modell nun also eine saloppe deutsche E‑Mail in Shakespeare-Englisch übersetzen soll, dann kennt es die Konzepte Deutsch, Shakespeare-Englisch und Übersetzung auf der Abstraktionsebene und weiß, wie zu formulieren ist. Das ist auch aus wissenschaftlicher Sicht sehr beeindruckend, und man hätte so etwas vor einigen Monaten noch kaum für möglich gehalten.
Aber auch hier gilt Vorsicht: Versteht das Modell ein Konzept nicht vollständig oder wird es von einem Begriff innerhalb der Aufgabe unbeabsichtigt in eine falsche Richtung gelenkt, können falsche Ergebnisse entstehen. Fachleute sprechen dann von Halluzinationen. Sie machen es schwer, generative KI-Modelle stabil einzusetzen.“
4. Wer kann besonders schnell von ChatGPT profitieren? Sind es Medien – ob Online, TV oder Print –, die Berichte automatisch erstellen lassen, Juristen für Verträge, Mediziner für Arztberichte, Agenturen für Werbe- und Verkaufsunterlagen?
Dana Ruiter: „Viele Bereiche werden in Zukunft stark von generativer KI profitieren. Durch die hohen Personalkosten ist das Potenzial in einigen Branchen besonders hoch: Zum Beispiel Medizin und Recht, aber auch die Verwaltung können stark profitieren. Das Wichtige ist hier, dass die repetitive Arbeit abgenommen wird und die Experten sich auf das konzentrieren können, wofür ihr Know-how direkt benötigt wird. Zum Beispiel: Während eine Ärztin einen Patienten untersucht, kann sie über Spracherkennung die Patientenakte vorausfüllen und hat somit mehr Zeit, sich auf die Interaktion mit dem Patienten zu konzentrieren. Wichtig ist dabei natürlich immer, dass der Experte am Ende alles verifiziert und die Handlungsentscheidung trifft.
Auch Juristen können von generativer KI profitieren. KI-Modelle können bereits heute in Massen an Gesetzestexten die passenden Informationen für eine Fragestellung finden und auch zusammenfassen. Somit sparen sich die Juristen diese Routinearbeit, und das juristische Beurteilungsvermögen wird dann für komplexere Fragestellungen freigestellt.
Für die Medien besteht ein Problem bei der Verwendung von generativer KI: Sie ist momentan nicht mit dem Weltgeschehen verknüpft und kann deshalb keine wirklich innovativen und faktisch korrekten Nachrichten automatisch schreiben. Das hindert Kriminelle natürlich nicht, Falschnachrichten mittels KI zu generieren und massenhaft in den sozialen Medien zu verbreiten.“
5. Studierenden scheint ChatGPT viel Fleißarbeit abzunehmen. Recherche, Quellenangaben, ganze Arbeiten verfassen – ersetzt der digitale Assistent den Besuch der Staatsbibliothek? Wie verändert das System wissenschaftliche Arbeit?
Dana Ruiter: „Es ist wichtig, sich immer vor Augen zu halten: ChatGPT ist ein Sprachmodell und kein Wissensmodell. Die wissenschaftliche Arbeit besteht darin, die Welt und ihre Eigenschaften zu beobachten und die gewonnenen Erkenntnisse dem bisherigen Wissenskanon gegenüberzustellen. ChatGPT kann nichts von beiden: Weder kann es die Welt beobachten, noch kann es faktisch korrekt den bisherigen Wissenskanon wiedergeben. Es kann jedoch sehr gut die Form einer wissenschaftlichen Arbeit simulieren. Dies kann als Formulierungshilfe hilfreich sein, sofern die eigenen Forschungsergebnisse bereits vorliegen und die Literaturrecherche erfolgt ist. Die wissenschaftliche Arbeit wird dadurch jedoch nicht wegfallen.“
6. Nutzer von ChatGPT können verschiedene Tonalitäten wählen und den Tiefgang dosieren. Entspricht das Resultat nicht den Vorstellungen, bessert ChatGPT auf Befehl nach. Wie beeinflussbar und wie beliebig werden dadurch die gelieferten Produkte?
Dana Ruiter: „Durch Prompt-Engineering lässt sich die Ausgabe der Modelle manipulieren. Das Problem ist hierbei weiterhin die Intransparenz des Systems und die fehlende Robustheit der Ausgaben. Es ist intransparent, weil unklar ist, welche Begriffe in den Prompts welche Wirkungen auf die generierten Sätze haben. Es ist ein reines Trial-und-Error. Die fehlende Transparenz führt zu mangelnder Robustheit dieser Modelle: Ein Prompt, der einmal das gewünschte Ergebnis lieferte, kann mit leicht geändertem Input zu unerwünschten Outputs führen. Das macht es besonders schwer, generative KI-Modelle in Produktionssysteme zu integrieren. Keiner möchte schließlich, dass aufgrund eines Triggers im Benutzerinput das Modell plötzlich Hassreden oder andere ungewollte Inhalte ausgibt.“
7. In welchen Branchen wird ChatGPT zuerst und am besten einsetzbar sein?
Kevin Lin: „Im Gegensatz zum häufigen Gebrauch von ChatGPT als Suchmaschine sehe ich den Hauptnutzen von ChatGPT in der automatischen Verarbeitung von Dokumenten. Sei es, um Kundenbeschwerden automatisch zu klassifizieren und an den richtigen Kundenbetreuer weiterzuleiten, um relevante administrative Informationen zu identifizieren und verständlich zusammenzufassen oder um den eigenen Schreibstil zu verbessern. All dies sind Themen, die branchenübergreifend relevant sind und die leicht einen großen Mehrwert stiften können. Motivation, Lösungen basierend auf generativer KI anzuwenden, wird vor allem in Bereichen entstehen, wo die Personalkosten hoch sind oder wo ein Personalmangel besteht. Zum Beispiel im klinischen, juristischen, aber auch administrativen Bereich.“
8. Welche Qualifikationen und welche Arbeitsplätze werden sich durch ChatGPT verändern oder gar überflüssig werden?
Kevin Lin: „Die Arbeitswelt wird sich ändern. Das Gute ist, dass qualifizierte Arbeit auch weiterhin von qualifizierten Menschen ausgeführt werden muss. ChatGPT kann einem Arzt nicht die Interaktion mit dem Patienten und einem Juristen nicht das Absegnen eines wasserfesten Vertrags abnehmen. Das Zusammenbringen von Welt- und Fachwissen, zusammen mit situativem und sozialem Handeln, wird noch lange bei gut ausgebildeten menschlichen Fachleuten liegen. Repetitive Aufgaben, die stets einem gewissen Muster folgen, werden jedoch in Zukunft öfter wegfallen. Dies ist besonders für Serviceleistungen, zum Beispiel bei der Verarbeitung von Beschwerden, oder für Verwaltungsaufgaben ein großer Hebel, um effizienter zu werden und in Zukunft auf weniger, aber dafür hochqualifiziertes Personal zu setzen.
Einige Aufgaben werden in Zukunft von generativer KI erledigt, das ist klar. Deswegen wird neben der bereits vorhandenen eigenen Fachkompetenz der Mitarbeitenden auch ihr Verständnis bezüglich der Fähigkeiten und Schwierigkeiten dieser generativen Modelle immer wichtiger werden. Hier besteht großer Bedarf an Weiterbildung unter kompetenter Schulung und Leitung, direkt in den Unternehmen. Nur dann kann generative KI sinnvoll und sicher angewandt werden.“
9. Was kann ChatGPT nicht?
Dana Ruiter: „Viele verwechseln ChatGPT mit einer Art Suchmaschine. Das ist es jedoch nicht. ChatGPT hat nur gelernt, das Beantworten von Fragen zu simulieren. Ob diese Antworten faktisch korrekt sind, ist nicht Bestandteil der Zielsetzung während des Trainings. ChatGPT kann auch nicht garantieren, dass generierte Sätze stets den Erwartungen des Bereitstellers der Informationen entsprechen. Ein Beispiel: Ich baue mit ChatGPT ein Tool, das Kunden hilft, E‑Mails professioneller zu formulieren. Während ich mein Tool teste, scheint es gut zu funktionieren, und meine umformulierten E‑Mails klingen professionell und höflich. Nun gebe ich mein Tool an echte Nutzer, die alles Mögliche dort eingeben, und plötzlich gibt es Beschwerden, dass das Tool Teile des Originaltextes vergisst oder neue Inhalte erfindet. Es gibt keine Garantie, dass das System immer wie erwartet reagiert. Aus diesem Grund wird in hochsensiblen Produktionssystemen oft noch an regelbasierten Verfahren festgehalten. Die versprechen eine gewisse Garantie für saubere, korrekte Outputs. In Zukunft wird es noch mehr Hybridsysteme geben, die Outputs von generativer KI mit regelbasierten Modellen verbinden, um mehr Robustheit zu schaffen.“
10. Welche Alternativen gibt es zu ChatGPT? Sind Wettbewerber im Anmarsch?
Fabian Schmidt: „ChatGPT von OpenAI ist erst mal nur ein Chatbot, der auf einem Sprachmodell beruht. Diese Art von Technologie ist nicht einzigartig. Und es gibt genügend andere Wettbewerber. Neben Closed-Source-Modellen von Big-Tech wie Bard (Google) gibt es auch regionale Speziallösungen von Start-ups. Im Jahr 2022 hat die Managementberatung Porsche Consulting im Rahmen des Deutschen Gründerpreises das Heidelberger KI-Start-up Aleph Alpha beraten. Dessen Sprachmodell Luminous ist für den deutschen Markt besonders bemerkenswert. Die Besonderheit von Aleph Alpha ist der europäische Fokus. Die Modelle werden in Deutschland gehostet und unterliegen den hohen Standards des europäischen Datenschutzrechts. Es gibt jedoch zwei Hauptprobleme mit vielen Closed-Source-Lösungen: Die Modelle sind oft nicht frei adaptierbar. Und: Die Daten- und Modellhoheit liegt hier oft in externen Händen. Dies ist besonders problematisch, wenn die Modelle im nicht europäischen Ausland liegen und es keine Möglichkeit zur Kontrolle über die Verarbeitung der eigenen Daten gibt. Deswegen sind für die eigene Entwicklung von Lösungen die Open-Source-Modelle oft empfehlenswert. Für große Sprachmodelle gibt es da bereits einige Lösungen, wie zum Beispiel LLaMA (Meta) und BLOOM (Hugging Face). Sie werden lokal gehostet und nach Belieben angepasst. Das erlaubt volle Kontrolle über das Modell und die eigenen Daten. Wenn auch kleinere Sprachmodelle ausreichen – zum Beispiel für grundlegendere Aufgaben wie zum Beispiel die Klassifizierung von Kundenbeschwerden oder die Identifizierung von Trends in sozialen Medien –, dann gibt es eine ganze Bandbreite an Open-Source-Sprachmodellen, wie zum Beispiel BERT, XLM oder CamemBERT. Sammelportale wie Hugging Face geben freien Zugriff auf diese Modelle, zusammen mit Hilfsfunktionen, um diese leicht auf den eigenen Use-Case zu adaptieren.“
11. Wie kann ich als Firma eine Lösung mittels generativer KI bei mir einführen?
Fabian Schmidt: „Als Berater schauen wir im ersten Schritt gemeinsam mit dem Klienten auf die Fragestellung: Gibt es bereits ein konkretes Problem, das die KI lösen soll? Oder geht es darum, neue und innovative KI-Lösungen mit generativer KI zu entdecken? In diesem Fall hilft ein Workshop zusammen mit Fachleuten oder zum Beispiel die Nutzung des Porsche Consulting InnoLab in Berlin. Sobald konkrete Use-Cases klar sind, kann die eigentliche Entscheidungsfindung für die Umsetzung beginnen.
Eine Frage, die gleich zu Anfang beantwortet werden sollte, lautet: Ist es überhaupt sinnvoll, die vorliegende Aufgabe tatsächlich mit generativer KI zu automatisieren? Wenn das der Fall ist und eine KI-Lösung geld- und zeitsparend ist, dann kann man im nächsten Schritt schauen, ob es nicht bereits eine passende Off-the-Shelf-Lösung auf dem Markt gibt. Hier ist wichtig, dass diese Lösungen nicht unbedingt immer von den Big-Playern (Microsoft, Google etc.) kommen müssen. Denn die bauen eher auf sehr breite Benutzbarkeit, die jedoch nicht für jeden spezifischen Use-Case passend sein muss. Oftmals bieten kleinere Unternehmen oder etablierte Start-ups sehr passende Lösungen für spezifische Branchen und Use-Cases an. Um hier einen guten Überblick zu bekommen, empfehlen wir eine Marktanalyse mit Fokus auf Themen wie Datensicherheit, technische Reife und Skalierbarkeit.
Falls sich jedoch keine gute vorgefertigte Lösung finden lässt, muss eine eigene Lösung her. Als Berater von Porsche Consulting klären wir dann gemeinsam mit unseren Klienten die Datengrundlage. Die Datenexperten aus unserem Team kümmern sich im nächsten Schritt um die Anonymisierung und Aufbereitung der Daten. Erst danach wird das eigentliche Modell an den Use-Case angepasst und in mehreren Feedback-Runden zusammen mit dem Kunden verfeinert. Bei Eigenentwicklungen achten wir besonders auf Daten- und Modellhoheit. Denn: Keiner möchte, dass die eigenen Unternehmensdaten plötzlich in fremde Hände geraten. Open-Source-Modelle, die lokal gehostet und beliebig adaptiert werden können, bieten hier oft die sicherste Möglichkeit für solide Eigenentwicklungen.“
Direktkontakt zu Porsche Consulting, Fachbereich Artificial Intelligence and Data Analytics: ai@porsche-consulting.com