Einblick

Versprochen von ChatGPT

ChatGPT macht die Runde am Arbeitsplatz. Doch wer kennt Funktionsweise, Fähigkeiten, Nutzen und Risiken gut genug, um eine sichere Entscheidung über den professionellen Einsatz des Sprachmodells treffen zu können? 

09/2023

Recherchieren, Sortieren, Verarbeiten und Formulieren in diversen Tonlagen – digitale Sprachmodelle wie ChatGPT nutzen den Fundus des Internets und generieren daraus Texte, die von Menschen verfasst worden sein könnten. Porsche Consulting/Thomas Kuhlenbeck

Ob für Recher­chen, Brain­stor­ming oder das Erstel­len von Tex­ten – viele große Unter­neh­men wol­len das Sprach­mo­dell ChatGPT ein­füh­ren. Oder sie nut­zen es bereits – zum Teil mit indi­vi­dua­li­sier­tem Zuschnitt. Die Hoff­nung: Das Instru­ment der künst­li­chen Intel­li­genz (KI) soll Mit­ar­bei­ten­de ent­las­ten und die Pro­duk­ti­vi­tät stei­gern. Doch Geschäfts­pro­zes­se zu ver­bes­sern und das Per­so­nal im pro­fes­sio­nel­len Umgang mit dem neuen digi­ta­len Kol­le­gen zu trai­nie­ren, ist eine manch­mal unter­schätz­te Herausforderung.

Ers­ter Schritt in jedem Fall: ChatGPT soll­te in sei­nen Grund­la­gen, Fähig­kei­ten und Gren­zen ver­stan­den wer­den. Das inter­dis­zi­pli­nä­re Exper­ten­team für Daten­ana­ly­se und künst­li­che Intel­li­genz der Manage­ment­be­ra­tung Por­sche Con­sul­ting gibt Ant­wor­ten auf elf klas­si­sche Fra­gen und beschreibt Lösun­gen aus Erfah­run­gen bei Klienten.

Sie antworteten: Dana, Fabian und Kevin

Dr. Dana Ruiter ist Analytics Consultant bei Porsche Consulting, Kontakt: ai@porsche-consulting.comPorsche Consulting
Fabian Schmidt ist Associate Partner bei Porsche Consulting, Kontakt: ai@porsche-consulting.comPorsche Consulting
Kevin Lin ist Head of AI & Data Analytics bei Porsche Consulting, Kontakt: ai@porsche-consulting.comPorsche Consulting

1. Wie würde eine gute Kurzbeschreibung von ChatGPT am besten formuliert werden?

Dana Rui­ter: „ChatGPT ist ein soge­nann­ter Chat­bot – ein Sprach­mo­dell, das mit künst­li­cher Intel­li­genz mensch­li­che Spra­che simu­lie­ren kann. ChatGPT hat gelernt, Fra­gen mög­lichst men­schen­ähn­lich zu beant­wor­ten. Dadurch sehen die Ant­wor­ten von ChatGPT schon sehr natür­lich aus. Aber täu­schen las­sen soll­te man sich nicht: Es ist ein Sprach­mo­dell und kein Wis­sens­mo­dell. Und Vor­sicht: Das Modell hat auch nicht das Ziel, fak­tisch kor­rek­te Infor­ma­tio­nen aus­zu­ge­ben. Trotz­dem zei­gen große Sprach­mo­del­le erstaun­li­che Abs­trak­ti­ons­fä­hig­kei­ten. Sie sind in der Lage, ver­schie­dens­te Auf­ga­ben zu erle­di­gen, ohne dass ein Ent­wick­ler es ihnen vor­her bei­gebracht hat. Große Sprach­mo­del­le haben nicht nur die KI-For­schungs­welt, son­dern auch die Geschäfts­welt aufgemischt.“

2. Woher „weiß“ ChatGPT eigentlich so viel? Und: Wer „füttert“ ChatGPT?

Dana Rui­ter: „Im soge­nann­ten ‚Pre-Trai­ning‘ lernt das Sprach­mo­dell mit­hil­fe rie­si­ger Daten­men­gen aus dem Inter­net, wie mensch­li­che Spra­che auf­ge­baut ist. Dar­auf folgt das ‚Fine-Tuning‘, bei dem das Modell lernt, eine bestimm­te Auf­ga­be aus­zu­füh­ren. Bei ChatGPT haben die Ent­wick­ler dem Modell sehr viele Frage-Ant­wort-Paare gezeigt. Dadurch hat das Modell gelernt, das Beant­wor­ten von Fra­gen zu simu­lie­ren. Der letz­te Lern­schritt bei ChatGPT ist kon­ti­nu­ier­lich und pas­siert auch heute noch: Durch Feed­back der Men­schen als Nut­zer erkennt das Modell, wel­che von ihm gene­rier­ten Ant­wor­ten hilf­reich waren und wel­che nicht. Das geschieht immer, wenn jemand etwas in ChatGPT ein­gibt und anschlie­ßend die gene­rier­te Ant­wort als gut oder schlecht bewer­tet. Die­ser Input der Nut­zer kann dazu bei­tra­gen, dass die Ant­wor­ten künf­tig vom Sprach­mo­dell pas­sen­der for­mu­liert werden.“

3. Ist das System so schlau, dass es selbstständig echte „Neuigkeiten“ generieren kann. Oder kombiniert es lediglich bereits bekannte, vorhandene Textpassagen?

Dana Rui­ter: „Große Sprach­mo­del­le haben die beson­de­re Eigen­schaft, dass sie mit wach­sen­der Kom­ple­xi­tät, also der Anzahl an Trai­nings­da­ten und Neu­ro­nen, immer mehr eigen­stän­di­ge Fähig­kei­ten auf­wei­sen. Ohne dass jemand es ihnen expli­zit bei­gebracht hätte, kön­nen die Model­le plötz­lich erstaun­li­che Dinge. Zum Bei­spiel könn­te ich ChatGPT auf­for­dern, eine salopp geschrie­be­ne E‑Mail aus dem Deut­schen in Shake­speare-Eng­lisch zu über­set­zen. Das geht tat­säch­lich, obwohl das Modell solch eine Fra­ge­stel­lung wäh­rend des Trai­nings sicher­lich nicht gese­hen hat. Sprach­mo­del­le kön­nen das, weil sie ver­schie­de­ne Abs­trak­ti­ons­ebe­nen ler­nen. Eigent­lich ähn­lich wie ein Gehirn: Auf den unters­ten Ebe­nen befin­den sich sehr grund­le­gen­de Infor­ma­tio­nen, wie zum Bei­spiel Wort­be­deu­tun­gen. Auf den mitt­le­ren Ebe­nen wer­den Wör­ter schon in Kon­text gesetzt, und auf der letz­ten Ebene liegt die Abs­trak­ti­on. Wenn das Modell nun also eine salop­pe deut­sche E‑Mail in Shake­speare-Eng­lisch über­set­zen soll, dann kennt es die Kon­zep­te Deutsch, Shake­speare-Eng­lisch und Über­set­zung auf der Abs­trak­ti­ons­ebe­ne und weiß, wie zu for­mu­lie­ren ist. Das ist auch aus wis­sen­schaft­li­cher Sicht sehr beein­dru­ckend, und man hätte so etwas vor eini­gen Mona­ten noch kaum für mög­lich gehalten.

Aber auch hier gilt Vor­sicht: Ver­steht das Modell ein Kon­zept nicht voll­stän­dig oder wird es von einem Begriff inner­halb der Auf­ga­be unbe­ab­sich­tigt in eine fal­sche Rich­tung gelenkt, kön­nen fal­sche Ergeb­nis­se ent­ste­hen. Fach­leu­te spre­chen dann von Hal­lu­zi­na­tio­nen. Sie machen es schwer, gene­ra­ti­ve KI-Model­le sta­bil einzusetzen.“

4. Wer kann besonders schnell von ChatGPT profitieren? Sind es Medien – ob Online, TV oder Print –, die Berichte automatisch erstellen lassen, Juristen für Verträge, Mediziner für Arztberichte, Agenturen für Werbe- und Verkaufsunterlagen?

Dana Rui­ter: „Viele Berei­che wer­den in Zukunft stark von gene­ra­ti­ver KI pro­fi­tie­ren. Durch die hohen Per­so­nal­kos­ten ist das Poten­zi­al in eini­gen Bran­chen beson­ders hoch: Zum Bei­spiel Medi­zin und Recht, aber auch die Ver­wal­tung kön­nen stark pro­fi­tie­ren. Das Wich­ti­ge ist hier, dass die repe­ti­ti­ve Arbeit abge­nom­men wird und die Exper­ten sich auf das kon­zen­trie­ren kön­nen, wofür ihr Know-how direkt benö­tigt wird. Zum Bei­spiel: Wäh­rend eine Ärz­tin einen Pati­en­ten unter­sucht, kann sie über Sprach­er­ken­nung die Pati­en­ten­ak­te vor­aus­fül­len und hat somit mehr Zeit, sich auf die Inter­ak­ti­on mit dem Pati­en­ten zu kon­zen­trie­ren. Wich­tig ist dabei natür­lich immer, dass der Exper­te am Ende alles veri­fi­ziert und die Hand­lungs­ent­schei­dung trifft.

Auch Juris­ten kön­nen von gene­ra­ti­ver KI pro­fi­tie­ren. KI-Model­le kön­nen bereits heute in Mas­sen an Geset­zes­tex­ten die pas­sen­den Infor­ma­tio­nen für eine Fra­ge­stel­lung fin­den und auch zusam­men­fas­sen. Somit spa­ren sich die Juris­ten diese Rou­ti­ne­ar­beit, und das juris­ti­sche Beur­tei­lungs­ver­mö­gen wird dann für kom­ple­xe­re Fra­ge­stel­lun­gen freigestellt.

Für die Medi­en besteht ein Pro­blem bei der Ver­wen­dung von gene­ra­ti­ver KI: Sie ist momen­tan nicht mit dem Welt­ge­sche­hen ver­knüpft und kann des­halb keine wirk­lich inno­va­ti­ven und fak­tisch kor­rek­ten Nach­rich­ten auto­ma­tisch schrei­ben. Das hin­dert Kri­mi­nel­le natür­lich nicht, Fal­sch­nach­rich­ten mit­tels KI zu gene­rie­ren und mas­sen­haft in den sozia­len Medi­en zu verbreiten.“

5. Studierenden scheint ChatGPT viel Fleißarbeit abzunehmen. Recherche, Quellenangaben, ganze Arbeiten verfassen – ersetzt der digitale Assistent den Besuch der Staatsbibliothek? Wie verändert das System wissenschaftliche Arbeit?

Dana Rui­ter: „Es ist wich­tig, sich immer vor Augen zu hal­ten: ChatGPT ist ein Sprach­mo­dell und kein Wis­sens­mo­dell. Die wis­sen­schaft­li­che Arbeit besteht darin, die Welt und ihre Eigen­schaf­ten zu beob­ach­ten und die gewon­ne­nen Erkennt­nis­se dem bis­he­ri­gen Wis­sens­ka­non gegen­über­zu­stel­len. ChatGPT kann nichts von bei­den: Weder kann es die Welt beob­ach­ten, noch kann es fak­tisch kor­rekt den bis­he­ri­gen Wis­sens­ka­non wie­der­ge­ben. Es kann jedoch sehr gut die Form einer wis­sen­schaft­li­chen Arbeit simu­lie­ren. Dies kann als For­mu­lie­rungs­hil­fe hilf­reich sein, sofern die eige­nen For­schungs­er­geb­nis­se bereits vor­lie­gen und die Lite­ra­tur­re­cher­che erfolgt ist. Die wis­sen­schaft­li­che Arbeit wird dadurch jedoch nicht wegfallen.“

6. Nutzer von ChatGPT können verschiedene Tonalitäten wählen und den Tiefgang dosieren. Entspricht das Resultat nicht den Vorstellungen, bessert ChatGPT auf Befehl nach. Wie beeinflussbar und wie beliebig werden dadurch die gelieferten Produkte?

Dana Rui­ter: „Durch Prompt-Engi­nee­ring lässt sich die Aus­ga­be der Model­le mani­pu­lie­ren. Das Pro­blem ist hier­bei wei­ter­hin die Intrans­pa­renz des Sys­tems und die feh­len­de Robust­heit der Aus­ga­ben. Es ist intrans­pa­rent, weil unklar ist, wel­che Begrif­fe in den Prompts wel­che Wir­kun­gen auf die gene­rier­ten Sätze haben. Es ist ein rei­nes Trial-und-Error. Die feh­len­de Trans­pa­renz führt zu man­geln­der Robust­heit die­ser Model­le: Ein Prompt, der ein­mal das gewünsch­te Ergeb­nis lie­fer­te, kann mit leicht geän­der­tem Input zu uner­wünsch­ten Out­puts füh­ren. Das macht es beson­ders schwer, gene­ra­ti­ve KI-Model­le in Pro­duk­ti­ons­sys­te­me zu inte­grie­ren. Kei­ner möch­te schließ­lich, dass auf­grund eines Trig­gers im Benut­ze­rin­put das Modell plötz­lich Hass­re­den oder ande­re unge­woll­te Inhal­te ausgibt.“

7. In welchen Branchen wird ChatGPT zuerst und am besten einsetzbar sein?

Kevin Lin: „Im Gegen­satz zum häu­fi­gen Gebrauch von ChatGPT als Such­ma­schi­ne sehe ich den Haupt­nut­zen von ChatGPT in der auto­ma­ti­schen Ver­ar­bei­tung von Doku­men­ten. Sei es, um Kun­den­be­schwer­den auto­ma­tisch zu klas­si­fi­zie­ren und an den rich­ti­gen Kun­den­be­treu­er wei­ter­zu­lei­ten, um rele­van­te admi­nis­tra­ti­ve Infor­ma­tio­nen zu iden­ti­fi­zie­ren und ver­ständ­lich zusam­men­zu­fas­sen oder um den eige­nen Schreib­stil zu ver­bes­sern. All dies sind The­men, die bran­chen­über­grei­fend rele­vant sind und die leicht einen gro­ßen Mehr­wert stif­ten kön­nen. Moti­va­ti­on, Lösun­gen basie­rend auf gene­ra­ti­ver KI anzu­wen­den, wird vor allem in Berei­chen ent­ste­hen, wo die Per­so­nal­kos­ten hoch sind oder wo ein Per­so­nal­man­gel besteht. Zum Bei­spiel im kli­ni­schen, juris­ti­schen, aber auch admi­nis­tra­ti­ven Bereich.“

8. Welche Qualifikationen und welche Arbeitsplätze werden sich durch ChatGPT verändern oder gar überflüssig werden?

Kevin Lin: „Die Arbeits­welt wird sich ändern. Das Gute ist, dass qua­li­fi­zier­te Arbeit auch wei­ter­hin von qua­li­fi­zier­ten Men­schen aus­ge­führt wer­den muss. ChatGPT kann einem Arzt nicht die Inter­ak­ti­on mit dem Pati­en­ten und einem Juris­ten nicht das Abseg­nen eines was­ser­fes­ten Ver­trags abneh­men. Das Zusam­men­brin­gen von Welt- und Fach­wis­sen, zusam­men mit situa­ti­vem und sozia­lem Han­deln, wird noch lange bei gut aus­ge­bil­de­ten mensch­li­chen Fach­leu­ten lie­gen. Repe­ti­ti­ve Auf­ga­ben, die stets einem gewis­sen Mus­ter fol­gen, wer­den jedoch in Zukunft öfter weg­fal­len. Dies ist beson­ders für Ser­vice­leis­tun­gen, zum Bei­spiel bei der Ver­ar­bei­tung von Beschwer­den, oder für Ver­wal­tungs­auf­ga­ben ein gro­ßer Hebel, um effi­zi­en­ter zu wer­den und in Zukunft auf weni­ger, aber dafür hoch­qua­li­fi­zier­tes Per­so­nal zu setzen.

Eini­ge Auf­ga­ben wer­den in Zukunft von gene­ra­ti­ver KI erle­digt, das ist klar. Des­we­gen wird neben der bereits vor­han­de­nen eige­nen Fach­kom­pe­tenz der Mit­ar­bei­ten­den auch ihr Ver­ständ­nis bezüg­lich der Fähig­kei­ten und Schwie­rig­kei­ten die­ser gene­ra­ti­ven Model­le immer wich­ti­ger wer­den. Hier besteht gro­ßer Bedarf an Wei­ter­bil­dung unter kom­pe­ten­ter Schu­lung und Lei­tung, direkt in den Unter­neh­men. Nur dann kann gene­ra­ti­ve KI sinn­voll und sicher ange­wandt werden.“

9. Was kann ChatGPT nicht?

Dana Rui­ter: „Viele ver­wech­seln ChatGPT mit einer Art Such­ma­schi­ne. Das ist es jedoch nicht. ChatGPT hat nur gelernt, das Beant­wor­ten von Fra­gen zu simu­lie­ren. Ob diese Ant­wor­ten fak­tisch kor­rekt sind, ist nicht Bestand­teil der Ziel­set­zung wäh­rend des Trai­nings. ChatGPT kann auch nicht garan­tie­ren, dass gene­rier­te Sätze stets den Erwar­tun­gen des Bereit­stel­lers der Infor­ma­tio­nen ent­spre­chen. Ein Bei­spiel: Ich baue mit ChatGPT ein Tool, das Kun­den hilft, E‑Mails pro­fes­sio­nel­ler zu for­mu­lie­ren. Wäh­rend ich mein Tool teste, scheint es gut zu funk­tio­nie­ren, und meine umfor­mu­lier­ten E‑Mails klin­gen pro­fes­sio­nell und höf­lich. Nun gebe ich mein Tool an echte Nut­zer, die alles Mög­li­che dort ein­ge­ben, und plötz­lich gibt es Beschwer­den, dass das Tool Teile des Ori­gi­nal­tex­tes ver­gisst oder neue Inhal­te erfin­det. Es gibt keine Garan­tie, dass das Sys­tem immer wie erwar­tet reagiert. Aus die­sem Grund wird in hoch­sen­si­blen Pro­duk­ti­ons­sys­te­men oft noch an regel­ba­sier­ten Ver­fah­ren fest­ge­hal­ten. Die ver­spre­chen eine gewis­se Garan­tie für sau­be­re, kor­rek­te Out­puts. In Zukunft wird es noch mehr Hybrid­sys­te­me geben, die Out­puts von gene­ra­ti­ver KI mit regel­ba­sier­ten Model­len ver­bin­den, um mehr Robust­heit zu schaffen.“

10. Welche Alternativen gibt es zu ChatGPT? Sind Wettbewerber im Anmarsch?

Fabi­an Schmidt: „ChatGPT von Ope­nAI ist erst mal nur ein Chat­bot, der auf einem Sprach­mo­dell beruht. Diese Art von Tech­no­lo­gie ist nicht ein­zig­ar­tig. Und es gibt genü­gend ande­re Wett­be­wer­ber. Neben Clo­sed-Source-Model­len von Big-Tech wie Bard (Goog­le) gibt es auch regio­na­le Spe­zi­al­lö­sun­gen von Start-ups. Im Jahr 2022 hat die Manage­ment­be­ra­tung Por­sche Con­sul­ting im Rah­men des Deut­schen Grün­der­prei­ses das Hei­del­ber­ger KI-Start-up Aleph Alpha bera­ten. Des­sen Sprach­mo­dell Lumi­nous ist für den deut­schen Markt beson­ders bemer­kens­wert. Die Beson­der­heit von Aleph Alpha ist der euro­päi­sche Fokus. Die Model­le wer­den in Deutsch­land gehos­tet und unter­lie­gen den hohen Stan­dards des euro­päi­schen Daten­schutz­rechts. Es gibt jedoch zwei Haupt­pro­ble­me mit vie­len Clo­sed-Source-Lösun­gen: Die Model­le sind oft nicht frei adap­tier­bar. Und: Die Daten- und Modell­ho­heit liegt hier oft in exter­nen Hän­den. Dies ist beson­ders pro­ble­ma­tisch, wenn die Model­le im nicht euro­päi­schen Aus­land lie­gen und es keine Mög­lich­keit zur Kon­trol­le über die Ver­ar­bei­tung der eige­nen Daten gibt. Des­we­gen sind für die eige­ne Ent­wick­lung von Lösun­gen die Open-Source-Model­le oft emp­feh­lens­wert. Für große Sprach­mo­del­le gibt es da bereits eini­ge Lösun­gen, wie zum Bei­spiel LLaMA (Meta) und BLOOM (Hug­ging Face). Sie wer­den lokal gehos­tet und nach Belie­ben ange­passt. Das erlaubt volle Kon­trol­le über das Modell und die eige­nen Daten. Wenn auch klei­ne­re Sprach­mo­del­le aus­rei­chen – zum Bei­spiel für grund­le­gen­de­re Auf­ga­ben wie zum Bei­spiel die Klas­si­fi­zie­rung von Kun­den­be­schwer­den oder die Iden­ti­fi­zie­rung von Trends in sozia­len Medi­en –, dann gibt es eine ganze Band­brei­te an Open-Source-Sprach­mo­del­len, wie zum Bei­spiel BERT, XLM oder Camem­BERT. Sam­mel­por­ta­le wie Hug­ging Face geben frei­en Zugriff auf diese Model­le, zusam­men mit Hilfs­funk­tio­nen, um diese leicht auf den eige­nen Use-Case zu adaptieren.“

11. Wie kann ich als Firma eine Lösung mittels generativer KI bei mir einführen?

Fabi­an Schmidt: „Als Bera­ter schau­en wir im ers­ten Schritt gemein­sam mit dem Kli­en­ten auf die Fra­ge­stel­lung: Gibt es bereits ein kon­kre­tes Pro­blem, das die KI lösen soll? Oder geht es darum, neue und inno­va­ti­ve KI-Lösun­gen mit gene­ra­ti­ver KI zu ent­de­cken? In die­sem Fall hilft ein Work­shop zusam­men mit Fach­leu­ten oder zum Bei­spiel die Nut­zung des Por­sche Con­sul­ting Inno­Lab in Ber­lin. Sobald kon­kre­te Use-Cases klar sind, kann die eigent­li­che Ent­schei­dungs­fin­dung für die Umset­zung beginnen.

Eine Frage, die gleich zu Anfang beant­wor­tet wer­den soll­te, lau­tet: Ist es über­haupt sinn­voll, die vor­lie­gen­de Auf­ga­be tat­säch­lich mit gene­ra­ti­ver KI zu auto­ma­ti­sie­ren? Wenn das der Fall ist und eine KI-Lösung geld- und zeit­spa­rend ist, dann kann man im nächs­ten Schritt schau­en, ob es nicht bereits eine pas­sen­de Off-the-Shelf-Lösung auf dem Markt gibt. Hier ist wich­tig, dass diese Lösun­gen nicht unbe­dingt immer von den Big-Play­ern (Micro­soft, Goog­le etc.) kom­men müs­sen. Denn die bauen eher auf sehr brei­te Benutz­bar­keit, die jedoch nicht für jeden spe­zi­fi­schen Use-Case pas­send sein muss. Oft­mals bie­ten klei­ne­re Unter­neh­men oder eta­blier­te Start-ups sehr pas­sen­de Lösun­gen für spe­zi­fi­sche Bran­chen und Use-Cases an. Um hier einen guten Über­blick zu bekom­men, emp­feh­len wir eine Markt­ana­ly­se mit Fokus auf The­men wie Daten­si­cher­heit, tech­ni­sche Reife und Skalierbarkeit.

Falls sich jedoch keine gute vor­ge­fer­tig­te Lösung fin­den lässt, muss eine eige­ne Lösung her. Als Bera­ter von Por­sche Con­sul­ting klä­ren wir dann gemein­sam mit unse­ren Kli­en­ten die Daten­grund­la­ge. Die Daten­ex­per­ten aus unse­rem Team küm­mern sich im nächs­ten Schritt um die Anony­mi­sie­rung und Auf­be­rei­tung der Daten. Erst danach wird das eigent­li­che Modell an den Use-Case ange­passt und in meh­re­ren Feed­back-Run­den zusam­men mit dem Kun­den ver­fei­nert. Bei Eigen­ent­wick­lun­gen ach­ten wir beson­ders auf Daten- und Modell­ho­heit. Denn: Kei­ner möch­te, dass die eige­nen Unter­neh­mens­da­ten plötz­lich in frem­de Hände gera­ten. Open-Source-Model­le, die lokal gehos­tet und belie­big adap­tiert wer­den kön­nen, bie­ten hier oft die sichers­te Mög­lich­keit für soli­de Eigenentwicklungen.“

Direkt­kon­takt zu Por­sche Con­sul­ting, Fach­be­reich Arti­fi­ci­al Intel­li­gence and Data Ana­ly­tics: ai@porsche-consulting.com

Zum nächsten Thema gehen„Dieser Schatz ist unbezahlbar“