Eine Frau spricht in ihr Handy und schaut dabei auf ihren Laptop.

Neues aus der HEC / Trends und Technologien

Wie Unternehmen ChatGPT und andere Sprachmodelle nutzen können

20. März 2023 / Gabriel Storch

ChatGPT-Check

Ist der Chatbot von OpenAI ein bessereres Large Language Model?

ChatGPT verspricht, als erster Chat­bot mit seinen Nutzer:innen wirk­lich intel­li­gente Dialoge in natür­li­cher Spra­che führen zu können. Darüber hinaus scheint seine Krea­ti­vi­tät immens: Er kann Texte verfas­sen, Busi­ness-Pläne erstel­len oder sogar Programm­code schrei­ben. Doch wie bei allen Sprach­mo­del­len, in der Fach­spra­che Large Language Models genannt, ist Vorsicht gebo­ten. Auch ChatGPT ist nur so schlau wie das, worauf er trai­niert wurde.

Wir haben den Check gemacht. Von den Grund­la­gen über Anwen­dungs­mög­lich­kei­ten bis hin zu den echten Risi­ken von ChatGPT: Wie gut ist der Chat­bot von OpenAI?

Was konnten Chatbots bisher?

Angeb­lich können Chat­bots viele Probleme lösen. Insbe­son­dere im Kunden­kon­takt erhof­fen sich viele Anbie­ter smoo­the Lösun­gen für sich und ihre Kund:innen. Nicht umsonst findet sich auf jeder namhaf­ten B2C-Website auch ein Pop-up für den unmit­tel­ba­ren Kontakt durch einen „Wie kann ich Ihnen weiter­hel­fen“-Chat­bot.

In der Reali­tät sind Chat­bots für Kund:innen leider oft eine frus­trie­rende Erfah­rung: Sie sind unfle­xi­bel bei der Eingabe von Daten, lösen die Aufga­ben nur auf streng vorge­ge­be­nen Wegen und geben den Kund:innen beim Schei­tern des Vorgangs das Gefühl, nicht ernst­ge­nom­men zu werden.

Was wäre nun, könnte ein Chat­bot tatsäch­li­che Gesprä­che führen, und könnte es auch Fließ­texte verläss­lich und flexi­bel auf interne Busi­ness-Logik mappen?

Was ist ChatGPT?

Am 30. Novem­ber 2022 veröffentlichte die amerikanische Firma OpenAI ihren Chatbot ChatGPT. ChatGPT ist ein Transformer Large Language Model, das mit der Nutzer:in auf eine Art und Weise kommuniziert, dass man meinen könnte, man spräche mit einem Menschen. Seit dem 1. März 2023 kann ChatGPT per API abgefragt werden.

Während ChatGPT defi­ni­tiv die erste öffent­lich zugäng­li­che, große künst­li­che Intel­li­genz für den Dialog mit tech­ni­schen Syste­men ist, ist die Tech­no­lo­gie schon älter und kommt alles andere als aus dem Nichts. Andere haben sich auch schon daran versucht: Meta veröf­fent­lichte am 22. Novem­ber 2022 seinen Resea­rch-Paper-Verste­her Galac­tica, zog ihn aber wegen Toxizität und der Unfähigkeit, Fakt von Fiktion zu unterscheiden, innerhalb von drei Tagen wieder aus dem Verkehr. Google veröffentlichte sein LaMDa-Modell zwar erst in diesem Jahr unter dem Namen Bard, angekündigt hatte der Konzern es aber schon Mitte 2021.

Wie funktioniert ChatGPT?

Alle Large Language Models sind neuro­nale Netz­werke, die als Eingabe eine nume­ri­sche Reprä­sen­ta­tion von Text erhal­ten, also eine tabel­la­ri­sche Umset­zung von Wörtern in Werte. Diese nume­ri­sche Reprä­sen­ta­tion kodiert das gemein­same Auftre­ten von Wörtern – und damit über­ra­schend gut die Seman­tik von Spra­che.

Auf dieser Reprä­sen­ta­tion eines Trai­nings­da­ten­sat­zes lernen die GPT-Modelle, welche Konstel­la­ti­o­nen von Wörtern mit welcher Wahr­schein­lich­keit in einem Text auftre­ten. Anhand dieser versucht das Modell, einen Chat­ver­lauf zu einem sinn­vol­len Ende zu brin­gen, indem es das nächste Wort vorher­sagt. ‚Sinn­voll‘ bedeu­tet hier­bei ‚sta­tis­tisch wahr­schein­lich‘. Damit das Modell flexi­bel bleibt, wählt es nicht immer nur den wahr­schein­lichs­ten Antwort­pfad, sondern zufäl­lig einen aus den x Wahr­schein­lichs­ten.

Das zugrun­de­lie­gende neuro­nale Netz­werk ist eine Verbes­se­rung (Fine­tu­ning) des GPT-3 (Generative Pretrained Transformer) -Modells, GPT-3.5 turbo, in einer Implementierung, die auf das Erfüllen von Anweisungen (InstructGPT) spezialisiert ist.

GPT-3 wurde auf einem sehr großen Daten­satz trai­niert. Dieser enthält Common Crawl und WebText2 (‚das‘ Inter­net), Books1 und Books2 (tausende Bücher) und die gesamte Wiki­pe­dia – diese ist am Umfang gemes­sen das kleinste Element.

Um dieses Daten­vo­lu­men als Zahlen reprä­sen­tie­ren zu können, braucht das Modell 175 Milli­ar­den Para­me­ter, also Erin­ne­run­gen an den Trai­nings­text. Oder anders gesagt: Heuris­ti­ken zu den Zusam­men­hän­gen von beob­ach­te­ter Spra­che.

Die von OpenAI verwen­de­ten Version wurde mittels Reinforcement Learning from Human Feedback verbessert: Menschen haben die Ausgaben des Modells bewertet, um die Antworten weniger toxisch zu machen und inhaltlich zu verbessern.

Was können ChatGPT und vergleichbare generative Large Language Models?

ChatGPT soll als Assis­tent wirken. Dies deckt sich teil­weise auch mit tatsäch­lich beob­acht­ba­ren Stär­ken.

Unterstützung bei Textgeneration und Korrektur

  • Der Chat­bot kann aus losen Anwei­sun­gen Entwürfe für Code, Blog­ar­ti­kel – nein, nicht diesen! – und Text­con­tent jeder Art gene­rie­ren, nicht nur auf Deutsch und auf Englisch. Hier­bei ist seine Stärke das allge­mein Gehal­tene, also die unge­fähre Form von Text.
  • Programm­code für wohl­ver­stan­dene Probleme kann je nach Spezi­fi­ka­tion in der Regel direkt kompi­liert und ausge­führt werden. Ein Blog­ar­ti­kel würde dem noch unge­üb­ten Auge viel­leicht gar nicht als maschi­nell gene­riert auffal­len.
  • Modelle dieser Art können auch korrek­tiv ange­wen­det werden. Mit etwas Glück findet ChatGPT Fehler in Programm­code und korri­giert alle Recht­schreib­feh­ler – ohne neue einzu­bauen.

Ein dickes Aber: Kein Output sollte unhin­ter­fragt als ferti­ges Produkt verwen­det werden. Fehler, Miss­ver­ständ­nisse und Inef­fi­zi­en­zen sind dank der statis­ti­schen Natur der Algo­rith­men unaus­weich­lich. Außer­dem sind klas­si­sche Modelle in ihren Trai­nings­da­ten auf einen Zeit­raum begrenzt, können also nur bedingt auf neues­tes Wissen zugrei­fen.

Sensi­ble Daten wie interne E-Mails oder Sitzungs­no­ti­zen soll­ten nicht an externe Sprach­mo­delle weiter­ge­ge­ben werden. Diese Daten werden auf den Servern der Anbie­ter abge­spei­chert und sind damit nicht mehr ausrei­chend geschützt.

Klassische Chatbot Funktion

Mit einer API zur Abfrage von Prompts (Einga­be­auf­for­de­run­gen) eröff­net sich die Möglich­keit, gene­ra­tive Sprach­mo­delle in einen eige­nen Chat­bot zu inte­grie­ren. Large Language Models ermög­li­chen das Erken­nen und Zuord­nen von Inhal­ten zu inter­nen Funk­ti­ons­auf­ru­fen – und damit endlich intel­li­gente Chat­bots, die nicht nur auf Fragen tref­fende Antwor­ten heraus­ge­ben (wie Q&A-Funk­ti­o­na­li­tä­ten), sondern auch korrek­tes Vorge­hen ablei­ten können.

Aller­dings gibt es auch Schwie­rig­kei­ten bei wich­ti­ger gene­ra­ti­ver Funk­ti­o­na­li­tät, wie Verläss­lich­keit des Service oder Garan­tien über Inhalte des gene­rier­ten Textes. Im Kunden­kon­takt ist das soge­nannte „toxi­sche Verhal­ten“ beson­ders gefähr­lich.  

Warum produzieren Large Language Models toxische Ausgaben?

Die neuro­na­len Netz­werke kodie­ren beob­ach­tete Wort­kon­stel­la­ti­o­nen über ihre Trai­nings­da­ten. Da der Trai­nings­da­ten­satz aus Text besteht, der von Menschen produ­ziert wurde, enthält dieser auch all die uner­wünsch­ten Inhalte, die im Inter­net veröf­fent­licht wurden. Dazu gehö­ren Wort­kon­stel­la­ti­o­nen, die rassis­ti­sches, sexis­ti­sches, homo­pho­bes, trans­pho­bes und anti­se­mi­ti­sches Gedan­ken­gut kodie­ren. Die Large Language Models repro­du­zie­ren diese in entspre­chen­dem Kontext.

OpenAI legt großen Wert darauf, ChatGPT und KI im Ganzen sicher zu machen. Hierzu werden beispiels­weise Ausga­ben, die uner­wünsch­tes Gedan­ken­gut enthal­ten, in Warn­hin­weise zu ethi­schem Verhal­ten umge­wan­delt. Es handelt sich aber um ein offenes Problem, solche Ausgaben zu erkennen und zu verhindern.

Wrap up: Unser Fazit zu Einsatz, Risikomanagement und Informationssicherheit

Wir bespra­chen, was ChatGPT ist, wie ein Large Language Model funk­tio­niert und wofür man es gut benut­zen kann. Nicht nur wegen orga­ni­sa­to­ri­scher Fakto­ren – wie europäischer regulatorischer Ansätze und dem Datenschutz – sondern auch wegen ethischer Probleme ist der Aufbau von Infrastruktur um Large Language Models derzeit nicht risikofrei.

Es gibt zwar schon jetzt Open Source Alter­na­ti­ven zu ChatGPT. Diese haben jedoch die glei­chen tech­ni­schen Beschrän­kun­gen – und häufig viel schlech­tere oder gar keine Safety-Imple­men­tie­run­gen. Auch muss abge­wo­gen werden, ob es sich lohnt, große Modelle lokal laufen zu lassen. Für einen simplen Chat­bot lohnt sich dieser Aufwand kaum.

Die Empfeh­lung lautet für Large Language Models wie für Künst­li­che Intel­li­genz im Allge­mei­nen. Um nicht abge­hängt zu werden, müssen Unter­neh­men prüfen, ob und wie sich Prozesse durch den Einsatz von KI verbes­sern lassen oder ob mit KI neue Wert­schöp­fungs­mög­lich­kei­ten entste­hen können, die es zu entde­cken und abzu­schöp­fen gilt. Bei alle­dem sind insbe­son­dere bei Einbin­dung von exter­nen Model­len Risi­ko­ma­na­ge­ment (recht­lich, orga­ni­sa­to­risch, tech­nisch) und Infor­ma­ti­ons­si­cher­heit wich­tige Themen.

Gene­ra­tive KI steht noch in ihren Anfän­gen und kann schon jetzt beein­dru­cken. Sie bleibt, auch wenn Regu­la­to­rien sicher folgen werden. Durch flexi­ble Imple­men­tie­run­gen können sich Unter­neh­men jetzt gut für die Zukunft aufstel­len.

Portraitfoto eines Mannes

Unser Experte

Gabriel Storch

ist ange­hen­der Infor­ma­ti­ker und Werk­stu­dent im KI-Team bei der HEC. Seine Schwer­punkte liegen hier unter ande­rem auf Chat­bots und maschi­nel­ler Spra­ch­er­ken­nung. Die Möglich­keit, durch quan­ti­ta­tive Aussa­gen Wert­schaf­fung für Alle zu ermög­li­chen und zu begüns­ti­gen, treibt ihn an. Dabei soll Data Science helfen.