Prozess Management, Data Science, Automatisierung und KI

Ist die Gefahr durch ChatGPT real?

Die Artikel und Posts zum Einsatz von KI-Tools überschlagen sich gerade. Die Euphorie und das große Potential der KI-Technologie an sich sind durchaus berechtigt. Der Hype um KI-Modelle wie ChatGPT übergeht dabei aber einen entscheidenden Aspekt: Verantwortung. In diesem Artikel möchte ich auf die Möglichkeiten, Stolperfallen und Gefahren beim Einsatz von großen Sprachmodellen eingehen und für einen überlegten Umgang mit der Technologie werben.

KI-Anwendungen sind differenziert zu bewerten. Insbesondere die Verantwortung für die erzeugten Ergebnisse spielt eine Rolle, wo der Einsatz sinnvoll ist.

ChatGPT als ein Large-Language-Model (LLM)

Wie funktionieren LLMs wie ChatGPT?

Diese Modelle sind in der Lage, Antworten auf neue und offene Fragen zu generieren. Das Modell baut Sätze nach dem Prinzip auf, welches Wort oder Satzstück am wahrscheinlichsten als nächstes folgt. Dabei basieren diese Sätze auf den Trainingsdaten: große Mengen an Texten z.B. aus dem Internet. Dass das regelmäßig zu erfundenen Fakten und nicht-kausalen Argumentationen führt ist inzwischen bekannt. Auch wird vor dem Hintergrund der Funktionsweise klar, welche große Bedeutung den Trainingsdaten zuzuschreiben ist. Denn auch auf Fragen, die im Training nicht einmal implizit beantwortet werden, wird das Modell ein Antwort ausgeben ohne mit der Wimper zu zucken.

Wofür eigenen sich große generative KI-Modelle?

Generative KI-Modelle eignen sich vor allem, um schnell und effizient Ideen, Entwürfe und Vorschläge für verschiedene Medienformen, z.B. aus Text, Bild und Ton, zu generieren. Wichtig ist, dass dieses Ergebnis danach vom Fachexperten überprüft und fertig ausgearbeitet wird. Dadurch kann die Konzeptionsphase verkürzt werden und mehr Inspirationen in kürzerer Zeit einbezogen werden. Beim Einsatz sollte immer sichergestellt werden, dass die KI den Teil übernimmt, der die Variation von grundsätzlich richtigen, vorgegebenen Inhalten betrifft. Hierbei entsteht großes Potential für die Systematisierung von Kreativität.

Wo macht der Einsatz keinen Sinn?

Aus meiner Sicht ist in Bereichen Vorsicht geboten, in denen auf Fakten basierende Ergebnisse oder deterministische Regeln eine wichtige Rolle spielen. So sind zum Beispiel technische Dokumentationen zwar auch eine Form von Text, jedoch stellen sie deterministische Beschreibungen bzw. Abbildungen der technischen Funktionen eines Geräts dar. Damit werden meist gesetzliche Vorgaben erfüllt. Die Verantwortung für eine ordentliche Dokumentation trägt das Unternehmen und eine Verletzung hätte sowohl erheblichen Schaden der Reputation zur Folge als auch regulatorische Konsequenzen. Das Ergebnis eines LLMs, also der Textvorschlag der KI, müsste daher nicht nur auf Plausibilität, sondern in jedem Detail auf technische Korrektheit überprüft werden, was die Fachkraft vermutlich nicht minder beansprucht als das Schreiben der Dokumentation selbst. Ich stelle daher in Frage, ob solche Anwendungs-Szenarien einen großen Produktivitätsgewinn bedeuten würden?

Was ist ein sinnvoller Umgang mit dem Thema KI?

Die entscheidende Frage beim Einsatz von KI ist: Wer ist für das Ergebnis am Ende verantwortlich? Vor diesem Hintergrund erscheint auch der Use-Case, sich in Steuerfragen an ChatGPT anstatt an einen Steuerberater zu wenden, nicht sehr nachhaltig – diese Idee musste ich tatsächlich als Beispiel für Zeit- und Geldersparnis in einem sozialen Netzwerk lesen. Als Spielerei vielleicht ganz nett, aber ich würde unternehmerische Entscheidungen nicht dem Würfelglück überlassen.

Für den sinnvollen Einsatz von KI müssen wir genauer auf die jeweilige Aufgabe oder Entscheidung schauen. Anstatt auf sich auf die Einsatzmöglichkeiten von vorhandenen generativen Modelle zu fokussieren, wäre es wichtiger, neue Anwendungsfälle (nicht unbedingt generativer Art) zu entdecken und bewerten zu können. Um neue KI-Modelle zu entwickeln und damit tatsächlich sinnvolle Aufgaben zu automatisieren sind neben betriebswirtschaftlichen Fähigkeiten vor allem Systemdenken, methodisches Vorgehen und Prozessorientierung notwendig.

Fazit

Wer im Unternehmen verantwortlich ist für die Ergebnisse der einzelnen Arbeitsschritte, muss Gewissheit in die Güte der eingesetzten Methoden entwickeln. Hier blind einem großen Sprachmodell zu vertrauen ist in vielen Fällen nicht ratsam. Die eigene Kontrolle über eine KI-Anwendung erweist sich als wesentlicher Hebel, um tatsächlich Mehrwert mit KI-Technologie zu generieren. So kann man sich auch als Unternehmen guten Gewissens hinter die Anwendung stellen.
Dazu zum Abschluss ein positives Beispiel aus dem Bereich der Sprachsynthese: Zur Übersetzung von Dialogen in Computerspielen wurde bisher mit viel Aufwand jeder Satz in jeder Sprache und Variation einzeln durch einen Sprecher in Ton-Studios aufgenommen. Ein spannender Einsatz von KI-Modellen liegt in der phonetischen Synthese (Text-to-Speech genannt) von übersetzten Texten auf eine emotional authentische Weise, die man einer KI antrainieren kann. Dies erzeugt mehr Flexibilität und Geschwindigkeit in der Entwicklung von Spielen. Die kontrollierte Anwendung der KI-Technologie sichert dabei ab, dass kein falscher Inhalt erzeugt wird.

Wenn Sie tiefer in das Thema KI Anwendungen einsteigen möchten schauen Sie sich unsere Seminarangebote an.

Bei Fragen oder Anregungen freuen wir uns über Ihre Nachricht.