ChatGPT sinnvoll nutzen

Wer ChatGPT regelmäßig nutzt, der stört sich schnell an den oft ungenauen oder sogar falschen Behauptungen und Aussagen. Wenn das Ergebnis mühsam überprüft werden muss, macht es das oft schwer, ChatGPT sinnvoll zu nutzen. Doch ChatGPT kann in seiner Grundform aber kaum perfekt sein. Denn es soll eigentlich keine Fakten liefern, sondern dynamisch Anweisungen verarbeiten und in der Regel das Ergebnis in Textform ausgeben.

Übersicht

Wer mit ChatGPT nicht nur allgemeine, sondern spezifische Probleme lösen will, der muss es tunen und pimpen. Dafür gibt es verschiedene Lösungswege. Welche Möglichkeiten man in der Praxis verwendet sollte, hängt von den persönlichen Fähigkeiten ab. Wer programmieren kann, der hat mehr Möglichkeiten. Manchmal reicht auch eine konkreter formulierte Anweisung in natürlicher Sprache.

  • Software und Dienste auf Basis der OpenAI-API nutzen
  • Prompt Engineering und Prompt Design
  • Finetuning (Feinabstimmung)

Hinweis: Ein Prompt ist die Anweisung oder Frage in natürlicher Sprache, der von einem Sprachmodell ausgewertet wird und woraus dann wiederum eine Ausgabe in natürlicher Sprache erfolgt.

Software und Dienste auf Basis der OpenAI-API nutzen

Im Schatten von OpenAI erstellen Software-Entwickler auf Basis der OpenAI-API eigene Software und Dienste, die spezifische Aufgaben mit Hilfe von KI-Sprachmodellen erfüllen können.
Wenn man in einen beliebigen App-Store und Verzeichnissen nach KI oder ChatGPT sucht, dann wird man regelrecht von Apps überflutet, die irgendetwas mit KI oder ChatGPT machen. Im Prinzip werden da Frontends für die API von OpenAI verkauft, die ähnlich wie ChatGPT funktionieren, aber versprechen, eine bessere Datenausgabe zu liefern. Dazu gibt die Software oder der Dienst ein Nutzungsszenario vor, optimiert die Dateneingabe und stellt die Verarbeitungsparameter passend zum Nutzungsszenario ein, wodurch sich die Ausgabequalität unter Umständen verbessert.
Da die Nutzung der API von OpenAI kostenpflichtig ist, sind es die Apps und Dienste in der Regel auch.

Bei genauerem Hinsehen machen die Apps und Dienste aber nur zwei Dinge:

  • Prompt Design mit ergänzenden Formulierungen zur Nutzereingabe
  • Variierende KI-Modellparameter zur Beeinflussung der Qualität der Datenausgabe

Was die Apps machen, das kann man teilweise selber machen, ohne sich mit den technischen Details der KI auseinanderzusetzen zu müssen.

Prompt Engineering und Prompt Design

Die Qualität der Antworten vom Chatbot ChatGPT hängt stark davon ab, was dem Chatbot als Eingabe geliefert wird. Wenn die Ausgabequalität nicht ausreicht, dann muss man die Eingabe ändern. Das bezeichnet man dann als Prompt Design.
Wenn man weiß, was man will und wie das Ergebnis aussehen soll, dann ist das schon der erste Schritt in die richtige Richtung. Jetzt geht es nur noch darum, die eigenen Anforderungen in natürlicher Sprache in einer eindeutigen Anweisung, den sogenannten Prompt, zu formulieren.

Der Prompt steht für die Eingabe des Nutzers, mit der ein KI-Sprachmodell die Anweisung ableitet und daraus die Ausgabe in Form einer Antwort oder eines Ergebnisses generiert.

Prompt Engineering und Prompt Design sind zwei verschiedene Ansätze, die sich mit der Erstellung von Anweisungen für KI-Sprachmodelle beschäftigen, um die Genauigkeit einer KI-generierten Antworten zu verbessern.

Beim Prompt Engineering geht es um die Optimierung der KI-Modellparameter. Dabei werden die Variablen des Modells, mit denen es Vorhersagen trifft, so angepasst, dass sich die Qualität und die Genauigkeit der Modellantworten verbessert, und dadurch relevanter, hilfreicher und vielleicht auch richtiger sind.
Prompt Design konzentriert sich mehr auf die Formulierung einer Anweisung. Es ist die Kunst, wie eine Anweisung oder ein Prompt formuliert sein muss, dass die Ausgabe dem zu erwartenden Ergebnis am ehesten entspricht.

Prompt Engineering und Prompt Design haben den Vorteil, dass man das direkt in ChatGPT machen kann. Das hilft, das gewünschte Verhalten und die Reaktionen des Modells zu steuern. Über eine Reihe miteinander verbundener Eingabeaufforderungen (Chat in ChatGPT), kann man sogar eine „Gedankenkette“ bilden.

Der Vorteil beim Prompt Design ist, dass man keine Ahnung von KI, dem Sprachmodell und den technischen Hintergründen haben muss. Im einfachsten Fall nähert man sich dem optimalen Ergebnis durch Versuch und Irrtum an. Also durch Verändern der Anweisung, bis das Ergebnis den Anforderungen entspricht.
Eine wohlformulierte Anweisung kann die Genauigkeit einer KI-generierten Antwort erheblich verbessern. Beispielsweise, wenn der Kontext, das gewünschte Ergebnis in Art, Länge, Format und Stil angewiesen wird. Wenn man das nicht so spezifisch nennen kann, dann hilft es die Rolle zu benennen, für wen der Text geschrieben werden soll.

Beispiel am Thema KI

Prompt 1: Was ist KI?

ChatGPT: KI steht für künstliche Intelligenz. Es handelt sich dabei um ein Gebiet der Informatik, das sich mit der Entwicklung von Algorithmen und Computersystemen befasst, die in der Lage sind, Aufgaben zu erledigen, für die normalerweise menschliche Intelligenz erforderlich ist. Das Ziel der künstlichen Intelligenz ist es, Maschinen so zu gestalten, dass sie in der Lage sind, zu lernen, zu verstehen, zu planen, zu handeln und Probleme zu lösen.

Prompt 2: Erkläre den Begriff KI so, dass es auch ein 10-jähriger versteht.

ChatGPT: Künstliche Intelligenz (KI) ist wie ein Superhirn für Computer. Stell dir vor, du lehrst einem Computer, wie er Aufgaben selbstständig erledigen kann, genau wie du Dinge lernst. Zum Beispiel könnte ein Computer lernen, Katzen von Hunden zu unterscheiden, indem er viele Bilder von Katzen und Hunden betrachtet. Wenn er genug gelernt hat, kann er selbstständig sagen, ob ein Bild eine Katze oder einen Hund zeigt. Das ist so, als ob der Computer denkt, "Oh, das sieht aus wie eine Katze, also muss es eine Katze sein."

Hinweis: In beiden Ausgaben von ChatGPT geht es nicht darum, ob es richtig oder falsch ist, sondern worin sich das Ergebnis unterscheidet. Während beim ersten Prompt die Ausgabe sehr allgemein und langweilig wirkt, ist die zweite Ausgabe eher bildhaft an einem Beispiel angelehnt.

Finetuning (Feinabstimmung)

Wenn man aus den Sprachmodellen von OpenAI das Optimum herausholen will, dann kommt man nicht darum herum eine Finetuning (Feinabstimmung) zu betreiben. Im einfachsten Fall reicht hierfür schon Prompt Engineering und Prompt Design aus.

Wenn man allerdings schon die API von OpenAI nutzt, dann hat man für die Feinabstimmung mehr Möglichkeiten. Der Nachteil davon ist natürlich, dass man dafür Programmieren können muss. Außerdem muss man ausprobieren, wie sich bestimmte Parameter im Zusammenhang mit anderen Parametern auswirken.

Wir besprechen folgende Parameter:

  • Token-Limit (number of tokens)
  • Temperatur (temperature)
  • Top P (top-p)

Token-Limit (number of tokens)

In einem KI-Sprachmodell entsprechen einzelne Wörter oder auch nur Worteile einem Token.
Das Token-Limit gibt an, wie viele Token die Eingabeaufforderung als auch die generierte Antwort zusammen umfassen darf. Hierbei kann man begrenzen, wie viele Token die Ausgabe umfassen darf, wenn man eine zu lange Ausgabe erwartet. Gleichzeitig begrenzt man dadurch die Dauer der Rechenzeit und die Kosten, die durch den Verbrauch der Rechenleistung entsteht.

Beim Token-Limit ist zu beachten, dass die Länge der Eingabe die Länge der Ausgabe begrenzt.
Beispiel: Ist eine Anfrage aus Kostengründen auf 1000 Token begrenzt, und die Eingabe verbraucht schon 500 Token, dann stehen für die Ausgabe nur noch 500 Token zur Verfügung. Wenn die Anzahl der Token für die Ausgabe zu knapp ist, dann kann es passieren, dass die Antwort einfach abgebrochen wird und unvollständig ist.

Temperatur (temperature)

Die Temperatur beeinflusst die Zufälligkeit der Antworten bzw. den Spielraum der Antwortmöglichkeiten des Sprachmodells. Eine hohe Temperatur, z. B. der Maximalwert von 1.0, erzeugt eine vielfältige, abwechslungsreiche, scheinbar kreative, aber inhaltlich abweichende Antwort. Im Gegensatz dazu erzeugt eine niedrige Temperatur, z. B. mit einem Wert von 0.1, eine deterministischere Antwort. Letzteres eignet sich, wenn ein fokussiertes und spezifisches Ergebnisse erwartet wird. Die Antwort ist dann aber langweiliger zu lesen.

Top P (top p)

Der Top P-Parameter ist eine Alternative, um den Spielraum der Antwortmöglichkeiten des Sprachmodells zu beeinflussen. Ein niedriger Wert, beispielsweise 0.2, führt zu sichereren und fokussierteren Ergebnissen. Ein hoher Wert wie 0.9 umfasst eine breitere Auswahl an Wörtern, was zu vielfältigeren Ergebnissen führt.
Es wird empfohlen entweder die Temperatur oder Top P anzupassen, aber nicht beides zusammen.

Weitere verwandte Themen:

Frag Elektronik-Kompendium.de

Die Computertechnik-Fibel, das Computer-Buch
Computertechnik-Fibel

Alles was Sie über Computertechnik wissen müssen.

Die Computertechnik-Fibel ist ein Buch über die Grundlagen der Computertechnik, Prozessortechnik, Halbleiterspeicher, Schnittstellen, Datenspeicher, Laufwerke und wichtige Hardware-Komponenten.

Das will ich haben!

Die Computertechnik-Fibel, das Computer-Buch
Computertechnik-Fibel

Alles was Sie über Computertechnik wissen müssen.

Die Computertechnik-Fibel ist ein Buch über die Grundlagen der Computertechnik, Prozessortechnik, Halbleiterspeicher, Schnittstellen, Datenspeicher, Laufwerke und wichtige Hardware-Komponenten.

Das will ich haben!

Elektronik-Set Raspberry Pi Edition
Elektronik-Set Raspberry Pi Edition

Elektronik erleben mit dem Raspberry Pi mit Python und GPIO Zero

  • Leichter Einstieg ins Hardware-nahe Programmieren mit Python und GPIO Zero
  • Experimentieren und Programmieren ohne Vorkenntnisse
  • Sofort Loslegen mit All-in-one-Set

Elektronik-Set jetzt bestellen