LLM-Parameter: Ein umfassender Überblick für Einsteiger

Du hast schon von LLMs (Large Language Models) gehört und bist neugierig, was diese Parameter wie “Temperatur”, “Seed” oder “Num_ctx” bedeuten und wie man sie effektiv nutzt? Dann bist du hier genau richtig! In diesem Beitrag erklären wir die wichtigsten Parameter, die dir bei der Arbeit mit LLMs wie Ollama helfen können.

Lass uns direkt ins Thema eintauchen:

1. Temperatur:

Die Temperatur beeinflusst die Kreativität des Modells. Eine niedrige Temperatur (z. B. 0.2) sorgt für präzisere, aber möglicherweise weniger kreative Antworten. Eine hohe Temperatur (z. B. 1.0) fördert kreativere, aber auch riskantere Ergebnisse. Das Modell wählt dann Wörter mit geringerer Wahrscheinlichkeit, was zu überraschenden, aber möglicherweise auch sinnlosen Antworten führen kann.

2. Num_ctx (Kontextgröße):

Dieser Parameter bestimmt, wie viel Text das Modell als Kontext verwenden kann. Eine größere Kontextgröße ermöglicht es dem Modell, sich an längere Unterhaltungen zu erinnern und komplexere Aufgaben zu bewältigen. Allerdings benötigen größere Kontexte mehr Ressourcen und können für Geräte mit begrenztem Arbeitsspeicher problematisch sein.

3. Stop-Wörter und -Phrasen:

Manchmal gerät ein LLM in eine Schleife und wiederholt sich immer wieder. Um dies zu verhindern, kann man Stop-Wörter oder -Phrasen definieren. Sobald das Modell diese erkennt, stoppt es die Generierung von Text.

4. Repeat-Penalty (Wiederholungsstrafe):

Dieser Parameter verhindert, dass das Modell bestimmte Wörter oder Phrasen zu häufig verwendet. Eine hohe Wiederholungsstrafe macht es weniger wahrscheinlich, dass das Modell etwas wiederholt, während eine niedrige Strafe eher zu Wiederholungen führt.

5. Repeat_last_n:

Dieser Parameter definiert das Fenster, in dem das Modell nach Wiederholungen sucht. Ein größeres Fenster bedeutet, dass das Modell sich an mehr Text erinnern kann und Wiederholungen besser erkennen kann.

6. Top_k:

Top_k bestimmt, wie viele der wahrscheinlichsten Wörter in die Auswahlliste für das nächste Wort gelangen. Ein niedriger Wert von Top_k führt zu präziseren, aber möglicherweise weniger kreativen Antworten. Ein höherer Wert von Top_k kann zu überraschenderen, aber auch sinnlosen Antworten führen.

7. Top_p:

Top_p ist ähnlich wie Top_k, jedoch betrachtet es die Wahrscheinlichkeit der Wörter anstelle der Anzahl. Es wählt die wahrscheinlichsten Wörter aus, deren Wahrscheinlichkeiten zusammen einen bestimmten Schwellenwert (Top_p) erreichen.

8. Min_p:

Min_p ist eine Alternative zu Top_p. Es betrachtet die Logits (unskalierte Wahrscheinlichkeiten) und wählt nur Wörter aus, deren Logit-Wert größer ist als ein bestimmter minimaler Wert.

9. Tail-Free Sampling:

Tail-Free Sampling ist eine Technik, die die Wahrscheinlichkeiten von unwahrscheinlichen Wörtern reduziert, um weniger sinnlose Antworten zu erzeugen.

10. Seed:

Der Seed bestimmt die zufällige Reihenfolge, in der das Modell Wörter auswählt. Ein fester Seed sorgt dafür, dass das Modell bei der gleichen Eingabe immer die gleiche Antwort generiert.

11. MirrorStat:

MirrorStat ist eine Technik, die die Wahrscheinlichkeiten von Wörtern anhand der Perplexität und Überraschung des Modells anpasst. Perplexität misst, wie gut das Modell die Wahrscheinlichkeit des nächsten Wortes in einer Sequenz vorhersagen kann. Überraschung ist ein metaphorischer Begriff, der beschreibt, wie “überrascht” das Modell von der Ausgabe ist.

MirrorStat-Parameter:

  • tau: Steuert das gewünschte Level der Perplexität und beeinflusst die Balance zwischen Kohärenz und Diversität der Ausgabe.
  • eta: Die Lernrate, die beeinflusst, wie schnell sich das Modell an neue Textmuster anpasst.

12. Num_predict:

Dieser Parameter bestimmt die maximale Anzahl an Wörtern, die das Modell generieren soll. Ein Wert von -1 bewirkt, dass das Modell den Text generiert, bis es ein Stopp-Wort oder -Phrase findet.

Wie man Parameter nutzt:

Es gibt verschiedene Möglichkeiten, um Parameter zu nutzen:

  • Model-Datei: Einige Parameter können in der Model-Datei definiert werden.
  • Befehlszeile: Einige Parameter können in der Befehlszeile beim Ausführen des Modells eingestellt werden.
  • Benutzeroberfläche: Die Ollama-Benutzeroberfläche bietet die Möglichkeit, einige Parameter zu konfigurieren.

Experimentieren ist der Schlüssel!

Die optimale Kombination von Parametern hängt von der jeweiligen Aufgabe und den gewünschten Ergebnissen ab. Experimentiere mit verschiedenen Einstellungen und finde heraus, was für dich am besten funktioniert!

Wir hoffen, dieser Beitrag hat dir einen guten Überblick über die wichtigsten LLM-Parameter gegeben! Wenn du Fragen hast, lass sie uns gerne in den Kommentaren wissen. Bleib dran für weitere Beiträge über die faszinierende Welt der LLMs!