👑 Prompting King & Prompting Queen 👑

Prompting trainieren & Prompts gezielt erzeugen: Tools für präzise Ergebnisse

Mit diesen drei komplementären Tools übst du Prompting systematisch und erstellst passgenaue Prompts für unterschiedliche Sprachmodelle. Die ideale Übungsspielwiese, um die Unterschiede von LLM zu erfahren.

Was ist ein LLM? Ein Large Language Model ist ein großes Sprachmodell, das auf umfangreichen Textdaten trainiert wurde, um Sprache zu verstehen und Texte zu erzeugen. Es sagt vereinfacht das nächste sinnvolle Token voraus und kann dadurch Antworten formulieren, zusammenfassen, umschreiben oder strukturieren. Beispiele sind ChatGPT, Claude oder Gemini. Beachte: LLMs können Fehler („Halluzinationen“) machen und Trainingsdaten-Bias enthalten.
CustomGPT
Coaching

Tool 1: Prompting Queen

Prompting Queen ist eine fragend-entwickelnde Assistentin: Sie führt Schritt für Schritt zu einem hochwertigen Prompt. Du wählst das Ziel-LLM, und die Prompting Queen entwicklelt dann basierend auf den Vorgaben der Modellentwickler ko-aktiv mit Dir den optimalen Prompt für das jeweilige LLM.

So nutzt du das Tool:

  • Starten und Ziel-LLM wählen (z. B. ChatGPT, Claude, Gemini)
  • Bausteine aus dem Cheat Sheet anlegen und ausfüllen (z.B. Zweck, Kontext, Format, Beispiele, Grenzen)
  • Fertigen Prompt kopieren und im gewünschten LLM einsetzen

zur Prompting Queen

Mehrwert: Strukturierte Prompt-Entwicklung basierend auf den aktuellen Frameworks der Modell-Entwickler.
Training

Tool 2: Prompting King

Dieses interaktive Übungstool führt ebenfalls durch die Bausteine guten Promptings nach den Frameworks der Entwickler (zum Beispiel Ziel, Kontext, Output-Format, Kriterien, Beispiele, Grenzen). Direkt neben dem Eingabefenster wird ein Cheat-Sheet eingeblendet, das Dir eine Struktur bietet und verdeutlicht, was beim jeweiligen LLM zu beachten ist. Basierend auf diesen Informationen baust Du Deinen Prompt aus Textblöcken zusammen. Deine Eingaben werden zu einem klaren Prompt zusammengefügt – mit XML bzw. Markdown.

Tauglich für:

  • Übung und Verinnerlichung von Frameworks

So nutzt du das Tool:

  • Bausteine aus dem Cheat Sheet als Textfelder anlegen
  • Textfelder ausfüllen
  • Prompt generieren, im LLM testen und Ergebnisse prüfen
  • Überarbeitung: Beispiele/Kriterien anpassen, erneut testen

zum Prompting King

Mehrwert: Sichtbare Prompt-Bausteine und LLM-Anpassung.
Austausch
Gruppenmodus

Tool 3: Text Swapper – zufälliger Tausch von Texten

Mit dem Text Swapper schreiben Teilnehmende kurze Texte (z. B. Szenarien aus dem beruflichen oder schulischen Alltag) in einen gemeinsamen Raum. Die/der Host verteilt die Texte per Klick zufällig – ohne dass jemand den eigenen Text erhält.

zum Text Swapper

Funktioniert mit Echtzeit-Sync (Raum-Code teilen). Ideal für schnelle Perspektivwechsel, Peer-Review und Kreativitätstechniken.

Szenarien austauschen – so geht’s in 3 Minuten

  • 1. Raum öffnen: Host startet den Text Swapper, wählt Rolle „Host“ und setzt einen Raum-Code. Code kurz teilen.
  • 2. Szenario eingeben: Teilnehmende wählen „Teilnehmende:r“, tragen denselben Raum-Code und einen Anzeigenamen ein, schreiben ihr Szenario und klicken Hochladen.
  • 3. Zufällig zuweisen: Wenn alle fertig sind, klickt der Host auf Zuweisen – jede Person erhält einen fremden Text (keine Selbstzuweisung).
Einsatzideen: Perspektivwechsel (Fallbearbeitung), Kurz-Reviews, Schreibanlässe, Warm-ups.

Empfohlene Unterrichtsszenarien

  • Mini-Input & Übung (20–30 min): Kurze Einführung, dann im Prompt-Generator einen ersten Prompt bauen und direkt testen.
  • Vergleich LLM-Antworten (45–90 min): Zum gleichen Inhalt Prompts für unterschieldiche Sprachmodelle erstellen, in den jeweiligen LLMs testen, Ergebnisse vergleichen.

Reflexion

  • Treten Halluzinationen auf?
  • Ist der Output biasfrei?
  • Hat das LLM alle Hinweise des Promptes berücksichtigt?
  • Welche Anpassungen des Outputs hältst Du für notwendig?
  • Stimmen die Quellenangaben?
Hinweis: Bei Eingaben Datenschutz & Urheberrecht beachten. Output immer kritisch reflektieren, nicht nur bezogen auf Bias und Halluzinationen. Menschen vertrauen maschinellem Output leider mehr, als menschlichem (Automation Bias). LLM sind "Wahrschbeinlichkeitsmaschinen", keine Wahrheitsmaschinen, prüfe also sehr genau.

Kommentare

Beliebte Posts aus diesem Blog

KI-Kompetenzen ermitteln und fördern

KI-Kompetenzen für Lehrende und Lernende: Ein adaptierbares Modell für die Praxis

Vom Konsens zum Feedback: Bewertungsbogen aus gemeinsamer Kriteriengewichtung