Live Prompt Check
Schick einen Prompt parallel an ChatGPT, Perplexity, Claude, Gemini, Copilot und Grok — mit und ohne Web-Search. Vergleiche die Antworten live, mit Sentiment und Brand-Erwähnungen.
Live Prompt Check ist Rankions Tool für Ad-hoc Multi-LLM-Vergleiche. Im Gegensatz zu AI-Visibility Tracking (kontinuierliches Monitoring mit Schedule) ist Live Prompt Check ein Einzel-Run auf Knopfdruck: Eingabe → 8-12 LLM-Antworten parallel → Live-Karten-Ansicht → speichern + exportieren.
Was es kann
- Multi-LLM-Fan-out — ein Prompt geht an ChatGPT, Perplexity, Claude, Gemini, Copilot, Grok (je verfügbar).
- Mit/ohne Web-Search — pro Plattform separater Toggle. Du siehst nebeneinander wie sich Wissen mit live-Browsing ändert.
- Live-Anzeige — Karten füllen sich progressiv. Polling alle 3s, kein F5 nötig. Wenn eine LLM 30s braucht, ist der Rest schon längst da.
- Sentiment + Brand-Extract — jede Antwort wird automatisch klassifiziert (positiv/negativ/neutral/nicht erwähnt) und alle erwähnten Marken extrahiert. Mehr-Brand-Listen pro Antwort.
- Persistente Runs — alle Eingaben + Antworten landen in einer durchsuchbaren Liste mit Sortierung + Filter.
- Volltext-Suche — Suche in deinen Prompts UND in den LLM-Antworten. Filter nach Plattform, Sentiment, Status, Projekt.
- Teilen — token-protected Public-Link mit Verfallsdatum + optionalem Passwort. Empfänger sieht die Ergebnisse im Rankion-Branding ohne Login.
- Export — CSV (für Excel/Sheets) oder JSON (für Devs/Skripte).
- Re-Run — gleiche Settings mit einem Klick erneut starten (z.B. zwei Tage später, um zu sehen ob ChatGPT sich „erinnert").
Wann nutzen
- Du willst wissen: „Was sagt ChatGPT vs. Claude vs. Perplexity über meine Marke?"
- Du testest einen Prompt für eine neue Kampagne oder ein Blog-Brief und brauchst Multi-Perspektive.
- Du vergleichst: wie unterscheiden sich „mit Suche" und „ohne Suche" Antworten?
- Du dokumentierst LLM-Antworten zu einem Stichtag (Bewerber-Recherche, Kunden-Briefing, Audit).
- Du brauchst einen schnellen Sentiment-Snapshot zu einer aktuellen Frage.
Wann NICHT nutzen
- Für kontinuierliches Monitoring — das ist AI-Visibility Tracking (TrackingProject + Frequency). Live Prompt Check ist für einmalige Runs.
- Für Bulk (50+ Prompts auf einmal) — kein Bulk-Endpoint. Nutze Tracking-Runs mit konfigurierten Prompts.
- Wenn Du nur einer LLM-Antwort brauchst — der Agentic Chat selbst hat eine LLM, das geht schneller.
Erste Schritte
- Sidebar → Analyse → AI-Sichtbarkeit (GEO) → Live Prompt Check öffnen.
- „Neuer Prompt Check" klicken.
- Projekt wählen (für Brand-Kontext bei Sentiment-Analyse —
brand_namemuss im Projekt gesetzt sein). - Prompt eingeben (5-5000 Zeichen, z.B. „Was sind die besten Mobilfunktarife für Freiberufler?").
- Plattformen + Modi auswählen — Default alle aktiv mit Web-Search. Toggle pro Plattform.
- „Prompt Check starten" — der Server dispatcht 8-12 Worker-Jobs parallel.
- Live mitverfolgen — Karten füllen sich. Kein F5 nötig.
Bedienung im Detail
Card-Accordion-Layout
Jede Karte zeigt im Header: Brand-Icon + Plattform + Mode (mit/ohne Web-Search) + Sentiment-Badge + Latenz. Standardmäßig sind alle Karten aufgeklappt — Du siehst direkt alle Antworten. Klick auf den Header klappt einzelne Karten zu (Status bleibt sichtbar).
Im Body: Markdown-gerenderte LLM-Antwort (mit fettem Text, Listen, Links), darunter Brand-Pills mit erwähnten Marken und expandable Citations (URL-Liste bei Web-Search-Modus).
Sticky-Bar oben
Sentiment-Verteilung über alle Antworten + Top-Brands (am häufigsten erwähnt) für Quick-Scan.
Compare-Modus
Toggle oben rechts: „↔ Compare-Modus" wechselt vom Card-Accordion zu einer Side-by-Side-Tabelle (Platform | Sentiment | Brands | Antwort-Excerpt) — gut um schnell durchzuscrollen wenn man 8 Antworten parallel scannen will.
Liste + Filter
Auf der Index-Seite /prompt-check:
- Volltext-Search 1: durchsucht Prompts + Titel.
- Volltext-Search 2: durchsucht die LLM-Antworten selbst (langsamer, weil Full-Text-Scan).
- Filter für Projekt, Status, Sentiment, Plattform — kombinierbar.
- Sortierung auf allen Spalten.
- 3-Dot-Aktionsmenu pro Zeile (Öffnen, CSV/JSON-Export, Löschen).
Teilen
Im Detail-View: „Teilen"-Button → Modal mit Verfallsdatum (1d/7d/30d/Nie), optional Passwort, optional Max-Aufrufe. Generierter Link kopierst Du in die Zwischenablage. Empfänger sieht die Ergebnisse unter /share/prompt-check/{token} im Rankion-Branding (ohne Login).
Credits
1 Credit pro Platform×Mode-Call. Beispiele:
- ChatGPT blind + grounded + Claude blind = 3 Credits
- Alle 6 Plattformen je beide Modi = 12 Credits
Die genaue Kostensumme wird Dir VOR dem Start im Estimator angezeigt.
API-Zugriff
Alle Funktionen sind auch per REST-API verfügbar — siehe prompt-check.*-Skills.
GET /api/v1/prompt-check— Liste mit allen Filtern (search, sentiment, platform, status, project_id)POST /api/v1/prompt-check— Neuer Run async (202 Accepted + run_id)GET /api/v1/prompt-check/{id}— Run + alle ResponsesGET /api/v1/prompt-check/{id}/export?format=csv|json— DownloadPOST /api/v1/prompt-check/{id}/rerun— Re-Run mit selben SettingsDELETE /api/v1/prompt-check/{id}— Soft-delete
Chatbot-Zugriff
Der Agentic Chat kennt Live Prompt Check als Skill. Du kannst dort z.B. fragen:
- „Zeig meine letzten Prompt-Checks zu Mobilfunk"
- „Welche Runs enthalten Vodafone in den Antworten?"
- „Öffne Run 42 — was hat Claude geantwortet?"
- „Starte einen neuen Prompt-Check zu '{prompt}'"
Der Bot ruft dann die richtigen Endpoints (mit deinem Team-Scope) und gibt Dir die Ergebnisse direkt in der Konversation aus, mit Deep-Links zur UI.
Hintergrund: Warum Live + ohne Cache?
Jeder Run macht ECHTE Live-API-Calls — KEIN Caching nach Prompt-Hash. Das ist bewusst:
- Wissen ändert sich — eine LLM-Antwort heute ist nicht dieselbe wie morgen. Re-Runs zeigen Drift.
- Live-Charakter — der Modul-Name verspricht es. Caching würde User irreführen.
- Brand-Sentiment kann sich verschieben — wenn Du diese Woche eine Funding-Runde hast, willst Du das in den Antworten morgen sehen.
Für reproduzierbare Snapshots zu festen Stichtagen: AI-Visibility Tracking mit konfigurierten Prompts und Wochen-Frequenz.