rankion.ai

Live Prompt Check

Schick einen Prompt parallel an ChatGPT, Perplexity, Claude, Gemini, Copilot und Grok — mit und ohne Web-Search. Vergleiche die Antworten live, mit Sentiment und Brand-Erwähnungen.

Live Prompt Check ist Rankions Tool für Ad-hoc Multi-LLM-Vergleiche. Im Gegensatz zu AI-Visibility Tracking (kontinuierliches Monitoring mit Schedule) ist Live Prompt Check ein Einzel-Run auf Knopfdruck: Eingabe → 8-12 LLM-Antworten parallel → Live-Karten-Ansicht → speichern + exportieren.

Was es kann

  • Multi-LLM-Fan-out — ein Prompt geht an ChatGPT, Perplexity, Claude, Gemini, Copilot, Grok (je verfügbar).
  • Mit/ohne Web-Search — pro Plattform separater Toggle. Du siehst nebeneinander wie sich Wissen mit live-Browsing ändert.
  • Live-Anzeige — Karten füllen sich progressiv. Polling alle 3s, kein F5 nötig. Wenn eine LLM 30s braucht, ist der Rest schon längst da.
  • Sentiment + Brand-Extract — jede Antwort wird automatisch klassifiziert (positiv/negativ/neutral/nicht erwähnt) und alle erwähnten Marken extrahiert. Mehr-Brand-Listen pro Antwort.
  • Persistente Runs — alle Eingaben + Antworten landen in einer durchsuchbaren Liste mit Sortierung + Filter.
  • Volltext-Suche — Suche in deinen Prompts UND in den LLM-Antworten. Filter nach Plattform, Sentiment, Status, Projekt.
  • Teilen — token-protected Public-Link mit Verfallsdatum + optionalem Passwort. Empfänger sieht die Ergebnisse im Rankion-Branding ohne Login.
  • Export — CSV (für Excel/Sheets) oder JSON (für Devs/Skripte).
  • Re-Run — gleiche Settings mit einem Klick erneut starten (z.B. zwei Tage später, um zu sehen ob ChatGPT sich „erinnert").

Wann nutzen

  • Du willst wissen: „Was sagt ChatGPT vs. Claude vs. Perplexity über meine Marke?"
  • Du testest einen Prompt für eine neue Kampagne oder ein Blog-Brief und brauchst Multi-Perspektive.
  • Du vergleichst: wie unterscheiden sich „mit Suche" und „ohne Suche" Antworten?
  • Du dokumentierst LLM-Antworten zu einem Stichtag (Bewerber-Recherche, Kunden-Briefing, Audit).
  • Du brauchst einen schnellen Sentiment-Snapshot zu einer aktuellen Frage.

Wann NICHT nutzen

  • Für kontinuierliches Monitoring — das ist AI-Visibility Tracking (TrackingProject + Frequency). Live Prompt Check ist für einmalige Runs.
  • Für Bulk (50+ Prompts auf einmal) — kein Bulk-Endpoint. Nutze Tracking-Runs mit konfigurierten Prompts.
  • Wenn Du nur einer LLM-Antwort brauchst — der Agentic Chat selbst hat eine LLM, das geht schneller.

Erste Schritte

  1. Sidebar → Analyse → AI-Sichtbarkeit (GEO) → Live Prompt Check öffnen.
  2. „Neuer Prompt Check" klicken.
  3. Projekt wählen (für Brand-Kontext bei Sentiment-Analyse — brand_name muss im Projekt gesetzt sein).
  4. Prompt eingeben (5-5000 Zeichen, z.B. „Was sind die besten Mobilfunktarife für Freiberufler?").
  5. Plattformen + Modi auswählen — Default alle aktiv mit Web-Search. Toggle pro Plattform.
  6. „Prompt Check starten" — der Server dispatcht 8-12 Worker-Jobs parallel.
  7. Live mitverfolgen — Karten füllen sich. Kein F5 nötig.

Bedienung im Detail

Card-Accordion-Layout

Jede Karte zeigt im Header: Brand-Icon + Plattform + Mode (mit/ohne Web-Search) + Sentiment-Badge + Latenz. Standardmäßig sind alle Karten aufgeklappt — Du siehst direkt alle Antworten. Klick auf den Header klappt einzelne Karten zu (Status bleibt sichtbar).

Im Body: Markdown-gerenderte LLM-Antwort (mit fettem Text, Listen, Links), darunter Brand-Pills mit erwähnten Marken und expandable Citations (URL-Liste bei Web-Search-Modus).

Sticky-Bar oben

Sentiment-Verteilung über alle Antworten + Top-Brands (am häufigsten erwähnt) für Quick-Scan.

Compare-Modus

Toggle oben rechts: „↔ Compare-Modus" wechselt vom Card-Accordion zu einer Side-by-Side-Tabelle (Platform | Sentiment | Brands | Antwort-Excerpt) — gut um schnell durchzuscrollen wenn man 8 Antworten parallel scannen will.

Liste + Filter

Auf der Index-Seite /prompt-check:

  • Volltext-Search 1: durchsucht Prompts + Titel.
  • Volltext-Search 2: durchsucht die LLM-Antworten selbst (langsamer, weil Full-Text-Scan).
  • Filter für Projekt, Status, Sentiment, Plattform — kombinierbar.
  • Sortierung auf allen Spalten.
  • 3-Dot-Aktionsmenu pro Zeile (Öffnen, CSV/JSON-Export, Löschen).

Teilen

Im Detail-View: „Teilen"-Button → Modal mit Verfallsdatum (1d/7d/30d/Nie), optional Passwort, optional Max-Aufrufe. Generierter Link kopierst Du in die Zwischenablage. Empfänger sieht die Ergebnisse unter /share/prompt-check/{token} im Rankion-Branding (ohne Login).

Credits

1 Credit pro Platform×Mode-Call. Beispiele:

  • ChatGPT blind + grounded + Claude blind = 3 Credits
  • Alle 6 Plattformen je beide Modi = 12 Credits

Die genaue Kostensumme wird Dir VOR dem Start im Estimator angezeigt.

API-Zugriff

Alle Funktionen sind auch per REST-API verfügbar — siehe prompt-check.*-Skills.

  • GET /api/v1/prompt-check — Liste mit allen Filtern (search, sentiment, platform, status, project_id)
  • POST /api/v1/prompt-check — Neuer Run async (202 Accepted + run_id)
  • GET /api/v1/prompt-check/{id} — Run + alle Responses
  • GET /api/v1/prompt-check/{id}/export?format=csv|json — Download
  • POST /api/v1/prompt-check/{id}/rerun — Re-Run mit selben Settings
  • DELETE /api/v1/prompt-check/{id} — Soft-delete

Chatbot-Zugriff

Der Agentic Chat kennt Live Prompt Check als Skill. Du kannst dort z.B. fragen:

  • „Zeig meine letzten Prompt-Checks zu Mobilfunk"
  • „Welche Runs enthalten Vodafone in den Antworten?"
  • „Öffne Run 42 — was hat Claude geantwortet?"
  • „Starte einen neuen Prompt-Check zu '{prompt}'"

Der Bot ruft dann die richtigen Endpoints (mit deinem Team-Scope) und gibt Dir die Ergebnisse direkt in der Konversation aus, mit Deep-Links zur UI.

Hintergrund: Warum Live + ohne Cache?

Jeder Run macht ECHTE Live-API-Calls — KEIN Caching nach Prompt-Hash. Das ist bewusst:

  • Wissen ändert sich — eine LLM-Antwort heute ist nicht dieselbe wie morgen. Re-Runs zeigen Drift.
  • Live-Charakter — der Modul-Name verspricht es. Caching würde User irreführen.
  • Brand-Sentiment kann sich verschieben — wenn Du diese Woche eine Funding-Runde hast, willst Du das in den Antworten morgen sehen.

Für reproduzierbare Snapshots zu festen Stichtagen: AI-Visibility Tracking mit konfigurierten Prompts und Wochen-Frequenz.

Letzte Aktualisierung: 12 mai 2026

Cookies : Nous utilisons des cookies nécessaires pour le fonctionnement et facultatifs pour les améliorations. Détails

Nécessaire
Actif
Analytique
Marketing