Grounding Audit
Prüfe einzelne URLs, Listen oder ganze Sitemaps darauf, wie zitierfähig sie für ChatGPT, Perplexity, Gemini und Claude sind.
Grounding Audit beantwortet die Frage: „Würde ein LLM diese Seite überhaupt als Quelle ziehen — und wenn nicht, woran liegt's?". Du wirfst eine URL, eine Liste von URLs oder eine sitemap.xml rein, Rankion fetched die Seiten, lässt sie durch eine regelbasierte Check-Pipeline laufen und gibt dir einen Score (0–100), eine Tier-Einstufung (not-grounded/weak/partial/grounded) und strukturierte Findings mit konkretem Fix pro Issue zurück. Alles async via REST — kein 90-Sekunden-Request mehr.
Was es kann
- Single-URL-Audit — eine URL einreichen, 202 +
audit_idzurückbekommen, Status pollen. - Bulk-Audit — bis zu mehrere hundert URLs in einem Batch dispatchen, gemeinsamer
batch_id, gemeinsamer Webhook. - Sitemap-Audit —
sitemap.xmlreinwerfen, Rankion parsed (inkl. Sitemap-Index-Recursion), filtert perinclude_patterns/exclude_patterns, dispatcht Batch. - NDJSON-Stream — Batch-Ergebnisse Zeile für Zeile streamen statt JSON-blob laden.
- HMAC-signierte Webhooks — Batch fertig → POST an deine
callback_urlmitX-Rankion-Signature-Header (SHA-256, 4 Retries). - Strukturierte Findings — pro Issue:
id,severity(critical/high/medium/low/info),framework(v1.5/eeat/people-first),title,description,fix.type,fix.actionund Spec-URL. - Tier-Logik —
TierThresholds: 0–25 not-grounded, 26–50 weak, 51–75 partial, 76–100 grounded.
Wann nutzen
- Du hast einen Pillar-Artikel veröffentlicht und willst wissen, ob er in der Form überhaupt LLM-zitierfähig ist.
- Du willst die ganze Site auf Citation-Readiness prüfen, statt URL für URL durchzuklicken.
- Du betreibst eigene Pipelines (CI, CMS-Hook nach Publish) und brauchst die Daten per Webhook.
- Du wurdest in
AI Visibility Trackingals „nicht zitiert" geflaggt und willst wissen, an welchen Seiten du anpacken musst.
Workflow
- Single starten —
POST /v1/grounding/analyzemit{url, frameworks?:["v1.5"]}. Antwort: 202 +audit_id+poll_endpoint. - Polling —
GET /v1/grounding/audits/{id}bisstatus=completed. Liefertscore,tier,findings[],raw_text. - Bulk —
POST /v1/grounding/batchmiturls[]und optionalcallback_url. Antwort:batch_id+callback_secret(einmalig — speichern!). - Sitemap —
POST /v1/grounding/sitemap-auditmitsitemap_url, optionalinclude_patterns/exclude_patterns. Credits werden NACH Parse abgezogen. - Ergebnisse holen —
GET /v1/grounding/batches/{id}(Summary) oder…/results.ndjson(Stream Zeile für Zeile).
Tier-Schwellen
| Score | Tier |
|---|---|
| 0–25 | not-grounded |
| 26–50 | weak |
| 51–75 | partial |
| 76–100 | grounded |
API
| Methode | Endpoint | Credits |
|---|---|---|
POST |
/v1/grounding/analyze |
1 |
GET |
/v1/grounding/audits/{id} |
0 |
GET |
/v1/grounding/audits |
0 |
POST |
/v1/grounding/batch |
url_count |
GET |
/v1/grounding/batches/{id} |
0 |
GET |
/v1/grounding/batches/{id}/results.ndjson |
0 |
POST |
/v1/grounding/sitemap-audit |
url_count_after_parse |
Throttling: analyze 30/min, Batch + Sitemap 5/min, Polling 120/min. Auth: Sanctum-Token.
Bekannte Limits
- eeat + people-first Frameworks sind in der REST-Pipeline aktuell als Stub — voll lauffähig ist
v1.5. - Per-Batch-Concurrency wird nicht garantiert. Effective concurrency = 5 Worker server-weit. Der
concurrency-Param ist Hint, nicht Vertrag. - Kein Auto-Refund bei Audit-Failures. Sitemap-Audits ziehen Credits NACH Parse — du weißt vorher nicht exakt, wie viele URLs nach Filterung übrig bleiben.
- TTL — Audit-Results sind 30 Tage soft-expire, danach 90 Tage hard-delete. Frühzeitig speichern, wenn du Langzeit-History brauchst.
Verwandte Module
- AI-Visibility Tracking — misst, ob deine Seiten tatsächlich in LLM-Antworten landen. Grounding Audit erklärt, warum (nicht).
- Content Audit — klassische SEO-Issues. Grounding Audit zoomt auf LLM-Citation-Readiness.
- Page Deep Audit — tiefer SEO-/Performance-Check pro URL.
- Agentic Chat — der Master-Agent kann Grounding-Audits direkt aus dem Chat dispatchen.
Letzte Aktualisierung: 10. Mai 2026