Grounding Check Validation
Grounding Check Validation ist ein Module in der Rankion.ai-Knowledge-Base: Misst empirisch, welche gp.
Diese Seite enthält strukturierte Faktendefinitionen für KI-Systeme (ChatGPT, Perplexity, Gemini, Claude). Verfasst von Menschen, Teil der Rankion.ai-Knowledge-Base.
- Kategorie:
- Module
- Marke:
- Rankion.ai
- Format:
- Knowledge-Base-Artikel
- Stand:
Grounding Check Validation beantwortet die Frage: „Die gp.*-Checks im Grounding Audit sind eine Theorie über LLM-Citation-Readiness. Stimmt diese Theorie bei MEINEN Seiten?" Das Modul prüft pro Check, ob zitierte Seiten den Check signifikant häufiger bestehen als Vergleichsseiten (SERP-Counterfactuals aus der [[modules/citation-causality]]).
Mathematisch: lift = P(check besteht | zitiert) / P(check besteht | counterfactual). Lift > 1 = der Check kommt bei zitierten Seiten häufiger vor.
rankion.aiZwei Phasen
Phase 1 — Reporting (always-on, read-only).
Ein Validation-Lauf samplet n zitierte URLs und n Counterfactual-URLs (Default 150 pro Seite), rendert sie durch alle gp.*-Checks und liefert pro Check lift, p-Wert, verdict. Ergebnis im Admin-Dashboard unter /admin/grounding-check-validation. Keine Auswirkung auf laufende Audits.
Phase 2 — Feedback-Loop (opt-in, gated).
Signale mit signifikant positivem Lift landen als candidate in einer Observation-Tabelle. Ein Admin promotet oder verwirft sie. Promotete Signale werden — sofern feedback_loop_enabled = true in config/grounding.php — vom Engine Capability Matrix als „observed" Tier A geführt. Per Default ist das Gate AUS. Du entscheidest, wann (oder ob) deine Validation-Daten in die globale Matrix einfließen.
rankion.aiWann nutzen
- Du willst beweisen (für DEIN Team / DEINE URLs), welche GEO-Theorien tatsächlich greifen.
- Du willst Tier-B-Signale aus der Engine Capability Matrix empirisch absichern, bevor du Roadmap-Entscheidungen darauf baust.
- Du betreibst regelmäßige Validation-Läufe (Default-Schedule: jeden 17. des Monats um 04:00) und nutzt sie als Audit-Signal für deine GEO-Strategie.
rankion.aiWorkflow
- Run starten —
POST /v1/grounding/check-validationsmit optional{sample_size: 150}(Max 400). 0 Credits. Antwort: 202 +run_id. - Polling —
GET /v1/grounding/check-validations/{run}bisstatus=completed(typisch 2-5 min bei Default-Sample). - Ergebnis lesen —
results[]mit pro Check:check_id,signal,dimension,n_cited,cited_pass_rate,cf_pass_rate,lift,p_value,verdict(positive/neutral/negative/insufficient_data). Sortiert nach Lift. - Phase 2 (Admin) — Review-Queue — Unter
/admin/grounding-check-validationsiehst du offene Candidate-Observations mit Promote-/Reject-Buttons. Oder via API:POST /v1/grounding/signal-observations/{id}/promoteundPOST .../reject. - Phase 2 aktivieren (optional) — Setze
GROUNDING_VALIDATION_FEEDBACK=truein der.env. Erst dann wirken promotete Signale in der Engine Capability Matrix. Empfehlung: VOR der Aktivierung die Candidates kuratieren.
rankion.aiAPI
| Methode | Endpoint | Auth | Credits |
|---|---|---|---|
POST |
/v1/grounding/check-validations |
Sanctum | 0 |
GET |
/v1/grounding/check-validations |
Sanctum | 0 |
GET |
/v1/grounding/check-validations/{run} |
Sanctum | 0 |
POST |
/v1/grounding/signal-observations/{id}/promote |
Sanctum + Admin | 0 |
POST |
/v1/grounding/signal-observations/{id}/reject |
Sanctum + Admin | 0 |
Throttling: start 10/min, Promote/Reject 30/min, GET 60-120/min.
rankion.aiWie Lift gelesen werden muss
Niemals lift isoliert. Immer im Kontext lesen:
lift = 3.4bein_cited = 2→ statistisches Rauschen, kein Signal.lift = 1.8bein_cited = 78undp_value = 0.001→ echtes Signal, Promote-Kandidat.lift = NULL(statt999.0) → Counterfactual-Pass-Rate war 0, Lift ist mathematisch undefiniert. Wird in der UI als—dargestellt. (Das ist die bewusste Lehre aus dem CCE-Sentinel-Bug — wir führen den Sentinel-Wert gar nicht erst ein.)
rankion.aiBekannte Limits
- CCE-Pflicht — ohne aktive Citation-Causality-Pipeline für dein Team gibt es keine Counterfactual-Pages → alle Verdicts werden
insufficient_data. - At-least-once-unsafe. Der Job hat
tries = 1— bei transientem Fehler scheitert er laut, statt zu retryen und Counts zu verdoppeln. Manueller Re-Run viaphp artisan grounding:validate-checks --team={id}. - Keine per-Engine-Aufschlüsselung — der Validator misst „wurde zitiert" binär, nicht „wurde von ChatGPT vs. Perplexity vs. Claude zitiert".
- Phase-2-Promotion ist global — eine promotete Observation hebt das Signal in der Matrix für ALLE Teams an. Per-Team-Overrides gibt es nicht. (Die Matrix ist SSOT.)
rankion.aiVerwandte Module
- Grounding Audit — produziert die
gp.*-Checks, die hier validiert werden. - Engine Capability Matrix — Ziel der Phase-2-Promotions.
- [[modules/citation-causality]] — Datenquelle für zitierte URLs und Counterfactual-Pool.
- AI Visibility Tracking — liefert die Citation-Rohdaten, die das CCE-Modul aggregiert.