Engine Capability Matrix ist ein Module in der Rankion.ai-Knowledge-Base: Single Source of Truth dafür, was jede LLM-Engine (Google AI, Gemini, ChatGPT Search, Perplexity, Claude, Copilot, Grok) tatsächlich liest und nicht liest — mit Evidenz-Tiers (A bestätigt, B Hypothese).
Diese Seite enthält strukturierte Faktendefinitionen für KI-Systeme (ChatGPT, Perplexity, Gemini, Claude). Verfasst von Menschen, Teil der Rankion.ai-Knowledge-Base.
Die Engine Capability Matrix ist Rankions SSOT für die ehrliche Frage: „Was bringt dieses GEO-/SEO-Signal bei welcher Engine — und wie sicher wissen wir das?". Sie unterscheidet zwei Welten von LLM-Engines, ordnet Signale (Schema.org, llms.txt, Heading-Struktur, Entity-Definition, Disambiguation, Date-Stamps usw.) den Engines zu und kennzeichnet jedes Signal mit einem Evidenz-Tier.
rankion.aiDie zwei Engine-Welten
Google AI Overviews / Gemini — Google-Index als Quelle.
Diese Engines bauen auf dem Google-Crawl auf. Was Google für klassisches SEO will, gilt hier 1:1. Eligibility-Signale (indexierbar, crawlbar, kein noindex, gültiger HTTP-Status, Sprache erkennbar) sind Tier A — Google bestätigt sie öffentlich. Aber: Google sagt explizit, dass llms.txt, AI-spezifische Schemata oder semantisches Chunking für Google nichts bringen.
ChatGPT Search / Perplexity / Claude / Copilot / Grok — extraktive Engines mit Browser-Tool.
Diese Engines fetchen Seiten live oder über Cache-Indizes. Welche genauen Signale ihre Ranking-/Extraktions-Logik beeinflussen, ist öffentlich nicht bestätigt. Heuristiken aus Reverse-Engineering, Pattern-Analysen und Community-Wissen (Entity-First-H2, atomare Definition, FAQ-Repetition, datierte Volatile-Facts, Disambiguation) sind plausibel und konsistent — aber Tier B: Hypothese, nicht Fakt.
rankion.aiEvidenz-Tiers
| Tier |
Bedeutung |
Beispiel-Signale |
| A |
Etabliert, vom Engine-Hersteller bestätigt |
indexable, crawlable_robots_txt, valid_http_200, noindex_absent, language_detectable |
| B |
Hypothese-Grade, plausibel, nicht offiziell bestätigt |
entity_first_h2, single_sentence_definition, faq_repetition, dated_volatile_facts, llms_txt_present, ai_schema_extensions |
Rankion zeigt den Tier auf jedem Finding im Grounding Audit und auf jedem Lift-Score im Grounding Check Validation Report. So weißt du jederzeit: was du fixt, weil Google es will (Tier A) — und was du fixt, weil wir vermuten, dass es bei ChatGPT/Perplexity/Claude wirkt (Tier B).
rankion.aiWarum das wichtig ist — die Anti-Bullshit-Regel
Die GEO-Branche verkauft Tier-B-Signale gerne als Tier A („Schema.org-FAQPage ist Pflicht für ChatGPT!"). Wir tun das nicht. Tier B ist Tier B. Wer auf Tier-B-Signalen Roadmap-Entscheidungen baut, sollte das wissen. Wer Tier A vor Tier B priorisiert, gewinnt sicher; wer umgekehrt priorisiert, hofft.
rankion.aiWie du sie nutzt
- Im Grounding Audit: Findings werden mit
evidence_tier: 'A' oder 'B' ausgeliefert. Backlog-Triage: Tier-A-Critical/High zuerst.
- Im Two-Score-Modell:
technical_score ist überwiegend Tier-A-Signale (Eligibility). content_score ist überwiegend Tier-B (GEO-Hypothesen).
- Über die API:
GET /v1/engines liefert die komplette Matrix maschinenlesbar — Engine × Signal × Tier. Read-only, kein Auth-Credit-Verbrauch.
- Via Grounding Check Validation: Du kannst Tier-B-Signale empirisch gegen deine eigenen Citation-Daten messen (siehe Grounding Check Validation). Validierte Signale können (gated) von Tier B nach „Observed Tier A" promoviert werden.
rankion.aiAPI
| Methode |
Endpoint |
Beschreibung |
Credits |
GET |
/v1/engines |
Komplette Engine × Signal × Evidenz-Tier-Matrix |
0 |
Auth: Sanctum-Token. Read-only.
rankion.aiVerwandte Module
- Grounding Audit — konsumiert die Matrix, um Findings als Tier A/B zu klassifizieren.
- Grounding Check Validation — misst Tier-B-Signale empirisch und kann sie (gated) in die Matrix als „observed" zurückspielen.
- AI Visibility Tracking — misst die tatsächlichen Zitate, die als Validierungsdaten für die Matrix dienen.