rankion.ai

AI-Detector

Erkenne, ob Text von einer KI geschrieben wurde — für Content-Audits und Quality-Gates.

Der AI-Detector schaut sich einen Text an und sagt dir, mit welcher Wahrscheinlichkeit er KI-generiert ist — Sentence-by-Sentence, mit Heatmap und Aggregat-Score. Praktisch, wenn du Texte von Freelancern oder externen Quellen einkaufst und Quality-Control brauchst, oder wenn du deine eigenen KI-Drafts vor der Veröffentlichung gegen Detector-Tools testen willst. Outputs sind direkt in den Humanizer kettbar, damit „rot" nicht „rot bleibt".

Was es kann

  • Aggregat-Score — eine Zahl 0–100 für die Wahrscheinlichkeit „AI-generated". Über 70 = wahrscheinlich KI, unter 30 = wahrscheinlich Mensch.
  • Sentence-Heatmap — pro Satz eine Färbung; rote Sätze sind die typischen GPT-Phrasings.
  • Multi-Model-Detection — getrennte Wahrscheinlichkeiten für GPT-4-Family, Claude-Family, Gemini-Family.
  • Scan-Modiquick (schnell, lower confidence) und deep (langsamer, höhere Recall).
  • Free-Text oder Artikel — entweder rohen Text einschicken oder eine Article-ID referenzieren.
  • One-Click-Humanize — wenn der Score zu hoch ist, gibt's direkt einen Button „Humanize" der den Humanizer startet.
  • Audit-Trail — alle Scans werden gespeichert; du kannst Verlauf und Veränderung über Zeit anzeigen.

Wann nutzen

  • Du kaufst Content extern ein und willst sicherstellen, dass nicht einfach ChatGPT-Output ohne Bearbeitung geliefert wurde.
  • Du betreibst einen Blog auf einer Plattform mit „No-Pure-AI"-Policy (Google Helpful Content, manche Affiliate-Programme).
  • Du willst deine eigenen KI-Drafts vor dem Publish so weit „menschlichen", dass externe Detector-Tools sie nicht flaggen.
  • Du baust ein Quality-Gate in deine Automation-Pipeline ein: erst publishen wenn AI-Score < 40.

Workflow

  1. Text einreichenPOST /ai-scanner/detect mit {text} oder {article_id} und gewünschtem scan_type.
  2. Score lesen — Response enthält Aggregat-Score, Sentence-Heatmap, Model-Wahrscheinlichkeiten.
  3. Entscheiden — bei > 70: Humanizer aufrufen oder manuell überarbeiten.
  4. Re-Scan — nach Bearbeitung erneut detecten, bis der Score in deinem Ziel-Korridor liegt.

API

Methode Endpoint Credits
POST /v1/ai-scanner/detect 2

Body:

{
  "text": "Hier kommt der zu prüfende Text...",
  "scan_type": "deep"
}

Alternativ mit Article-Referenz:

{
  "article_id": 4711,
  "scan_type": "quick"
}

Response (gekürzt):

{
  "score": 78,
  "verdict": "likely_ai",
  "models": {
    "gpt": 0.82,
    "claude": 0.41,
    "gemini": 0.33
  },
  "sentences": [
    {"text": "...", "ai_probability": 0.91},
    {"text": "...", "ai_probability": 0.12}
  ]
}

Credits & Limits

  • Pro Scan: 2 Credits, unabhängig von Scan-Typ und Textlänge bis 25.000 Zeichen.
  • Bei Texten > 25.000 Zeichen: automatisch in Chunks gesplittet, jeder Chunk = 2 Credits.
  • Quick-Mode: ~3 Sekunden, sync-Response.
  • Deep-Mode: bis zu ~30 Sekunden, ebenfalls sync (PHP-FPM Hardlimit beachten).
  • Article-Mode: team-scoped — du kannst nur Artikel deines aktuellen Teams scannen.

Verwandte Module

  • Humanizer — die natürliche Folgeaktion, wenn Detector rot leuchtet.
  • AI Content Editor — KI-Drafts kommen hier rein und gehen durch den Detector raus.
  • Content Audit — kann AI-Score als Audit-Kriterium konfigurieren.
  • Automation — Detector als Quality-Gate in Pipelines integrierbar.
Letzte Aktualisierung: 1. Mai 2026

Cookies: Wir nutzen notwendige Cookies für die Funktion und optionale für Verbesserungen. Details

Notwendig
Aktiv
Analytics
Marketing