AI-Detector
Erkenne, ob Text von einer KI geschrieben wurde — für Content-Audits und Quality-Gates.
Der AI-Detector schaut sich einen Text an und sagt dir, mit welcher Wahrscheinlichkeit er KI-generiert ist — Sentence-by-Sentence, mit Heatmap und Aggregat-Score. Praktisch, wenn du Texte von Freelancern oder externen Quellen einkaufst und Quality-Control brauchst, oder wenn du deine eigenen KI-Drafts vor der Veröffentlichung gegen Detector-Tools testen willst. Outputs sind direkt in den Humanizer kettbar, damit „rot" nicht „rot bleibt".
Was es kann
- Aggregat-Score — eine Zahl 0–100 für die Wahrscheinlichkeit „AI-generated". Über 70 = wahrscheinlich KI, unter 30 = wahrscheinlich Mensch.
- Sentence-Heatmap — pro Satz eine Färbung; rote Sätze sind die typischen GPT-Phrasings.
- Multi-Model-Detection — getrennte Wahrscheinlichkeiten für GPT-4-Family, Claude-Family, Gemini-Family.
- Scan-Modi —
quick(schnell, lower confidence) unddeep(langsamer, höhere Recall). - Free-Text oder Artikel — entweder rohen Text einschicken oder eine Article-ID referenzieren.
- One-Click-Humanize — wenn der Score zu hoch ist, gibt's direkt einen Button „Humanize" der den Humanizer startet.
- Audit-Trail — alle Scans werden gespeichert; du kannst Verlauf und Veränderung über Zeit anzeigen.
Wann nutzen
- Du kaufst Content extern ein und willst sicherstellen, dass nicht einfach ChatGPT-Output ohne Bearbeitung geliefert wurde.
- Du betreibst einen Blog auf einer Plattform mit „No-Pure-AI"-Policy (Google Helpful Content, manche Affiliate-Programme).
- Du willst deine eigenen KI-Drafts vor dem Publish so weit „menschlichen", dass externe Detector-Tools sie nicht flaggen.
- Du baust ein Quality-Gate in deine Automation-Pipeline ein: erst publishen wenn AI-Score < 40.
Workflow
- Text einreichen —
POST /ai-scanner/detectmit{text}oder{article_id}und gewünschtemscan_type. - Score lesen — Response enthält Aggregat-Score, Sentence-Heatmap, Model-Wahrscheinlichkeiten.
- Entscheiden — bei
> 70: Humanizer aufrufen oder manuell überarbeiten. - Re-Scan — nach Bearbeitung erneut detecten, bis der Score in deinem Ziel-Korridor liegt.
API
| Methode | Endpoint | Credits |
|---|---|---|
POST |
/v1/ai-scanner/detect |
2 |
Body:
{
"text": "Hier kommt der zu prüfende Text...",
"scan_type": "deep"
}
Alternativ mit Article-Referenz:
{
"article_id": 4711,
"scan_type": "quick"
}
Response (gekürzt):
{
"score": 78,
"verdict": "likely_ai",
"models": {
"gpt": 0.82,
"claude": 0.41,
"gemini": 0.33
},
"sentences": [
{"text": "...", "ai_probability": 0.91},
{"text": "...", "ai_probability": 0.12}
]
}
Credits & Limits
- Pro Scan: 2 Credits, unabhängig von Scan-Typ und Textlänge bis 25.000 Zeichen.
- Bei Texten > 25.000 Zeichen: automatisch in Chunks gesplittet, jeder Chunk = 2 Credits.
- Quick-Mode: ~3 Sekunden, sync-Response.
- Deep-Mode: bis zu ~30 Sekunden, ebenfalls sync (PHP-FPM Hardlimit beachten).
- Article-Mode: team-scoped — du kannst nur Artikel deines aktuellen Teams scannen.
Verwandte Module
- Humanizer — die natürliche Folgeaktion, wenn Detector rot leuchtet.
- AI Content Editor — KI-Drafts kommen hier rein und gehen durch den Detector raus.
- Content Audit — kann AI-Score als Audit-Kriterium konfigurieren.
- Automation — Detector als Quality-Gate in Pipelines integrierbar.
Letzte Aktualisierung: 1. Mai 2026