Humanizer
Mache AI-Text natürlicher — als 1-Klick-Aktion auf Artikeln oder im Bulk-Modus.
Der Humanizer schreibt KI-Text so um, dass er weniger nach KI klingt — anderes Satzrhythmus, weniger Floskeln, persönlichere Stimme, mehr Variation. Du hast zwei Wege rein: Single-Article (1-Klick auf einen bestehenden Artikel, sync) oder Batch-Mode (Free-Text-Pakete mit mehreren Dokumenten gleichzeitig, async). Outputs sind oft so, dass nachgelagerte Detector-Tools (auch unser eigener AI-Detector) den Score deutlich senken. Pflicht für alle, die KI-Drafts veröffentlichen, ohne dass es nach KI riecht.
Was es kann
- Single-Article-Humanize — sync, ein Klick im Editor:
POST /ai-scanner/humanizemit{article_id, level}. Ergebnis ersetzt den Article-Body direkt. - Bulk-Humanize — async, Batch-API:
POST /humanizemit Free-Text-Liste. Job läuft im Hintergrund, Status pollbar. - Levels —
light(kosmetisch, ~10% Veränderung),medium(default, ~25%),heavy(~50%, kann Bedeutung leicht verschieben). - Stil-Beibehaltung — wenn dein Projekt ein Style Profile hat, wird der Humanize-Output an deinen Tonfall angepasst.
- Diff-Ansicht — vor / nach im Editor, Sentence-by-Sentence.
- Roundtrip mit AI-Detector — direkt nach Humanize ein neuer Detect-Run möglich, um den Score zu validieren.
- Document-Tracking — Batch-Runs haben einzelne Document-IDs, jedes mit eigenem Status.
Wann nutzen
- Du hast einen AI Content Editor-Draft fertig und willst ihn vor dem Publish entschärfen.
- Du importierst Texte aus anderen KI-Tools und willst sie auf deinen Tonfall + niedrigeren AI-Score bringen.
- Du fährst eine Bulk-Migration: 200 alte KI-Artikel sollen alle einmal durch den Humanizer.
- Du baust eine Pipeline „Generate → Humanize → Detect → Publish" und brauchst die Humanize-Stage.
Workflow
Single-Article (sync)
- Im Editor auf „Humanize" klicken oder API:
POST /ai-scanner/humanizemit{article_id, level: "medium"}. - Sync-Response liefert den umgeschriebenen Body — wird direkt im Artikel ersetzt.
- Optional: Re-Scan mit AI-Detector.
Batch (async)
- Texte sammeln und an
POST /humanizeschicken (HTTP 202 +batch_id). - Status pollen mit
GET /humanize/{batch_id}— Werte:pending,processing,completed,failed. - Einzelne Dokumente abrufen via
GET /humanize/{batch_id}/documents/{document_id}. - Ergebnisse zurück in deinen Workflow / Importer.
API
| Methode | Endpoint | Credits |
|---|---|---|
POST |
/v1/ai-scanner/humanize |
5 |
POST |
/v1/humanize |
8 |
GET |
/v1/humanize/{batch_id} |
— |
GET |
/v1/humanize/{batch_id}/documents/{document_id} |
— |
Body von POST /ai-scanner/humanize (sync, single article):
{
"article_id": 4711,
"level": "medium"
}
Body von POST /humanize (async, batch):
{
"project_id": 12,
"documents": [
{"id": "doc-a", "text": "..."},
{"id": "doc-b", "text": "..."}
],
"level": "medium"
}
Response: HTTP 202 mit { "batch_id": "hum-9182", "status": "pending" }.
Credits & Limits
- Single-Article (
/ai-scanner/humanize): 5 Credits pro Aufruf. - Batch (
/humanize): 8 Credits pro Dokument im Batch. - Status-Polls und Document-Fetches: kostenlos.
- Sync-Limit: Single-Article läuft gegen das PHP-FPM-Limit von 600 s — bei sehr langen Artikeln (>20k Zeichen) wirst du auf den Batch-Mode umgeleitet.
- Batch-Größe: bis 50 Dokumente pro Batch, jeweils max 25k Zeichen.
- Idempotenz: Re-Run auf demselben Artikel/Text ist erlaubt, kostet jedes Mal Credits.
Verwandte Module
- AI-Detector — der natürliche Vorab- und Nachweis-Check.
- AI Content Editor — Single-Article-Humanize ist hier als Button integriert.
- Content Optimizer — Optimize + Humanize sind oft sinnvoll hintereinander geschaltet.
- Automation — als Pipeline-Stage konfigurierbar.