rankion.ai

Humanizer

Mache AI-Text natürlicher — als 1-Klick-Aktion auf Artikeln oder im Bulk-Modus.

Der Humanizer schreibt KI-Text so um, dass er weniger nach KI klingt — anderes Satzrhythmus, weniger Floskeln, persönlichere Stimme, mehr Variation. Du hast zwei Wege rein: Single-Article (1-Klick auf einen bestehenden Artikel, sync) oder Batch-Mode (Free-Text-Pakete mit mehreren Dokumenten gleichzeitig, async). Outputs sind oft so, dass nachgelagerte Detector-Tools (auch unser eigener AI-Detector) den Score deutlich senken. Pflicht für alle, die KI-Drafts veröffentlichen, ohne dass es nach KI riecht.

Was es kann

  • Single-Article-Humanize — sync, ein Klick im Editor: POST /ai-scanner/humanize mit {article_id, level}. Ergebnis ersetzt den Article-Body direkt.
  • Bulk-Humanize — async, Batch-API: POST /humanize mit Free-Text-Liste. Job läuft im Hintergrund, Status pollbar.
  • Levelslight (kosmetisch, ~10% Veränderung), medium (default, ~25%), heavy (~50%, kann Bedeutung leicht verschieben).
  • Stil-Beibehaltung — wenn dein Projekt ein Style Profile hat, wird der Humanize-Output an deinen Tonfall angepasst.
  • Diff-Ansicht — vor / nach im Editor, Sentence-by-Sentence.
  • Roundtrip mit AI-Detector — direkt nach Humanize ein neuer Detect-Run möglich, um den Score zu validieren.
  • Document-Tracking — Batch-Runs haben einzelne Document-IDs, jedes mit eigenem Status.

Wann nutzen

  • Du hast einen AI Content Editor-Draft fertig und willst ihn vor dem Publish entschärfen.
  • Du importierst Texte aus anderen KI-Tools und willst sie auf deinen Tonfall + niedrigeren AI-Score bringen.
  • Du fährst eine Bulk-Migration: 200 alte KI-Artikel sollen alle einmal durch den Humanizer.
  • Du baust eine Pipeline „Generate → Humanize → Detect → Publish" und brauchst die Humanize-Stage.

Workflow

Single-Article (sync)

  1. Im Editor auf „Humanize" klicken oder API: POST /ai-scanner/humanize mit {article_id, level: "medium"}.
  2. Sync-Response liefert den umgeschriebenen Body — wird direkt im Artikel ersetzt.
  3. Optional: Re-Scan mit AI-Detector.

Batch (async)

  1. Texte sammeln und an POST /humanize schicken (HTTP 202 + batch_id).
  2. Status pollen mit GET /humanize/{batch_id} — Werte: pending, processing, completed, failed.
  3. Einzelne Dokumente abrufen via GET /humanize/{batch_id}/documents/{document_id}.
  4. Ergebnisse zurück in deinen Workflow / Importer.

API

Methode Endpoint Credits
POST /v1/ai-scanner/humanize 5
POST /v1/humanize 8
GET /v1/humanize/{batch_id}
GET /v1/humanize/{batch_id}/documents/{document_id}

Body von POST /ai-scanner/humanize (sync, single article):

{
  "article_id": 4711,
  "level": "medium"
}

Body von POST /humanize (async, batch):

{
  "project_id": 12,
  "documents": [
    {"id": "doc-a", "text": "..."},
    {"id": "doc-b", "text": "..."}
  ],
  "level": "medium"
}

Response: HTTP 202 mit { "batch_id": "hum-9182", "status": "pending" }.

Credits & Limits

  • Single-Article (/ai-scanner/humanize): 5 Credits pro Aufruf.
  • Batch (/humanize): 8 Credits pro Dokument im Batch.
  • Status-Polls und Document-Fetches: kostenlos.
  • Sync-Limit: Single-Article läuft gegen das PHP-FPM-Limit von 600 s — bei sehr langen Artikeln (>20k Zeichen) wirst du auf den Batch-Mode umgeleitet.
  • Batch-Größe: bis 50 Dokumente pro Batch, jeweils max 25k Zeichen.
  • Idempotenz: Re-Run auf demselben Artikel/Text ist erlaubt, kostet jedes Mal Credits.

Verwandte Module

  • AI-Detector — der natürliche Vorab- und Nachweis-Check.
  • AI Content Editor — Single-Article-Humanize ist hier als Button integriert.
  • Content Optimizer — Optimize + Humanize sind oft sinnvoll hintereinander geschaltet.
  • Automation — als Pipeline-Stage konfigurierbar.
Letzte Aktualisierung: 1. Mai 2026

Cookies: Wir nutzen notwendige Cookies für die Funktion und optionale für Verbesserungen. Details

Notwendig
Aktiv
Analytics
Marketing