rankion.ai

Humanizer

Haz que el texto IA suene más natural — como acción de un clic en artículos o en modo bulk.

El Humanizer reescribe texto IA para que suene menos a IA — otro ritmo en las frases, menos muletillas, voz más personal, más variación. Tienes dos vías de entrada: Single-Article (un clic sobre un artículo existente, sync) o Batch-Mode (paquetes de texto libre con varios documentos a la vez, async). Las salidas suelen lograr que detector-tools posteriores (incluido nuestro propio AI-Detector) bajen el score notablemente. Imprescindible para quienes publican drafts IA sin que huela a IA.

Qué puede hacer

  • Single-Article-Humanize — sync, un clic en el editor: POST /ai-scanner/humanize con {article_id, level}. El resultado reemplaza el body del artículo directamente.
  • Bulk-Humanize — async, batch-API: POST /humanize con lista de texto libre. El job corre en background, status pollable.
  • Niveleslight (cosmético, ~10% de cambio), medium (default, ~25%), heavy (~50%, puede desplazar ligeramente el significado).
  • Conservación del estilo — si tu proyecto tiene un Style Profile, la salida del humanize se ajusta a tu tono.
  • Vista de diff — antes / después en el editor, frase a frase.
  • Roundtrip con AI-Detector — directamente tras humanize puedes lanzar un nuevo run de detect para validar el score.
  • Document-Tracking — los runs batch tienen Document-IDs individuales, cada uno con su propio status.

Cuándo usarlo

  • Tienes un draft listo del AI Content Editor y quieres suavizarlo antes del publish.
  • Importas textos de otras herramientas IA y quieres llevarlos a tu tono y a un AI-score más bajo.
  • Realizas una migración bulk: 200 artículos IA antiguos deben pasar todos una vez por el Humanizer.
  • Construyes una pipeline «Generate → Humanize → Detect → Publish» y necesitas la stage Humanize.

Workflow

Single-Article (sync)

  1. En el editor, clic en «Humanize», o vía API: POST /ai-scanner/humanize con {article_id, level: "medium"}.
  2. La response sync entrega el body reescrito — se reemplaza directamente en el artículo.
  3. Opcional: re-scan con el AI-Detector.

Batch (async)

  1. Junta los textos y mándalos a POST /humanize (HTTP 202 + batch_id).
  2. Polling de estado con GET /humanize/{batch_id} — valores: pending, processing, completed, failed.
  3. Recupera los documentos individuales vía GET /humanize/{batch_id}/documents/{document_id}.
  4. Resultados de vuelta a tu workflow / importer.

API

Método Endpoint Créditos
POST /v1/ai-scanner/humanize 5
POST /v1/humanize 8
GET /v1/humanize/{batch_id}
GET /v1/humanize/{batch_id}/documents/{document_id}

Body de POST /ai-scanner/humanize (sync, single article):

{
  "article_id": 4711,
  "level": "medium"
}

Body de POST /humanize (async, batch):

{
  "project_id": 12,
  "documents": [
    {"id": "doc-a", "text": "..."},
    {"id": "doc-b", "text": "..."}
  ],
  "level": "medium"
}

Response: HTTP 202 con { "batch_id": "hum-9182", "status": "pending" }.

Créditos y límites

  • Single-Article (/ai-scanner/humanize): 5 créditos por llamada.
  • Batch (/humanize): 8 créditos por documento dentro del batch.
  • Status-polls y document-fetches: gratis.
  • Límite sync: Single-Article corre contra el PHP-FPM-Limit de 600 s — para artículos muy largos (>20k caracteres) serás redirigido al modo batch.
  • Tamaño de batch: hasta 50 documentos por batch, cada uno máx. 25k caracteres.
  • Idempotencia: se permite re-run sobre el mismo artículo/texto, cuesta créditos cada vez.

Módulos relacionados

Letzte Aktualisierung: 1 de mayo de 2026

Cookies: Utilizamos cookies necesarias para el funcionamiento y opcionales para mejoras. Detalles

Necesarias
Activo
Analítica
Marketing