Humanizer
Haz que el texto IA suene más natural — como acción de un clic en artículos o en modo bulk.
El Humanizer reescribe texto IA para que suene menos a IA — otro ritmo en las frases, menos muletillas, voz más personal, más variación. Tienes dos vías de entrada: Single-Article (un clic sobre un artículo existente, sync) o Batch-Mode (paquetes de texto libre con varios documentos a la vez, async). Las salidas suelen lograr que detector-tools posteriores (incluido nuestro propio AI-Detector) bajen el score notablemente. Imprescindible para quienes publican drafts IA sin que huela a IA.
Qué puede hacer
- Single-Article-Humanize — sync, un clic en el editor:
POST /ai-scanner/humanizecon{article_id, level}. El resultado reemplaza el body del artículo directamente. - Bulk-Humanize — async, batch-API:
POST /humanizecon lista de texto libre. El job corre en background, status pollable. - Niveles —
light(cosmético, ~10% de cambio),medium(default, ~25%),heavy(~50%, puede desplazar ligeramente el significado). - Conservación del estilo — si tu proyecto tiene un Style Profile, la salida del humanize se ajusta a tu tono.
- Vista de diff — antes / después en el editor, frase a frase.
- Roundtrip con AI-Detector — directamente tras humanize puedes lanzar un nuevo run de detect para validar el score.
- Document-Tracking — los runs batch tienen Document-IDs individuales, cada uno con su propio status.
Cuándo usarlo
- Tienes un draft listo del AI Content Editor y quieres suavizarlo antes del publish.
- Importas textos de otras herramientas IA y quieres llevarlos a tu tono y a un AI-score más bajo.
- Realizas una migración bulk: 200 artículos IA antiguos deben pasar todos una vez por el Humanizer.
- Construyes una pipeline «Generate → Humanize → Detect → Publish» y necesitas la stage Humanize.
Workflow
Single-Article (sync)
- En el editor, clic en «Humanize», o vía API:
POST /ai-scanner/humanizecon{article_id, level: "medium"}. - La response sync entrega el body reescrito — se reemplaza directamente en el artículo.
- Opcional: re-scan con el AI-Detector.
Batch (async)
- Junta los textos y mándalos a
POST /humanize(HTTP 202 +batch_id). - Polling de estado con
GET /humanize/{batch_id}— valores:pending,processing,completed,failed. - Recupera los documentos individuales vía
GET /humanize/{batch_id}/documents/{document_id}. - Resultados de vuelta a tu workflow / importer.
API
| Método | Endpoint | Créditos |
|---|---|---|
POST |
/v1/ai-scanner/humanize |
5 |
POST |
/v1/humanize |
8 |
GET |
/v1/humanize/{batch_id} |
— |
GET |
/v1/humanize/{batch_id}/documents/{document_id} |
— |
Body de POST /ai-scanner/humanize (sync, single article):
{
"article_id": 4711,
"level": "medium"
}
Body de POST /humanize (async, batch):
{
"project_id": 12,
"documents": [
{"id": "doc-a", "text": "..."},
{"id": "doc-b", "text": "..."}
],
"level": "medium"
}
Response: HTTP 202 con { "batch_id": "hum-9182", "status": "pending" }.
Créditos y límites
- Single-Article (
/ai-scanner/humanize): 5 créditos por llamada. - Batch (
/humanize): 8 créditos por documento dentro del batch. - Status-polls y document-fetches: gratis.
- Límite sync: Single-Article corre contra el PHP-FPM-Limit de 600 s — para artículos muy largos (>20k caracteres) serás redirigido al modo batch.
- Tamaño de batch: hasta 50 documentos por batch, cada uno máx. 25k caracteres.
- Idempotencia: se permite re-run sobre el mismo artículo/texto, cuesta créditos cada vez.
Módulos relacionados
- AI-Detector — el check natural antes y después.
- AI Content Editor — Single-Article-Humanize está integrado aquí como botón.
- Content Optimizer — Optimize + Humanize a menudo encadenados tienen sentido.
- Automation — configurable como stage de pipeline.
Letzte Aktualisierung: 1 de mayo de 2026