Workflow AI-Detection + Humanizer
Détecter les traces d'IA dans ton texte et le rendre plus naturel — single-shot ou batch.
Les moteurs de recherche et plateformes deviennent de plus en plus sensibles aux motifs typiques de l'IA : longueurs de phrase uniformes, « il est important de noter », listes sur-structurées. Rankion te donne deux outils — un AI-Detector, qui scanne un texte pour estimer la probabilité IA, et un Humanizer, qui le rend activement plus naturel.
Détection single-shot
Vérification rapide pour un seul morceau de texte (par exemple un paragraphe fraîchement écrit ou un article livré par un client) :
curl -X POST https://rankion.ai/api/v1/ai-scanner/detect \
-H "Authorization: Bearer TON_TOKEN" \
-H "Content-Type: application/json" \
-d '{"text": "Il est important de noter que l'\''intelligence artificielle..."}'
Coût : 2 crédits. La réponse te fournit un ai_probability (0–100) et une heatmap phrase par phrase indiquant quelles phrases semblent particulièrement typiques d'une IA.
À partir de ai_probability ≥ 70, tu devrais humaniser. En dessous de 40, c'est généralement OK.
Article-Humanizer
Si tu veux passer un article complet (par exemple celui qui sort tout juste du AI Content Editor) par le Humanizer :
curl -X POST https://rankion.ai/api/v1/ai-scanner/humanize \
-H "Authorization: Bearer TON_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"text": "Le texte complet de ton article ici...",
"tone": "natural",
"language": "fr"
}'
Coût : 5 crédits. Synchrone, répond directement avec le texte réécrit. Durée : 5 à 15 secondes.
Le Humanizer fait varier les longueurs de phrases, introduit des imperfections (phrases courtes, points d'interrogation, inversions), remplace les formules typiques des LLM par des tournures plus quotidiennes — tout en conservant la fidélité sémantique.
Bulk-Humanizer (async + batch-polling)
Pour des volumes plus importants (10+ articles, pipelines de contenu entiers), il existe le Bulk-Humanizer asynchrone :
# Lancer le batch :
curl -X POST https://rankion.ai/api/v1/humanize \
-H "Authorization: Bearer TON_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"texts": [
{"id": "art-1", "content": "..."},
{"id": "art-2", "content": "..."},
{"id": "art-3", "content": "..."}
],
"tone": "natural"
}'
Coût : 8 crédits par texte. Réponse : HTTP 202 avec batch_id.
Ensuite, tu polles :
curl https://rankion.ai/api/v1/humanize/{batch_id} \
-H "Authorization: Bearer TON_TOKEN"
Tant que status: "processing", ça continue. Avec status: "completed", results[] est rempli avec les versions humanisées par identifiant d'entrée. Durée typique : 30 secondes à 5 minutes selon la taille du batch.
Quand l'utiliser — quand l'éviter
Utiliser quand :
- L'article sort directement du AI Content Editor et doit être prêt à publier sur des Money-Pages
- Les textes sont soumis sur des plateformes avec détection d'IA (universités, certains marketplaces)
- Tu construis une série de contenus avec une voix naturelle et cohérente
Ne pas utiliser quand :
- Le texte a déjà été retravaillé manuellement — le Humanizer peut alors introduire des ruptures de style
- Il s'agit de contenus très techniques ou factuels (code, chiffres, définitions) — le Humanizer peut décrisper ce qui ne devrait pas l'être
- La tonalité doit rester sur « expert / formel » — le défaut du Humanizer va vers la langue parlée
Quality-gate avant publication
Workflow recommandé pour un article final :
- Générer (Premier article avec le AI Content Editor)
- Score & Optimize (Optimiser le contenu pour Google et l'IA)
- AI-Detection — vérifier
ai_probability - Si ≥ 70 → Humanize
- Re-Detection → doit être < 40
- Relecture finale manuelle (5 min suffisent généralement)
- Publier
Détails du module et limites dans AI-Detector et Humanizer. Référence API : API Outils IA (Detector + Humanizer).