rankion.ai

AI-Detector

Détecte si un texte a été écrit par une IA — pour les audits de contenu et les quality gates.

L'AI-Detector regarde un texte et te dit avec quelle probabilité il est généré par IA — phrase par phrase, avec heatmap et score agrégé. Pratique quand tu achètes des textes à des freelances ou à des sources externes et que tu as besoin de quality control, ou quand tu veux tester tes propres drafts IA contre des outils détecteurs avant publication. Les outputs sont chaînables directement dans l'Humanizer, pour que « rouge » ne reste pas « rouge ».

Ce qu'il peut faire

  • Score agrégé — un nombre 0–100 pour la probabilité « AI-generated ». Au-dessus de 70 = probablement IA, en dessous de 30 = probablement humain.
  • Heatmap par phrase — par phrase un coloriage ; les phrases rouges sont les phrasings GPT typiques.
  • Détection multi-modèle — probabilités séparées pour la famille GPT-4, la famille Claude, la famille Gemini.
  • Modes de scanquick (rapide, lower confidence) et deep (plus lent, recall plus élevé).
  • Texte libre ou article — soit envoyer du texte brut, soit référencer un Article-ID.
  • One-Click-Humanize — si le score est trop élevé, il y a un bouton « Humanize » qui démarre l'Humanizer.
  • Audit-trail — tous les scans sont sauvegardés ; tu peux afficher l'historique et les changements dans le temps.

Quand l'utiliser

  • Tu achètes du contenu en externe et tu veux t'assurer qu'on ne t'a pas livré simplement de l'output ChatGPT sans retouche.
  • Tu opères un blog sur une plateforme avec une politique « no pure AI » (Google Helpful Content, certains programmes d'affiliation).
  • Tu veux « humaniser » tes propres drafts IA avant publication suffisamment pour que les outils détecteurs externes ne les flaggent pas.
  • Tu construis un quality gate dans ta pipeline d'automation : ne publier que si AI-Score < 40.

Workflow

  1. Soumettre un textePOST /ai-scanner/detect avec {text} ou {article_id} et le scan_type souhaité.
  2. Lire le score — la réponse contient le score agrégé, la heatmap par phrase, les probabilités de modèle.
  3. Décider — si > 70 : appeler Humanizer ou retravailler manuellement.
  4. Re-Scan — après modification, redétecter, jusqu'à ce que le score soit dans ton corridor cible.

API

Méthode Endpoint Crédits
POST /v1/ai-scanner/detect 2

Body :

{
  "text": "Hier kommt der zu prüfende Text...",
  "scan_type": "deep"
}

Alternativement avec référence d'article :

{
  "article_id": 4711,
  "scan_type": "quick"
}

Réponse (raccourcie) :

{
  "score": 78,
  "verdict": "likely_ai",
  "models": {
    "gpt": 0.82,
    "claude": 0.41,
    "gemini": 0.33
  },
  "sentences": [
    {"text": "...", "ai_probability": 0.91},
    {"text": "...", "ai_probability": 0.12}
  ]
}

Crédits et limites

  • Par scan : 2 crédits, indépendamment du type de scan et de la longueur de texte jusqu'à 25 000 caractères.
  • Pour les textes > 25 000 caractères : automatiquement splittés en chunks, chaque chunk = 2 crédits.
  • Quick-Mode : ~3 secondes, réponse sync.
  • Deep-Mode : jusqu'à ~30 secondes, également sync (attention au hardlimit PHP-FPM).
  • Article-Mode : team-scoped — tu ne peux scanner que des articles de ton équipe actuelle.

Modules associés

  • Humanizer — l'action de suite naturelle quand le détecteur s'allume en rouge.
  • AI Content Editor — les drafts IA entrent ici et sortent par le détecteur.
  • Content Audit — peut configurer l'AI-Score comme critère d'audit.
  • Automation — détecteur intégrable comme quality gate dans les pipelines.
Letzte Aktualisierung: 1 mai 2026

Cookies : Nous utilisons des cookies nécessaires pour le fonctionnement et facultatifs pour les améliorations. Détails

Nécessaire
Actif
Analytique
Marketing