API Community Monitor
Récupérer et filtrer mentions, reviews et threads de discussion sur ta marque.
Le Community Monitor crawle les plateformes publiques (Reddit, Hacker News, Twitter/X, Quora, Trustpilot, commentaires YouTube, etc.) à la recherche de mentions de ta marque ou de mots-clés définis. L'API fournit les mentions brutes plus des alertes agrégées — parfait pour brancher des dashboards de réputation ou des bots Slack à Rankion.
Contexte du module : Community Monitor.
Mentions
Une mention est une occurrence individuelle : plateforme, auteur, extrait de texte, sentiment, permalien.
| Méthode | Endpoint | Description | Crédits |
|---|---|---|---|
| GET | /v1/community/mentions |
Liste de toutes les mentions, paginée | — |
| GET | /v1/community/mentions/{id} |
Détail d'une mention | — |
Filtres (paramètres de requête) :
?platform=reddit|hackernews|twitter|trustpilot|quora|youtube?sentiment=positive|neutral|negative?keyword=<string>(recherche texte sur le body de la mention)?from=YYYY-MM-DD&to=YYYY-MM-DD?page=1&per_page=25
curl "$BASE/community/mentions?platform=reddit&sentiment=negative&from=2026-04-01" \
-H "Authorization: Bearer $TOKEN" | jq '.data[] | {id, platform, sentiment, url, snippet}'
Réponse (abrégée) :
{
"data": [
{
"id": 451,
"platform": "reddit",
"author": "u/foo",
"snippet": "I tried Rankion and the GEO scoring was…",
"sentiment": "negative",
"score": -0.42,
"url": "https://reddit.com/r/seo/comments/…",
"discovered_at": "2026-04-28T14:21:00Z"
}
],
"meta": {"current_page": 1, "per_page": 25, "total": 138}
}
Dispatcher un scan
Un scan déclenche un crawl-run immédiat pour un mot-clé donné sur des plateformes choisies — indépendamment de l'auto-schedule.
| Méthode | Endpoint | Body | Crédits |
|---|---|---|---|
| POST | /v1/community/scan |
{keyword, platforms[]} |
5 |
curl -X POST "$BASE/community/scan" \
-H "Authorization: Bearer $TOKEN" -H "Content-Type: application/json" \
-d '{
"keyword": "rankion ai",
"platforms": ["reddit", "hackernews", "trustpilot"]
}'
Réponse 202 Accepted :
{
"scan_id": 77,
"status": "queued",
"message": "Community scan dispatched"
}
Le scan tourne en arrière-plan. Les nouvelles mentions trouvées apparaissent dans la liste dès que le job se termine (typiquement 30 à 120 s selon le nombre de plateformes).
Alerts
Les alerts sont des signaux agrégés : accumulations de mentions négatives, chutes de sentiment, baisse de score de reviews. Le système les compile par jour/semaine.
| Méthode | Endpoint | Description | Crédits |
|---|---|---|---|
| GET | /v1/community/alerts |
Alerts actives + historiques | — |
curl "$BASE/community/alerts" -H "Authorization: Bearer $TOKEN" \
| jq '.data[] | {id, type, severity, message, triggered_at, mentions_count}'
Valeurs typiques de type :
sentiment_drop— la moyenne de sentiment est > 1 SD sous la baselinenegative_burst— quantité anormale de mentions négatives sur une fenêtre courtereview_alert— des review sources externes signalent une chute de score (voir API Review Sources)
Notes
- Les mentions sont dédupliquées par
(platform, external_id)— le même commentaire Reddit n'est jamais stocké deux fois, même si plusieurs scans tournent. - Le sentiment est heuristique (basé modèle). Pour des fins légales/compliance, vérifie toujours l'URL d'origine, pas le label de score.
- Les auto-crawls tournent en arrière-plan (plusieurs fois par jour) — le
POST /scanmanuel n'est que pour des pulls ad-hoc. Sans appel scan, la liste de mentions se remplit quand même. - La disponibilité des plateformes change. Le crawl Twitter/X dépend du statut de l'API — en cas de panne, un
POST /scanciblé avecplatforms:["twitter"]renvoie un503ou un résultat vide. - Le pattern de webhook public pour les mentions n'est (pas encore) exposé publiquement — si tu as besoin de push temps réel, polle
/community/alertsà la minute.
Voir aussi : API Review Sources · Community Monitor.