GEO : quels critères influencent les recommandations des IA

Robot IA

Une étude menée par First Page Sage analyse la manière dont plusieurs chatbots formulent des recommandations commerciales. Elle met en avant des critères communs, avec des écarts de pondération selon les modèles.


Une étude centrée sur les recommandations commerciales

First Page Sage a analysé plus de 11 000 requêtes portant sur des produits et services, adressées à ChatGPT, Gemini, Perplexity et Claude.

L’objectif était de comprendre sur quels éléments reposaient les réponses générées lorsqu’un utilisateur demandait une recommandation.

Le périmètre est large, mais il s’agit d’une étude produite par un acteur du secteur, qui propose lui-même des services liés au GEO. Les résultats doivent donc être lus comme une grille d’analyse, et non comme un standard partagé.


Des critères qui reviennent d’un modèle à l’autre

Malgré leurs différences, les quatre chatbots s’appuient sur des signaux proches pour construire leurs recommandations. On retrouve notamment :

  • des listes ou classements issus de sites bien positionnés,
  • des avis publiés sur des plateformes reconnues,
  • des éléments d’autorité comme des récompenses ou accréditations,
  • des données d’usage ou des références clients,
  • des signaux de perception (médias, réseaux et forums).

Dans l’étude, ces éléments sont présentés comme des facteurs déterminants, avec des poids variables selon les modèles.


Un point commun : le rôle central des listes

Le constat le plus structurant concerne la place des listes dites “autoritaires”.

Dans les quatre cas, les recommandations reposent largement sur des contenus déjà existants, souvent présentés sous forme de classements ou de comparatifs.

Ces listes sont issues :

  • de médias spécialisés,
  • de sites éditoriaux reconnus,
  • de comparateurs ou de guides d’achat.

Les modèles croisent ces sources et retiennent les éléments les plus fréquemment cités.


Ce qui distingue les modèles

Les différences apparaissent dans la manière d’exploiter ces signaux.

ChatGPT s’appuie principalement sur des listes et des avis, avec un travail de synthèse entre plusieurs sources. Dans certains cas, une source très bien positionnée peut peser fortement dans la réponse.

Gemini suit une logique proche, mais intègre davantage de signaux issus de l’écosystème Google, notamment l’autorité des sites et les avis locaux. Pour les recherches de proximité, les notes et avis jouent un rôle central.

Perplexity adopte un fonctionnement plus direct, en s’appuyant largement sur des listes bien positionnées, avec un tri principalement guidé par les avis.

Claude se distingue par un recours plus limité au web ouvert. Ses recommandations reposent davantage sur des bases de données et des répertoires établis, ce qui tend à faire remonter des acteurs plus installés.


Des ajustements selon le type de requête

L’étude souligne aussi que les critères ne sont pas utilisés de la même manière selon les cas.

  • Pour les recherches générales, les listes dominent largement.
  • Pour les recherches locales, les avis et les notes prennent davantage de poids.

Dans certains cas, des éléments comme les récompenses, les accréditations ou les données d’usage servent à départager des options proches.


Une lecture à nuancer

Les résultats proposés reposent sur une méthodologie interne, avec des catégories et des pondérations définies par First Page Sage.

Ils décrivent des tendances observées dans un cadre donné, mais ne permettent pas d’établir un fonctionnement exhaustif ou stable des modèles.

D’autant que ces systèmes évoluent rapidement et peuvent ajuster leurs critères en fonction du contexte, de la requête ou du profil utilisateur.


Ce que cette étude apporte au SEO et au GEO

Sans établir de règles définitives, cette étude apporte un éclairage sur la manière dont les recommandations sont construites dans les interfaces IA.

Elle confirme d’abord un point : il n’existe pas un fonctionnement unique.
Chaque modèle s’appuie sur des signaux proches, mais avec des priorités différentes selon les cas.

Elle met aussi en évidence le rôle structurant de certains types de contenus :

  • les listes et comparatifs déjà établis,
  • les avis issus de plateformes reconnues,
  • les éléments d’autorité (récompenses, accréditations et affiliations).

Dans ce cadre, la visibilité ne repose pas uniquement sur la production de contenu, mais aussi sur la présence dans ces écosystèmes.

Enfin, l’étude suggère que la stratégie éditoriale ne peut plus être pensée de manière uniforme.
Selon le canal visé — moteur de recherche classique ou interface IA — les logiques d’exposition ne sont pas strictement les mêmes.

Cela ne remet pas en cause les fondamentaux du SEO, mais introduit des variations dans la manière dont les contenus sont sélectionnés, agrégés et restitués.