Aujourd’hui avait lieu le plus grand rendez-vous SEO de France au Parc des Princes. Rien de moins. Entre la pelouse mythique du PSG et les salles remplis d’experts, de consultants et de vieux briscards (pour moi les dinos, c’est les autres et on n’en voit plus trop), on y retrouve une ambiance digne d’un bon vieux SEO Camp Paris.
Entre IA générative, évolutions des SERP et secousses algorithmiques à répétition, il faut suivre le rythme sans s’essouffler. Comme souvent, même si je n’ai pas eu le courage pour le Chiang Mai SEO 2024, voici un compte rendu, plus complet que le SEO Campus 2018 ou le SMX 2024, mais moins cryptique que celui du Barcamp Black Hat de Toulouse, donc un peu plus comme le SEO Camp’us de Lille (oui je suis SEO, je fais des liens !).
Sommaire
- L’ère de l’Agentic SEO par Vincent Terrasi
- Manipuler les IA par Alan Cladx
- Pause café
- Reverse engineering des IA par Nicolas Rabouille
- Conférence manquée (et l’accès impossible aux stands)
- Pause déjeuner
- Guider l’IA vers votre marque sans changer une ligne de votre site par Jacky Giang
- Discover sans être un média par Sylvain Deauré
- Requête, réponse & fan-out par Sylvain Peyronnet
- Pause café(s)
- La face cachée des moteurs génératifs par Alexis Rylko
- Discover, entre test et trafic par Paul Sanches
- Conclusion de la journée
L’ère de l’Agentic SEO par Vincent Terrasi
Vincent a ouvert la journée avec une conférence dense mais limpide sur ce qu’il appelle l’Agentic SEO, autrement dit, penser son travail SEO à l’ère des agents IA. L’idée maîtresse : arrêter de “faire de l’IA à la main” et plutôt construire des process qui pensent IA-first. L’objectif est clair : gagner du temps, améliorer le workflow, et surtout, laisser les IA travailler en autonomie dès lors qu’elles disposent de données fiables.
Ce qui ressort, c’est une vraie philosophie d’optimisation continue : boucler le cycle entre données, IA et retours utilisateurs. Les retours (logs, analytics, signaux comportementaux) servent de carburant pour ajuster les actions quasi en temps réel.
La présentation, très orientée “gain de temps et efficacité”, a bien posé les bases : on n’est plus dans un monde où l’on programme, mais dans un monde où l’on oriente et supervise des IA.
Manipuler les IA par Alan Cladx
Changement d’ambiance avec Alan qui a préféré explorer l’autre versant de l’IA : celui de la manipulation. Son exemple phare : l’histoire de l’aquaponey aux Jeux Olympiques de Paris. En partant d’un canular volontairement absurde, il montre comment il est possible de pousser une fausse information à remonter dans les résultats génératifs, simplement en exploitant les failles connues des modèles actuels.
Actuellement les LLM ont encore le niveau de Google d’il y a dix ans : friands de structure, biaisés par la langue anglaise, et vulnérables là où les données sont rares. Il a donc détaillé comment tirer parti du JSON de Schema.org pour ancrer de fausses données, ou encore comment publier dans des zones linguistiques peu couvertes pour biaiser le contenu des modèles.
Je ne partage que des techniques déjà connues et publiques, pour le reste il fallait être présent.
Pause café
Petite respiration bienvenue après ces deux conférences, on retrouve quelques têtes connues, on refait le monde autour d’un café en parlant IA, Google…
Reverse engineering des IA par Nicolas Rabouille
Reprise avec un conférencier qui a traversé l’Atlantique pour venir présenter son travail. Le sujet : le reverse engineering appliqué aux IA et, plus largement, à la compréhension des crawls. Autrement dit : plonger dans les logs pour comprendre ce que les robots font vraiment et comment adapter sa stratégie éditoriale en conséquence.
Sa démo centrale consistait à construire un dashboard de crawl capable d’analyser les User Agents, les patterns de visite et les comportements des bots IA. L’idée est d’aligner la stratégie de contenu avec les signaux réels observés sur le site.
Petit bémol tout de même : du placement de produit qui rappelait un peu le salon du e-marketing (un peu trop visible à certains moments, mais pas que pour cette conférence). Mais l’ensemble restait très clair et agréable, et le partage était au rendez-vous.
Conférence manquée (et l’accès impossible aux stands)
Comme souvent dans les événements bien remplis, impossible de tout suivre. On comptait profiter de la fin de matinée pour faire un tour des stands et saluer quelques copains, mais mauvaise surprise : accès bloqué pour ceux qui n’avaient pas pris le repas sur place. Un petit raté logistique, clairement pas dramatique, mais dommage pour les sponsors qui se sont retrouvés privés d’une partie de leur audience potentielle, espérons que l’équipe en charge prendra note pour les prochaines éditions.
Cela n’enlève en rien la qualité de l’évènement et de l’organisation, car c’est le seul bémol à cette édition.
Pause déjeuner
Après une matinée bien remplie, direction la pause déjeuner. Rendez-vous dans une petite pizzeria à deux pas du Parc, sur une bonne idée de Thomas Soudaz.
À table, ambiance détendue et franche rigolade, nous avons parlé SEO, IA, sport, et parentalité, on vieillit…
Le repas, simple mais efficace, a permis de recharger les batteries et surtout de retrouver ce que l’on aime : des échanges en plus petit comité et sans filtre.
Guider l’IA vers votre marque sans changer une ligne de votre site par Jacky Giang
Son sujet : comment faire en sorte que l’IA “comprenne” et valorise votre marque sans toucher à une seule ligne de code de votre site.

Jacky a repris plusieurs points évoqués plus tôt dans la journée par Alan, mais au lieu d’essayer de “tromper” l’IA, autant l’éduquer intelligemment. Il a détaillé plusieurs stratégies : renforcer la cohérence de son écosystème éditorial, diffuser des signaux externes cohérents (communiqués, mentions, citations). Jacky n’a pas hésité à évoquer les pratiques courantes d’achat de modifications d’articles : ajouter ou supprimer un nom dans un top, parfois contre quelques euros.
Discover sans être un média par Sylvain Deauré
Dans un univers souvent centré sur les datas et les IA, il a ramené tout le monde à l’essence même du web : le contenu et la communauté (mais en se basant sur la donnée, on parle de Sylvain tout de même !). Sa conférence a mis en avant une approche très storytelling, avec des exemples de sites de niche qui ont percé sans jamais chercher à “faire du Discover”.
Le cœur du message : si vous avez une communauté forte, un contenu de qualité et une thématique bien identifiée, Google Discover peut vous propulser, même sans être un site d’actualité. La présentation était claire, fluide, et ponctuée de touches d’humour.
Requête, réponse & fan-out par Sylvain Peyronnet
Place ensuite à un autre Sylvain, autre intervenant avec une approche carrée, mais encore plus dans son élément : la pédagogie. Sa conférence visait à expliquer comment fonctionnent les GSE (Generative Search Engine) et surtout comment être visible en tant que source dans ces outils.
Son explication du “fan-out”, ce processus par lequel une requête est décomposée en plusieurs sous-requêtes, chacune contribuant à la réponse finale était limpide.
L’idée clé à retenir : pour être cité par un LLM ou un moteur conversationnel, il faut être visible sur les différentes requêtes secondaires liées à un sujet.
Sylvain, toujours avec un peu d’humour, notamment quand il a évoqué sa femme, a fait une présentation maîtrisée et accessible pour tous.
Pause café(s)
Nouvelle pause bienvenue avant le dernier bloc de conférences, l’occasion d’échanger sur tout et rien : l’inflation des noms de domaine, les workflows automatisés avec n8n, le retour des forums, la lente agonie des annuaires (sauf si LinkedIn se réveille)… et bien sûr, de titiller Paul avant sa conf, histoire de le chauffer un peu et de le challenger sur son futur nouvel outil.
La face cachée des moteurs génératifs par Alexis Rylko
En fin de journée, Alexis a pris la parole pour aborder le sujet ô combien discuté des moteurs génératifs : SearchGPT, Perplexity AI, Claude AI et consorts. Une conférence carrée, bien structurée, très propre sur la forme.
Seul bémol : le timing. Passer en dernier, après une journée saturée d’IA, n’aide pas, forcément, une partie du contenu faisait écho à des points déjà abordés dans les autres conférences. Le genre d’intervention qu’on écoute avec plaisir, mais qui aurait brillé davantage plus tôt dans le programme.
Discover, entre test et trafic par Paul Sanches
Pour clôturer cette journée bien remplie, tigrou a pris la scène pour une conférence très orientée pratique sur Google Discover. Comment optimiser les contenus pour maximiser leur présence dans le flux Discover, entre choix des titles (usage de chiffres, d’éléments de localisation…), le bon timing de publication, les sujets et la génération de trafic (qui aide aussi à l’indexation sur Google).

Paul a, comme à son habitude, livré un contenu sans filtre : données, constats, tests, et un peu de provocation bien placée.
Une belle manière de conclure cette journée, sur une note à la fois technique et concrète.
Conclusion de la journée
Entre conférences pointues, débats sur l’avenir du référencement à l’ère de l’IA et discussions improvisées autour d’un café ou d’une pizza, l’événement a confirmé que la communauté SEO française reste vivante, curieuse et performante.
En bref : du bon contenu, des bons moments, et l’envie d’y revenir l’an prochain.
Merci Aurélien pour ce compte-rendu. Difficile d’être à tous les évènements, Salon du Search Marketing, SMX, SD DAY, TeknSeo, Success Marketing, Seo Summit, … donc les retours sont toujours bienvenus !
Avec plaisir 😉