30 minutes
0 inscrit.e
L’essor des LLMs (Large Language Models) et des moteurs de recherche génératifs (GSE) bouscule notre rapport à la sémantique, au SEO et à la manière dont on conçoit les contenus. Mais au fond, qu’est-ce que ça change vraiment ?
Est-ce qu’un modèle comprend le sens des mots, ou joue-t-il seulement avec des probabilités ?
Sommes-nous face à une révolution sémantique ou à une continuité qui amplifie ce qu’on faisait déjà ?
Les bonnes vieilles pratiques SEO sont-elles dépassées, renforcées, ou simplement à ajuster ?
Les moteurs voient-ils mieux l’intention derrière les requêtes ou est-ce une illusion bien présentée ?
Devons-nous revoir nos façons de produire, structurer et organiser l’information (contenus, maillage, architecture) ou juste mieux comprendre les règles du jeu pour rester visibles ?
Lors de cette conférence, Guillaume et Sylvain Peyronnet poseront ces questions et vous partageront leurs réflexions. C’est l’occasion de faire le point, d’y voir plus clair et de réfléchir ensemble à ce que l’IA change (ou non) dans notre rapport au sens, à la sémantique… et au SEO.
Un moment pour celles et ceux qui veulent prendre du recul, dépasser les discours marketing et repartir avec un regard un peu plus affûté sur l’ère des LLMs.
30 minutes
0 inscrit.e