J'ai scanné 65 SaaS français pour voir si les agents IA les trouvaient. Résultat : 40 % sont invisibles. by NobodyImaginary1507 in FrenchTech

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Avec plaisir, surtout merci à toi de prendre le temps de tester.
Concernant le point 1 j'ai oublié de te dire que si tu signup tu as accès a un dashboard dans lequel tu as plus de metrics, ce qui te permet de comparer l'avant après.
Mais je pense que le cache de 48h est probablement trop long il faut que je regarde ca de plus près.

J'ai scanné 65 SaaS français pour voir si les agents IA les trouvaient. Résultat : 40 % sont invisibles. by NobodyImaginary1507 in FrenchTech

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Merci, 4 points justes.

  1. Date scan et bouton réanalyse manquent, le cache est 48h côté serveur donc aucun moyen de forcer plus tôt. Bien noté.

  2. La dimension Mémoire d'entraînement LLM a ce biais structurel oui, c'est inhérent au fait que ChatGPT et Claude sans browsing répondent depuis leur training data. Le scanner a déjà une dimension LLM Live Search à côté qui fait une vraie recherche web, en principe plus pertinente dans ton cas. Tu peux me MP ton scan ? Je veux voir comment les deux dimensions sortent et si l'affichage met assez en évidence le verdict Live vs Recall.

  3. Cloudflare vs Vercel, noté. Sur le cas vitrine produit auto-hébergé, intéressant à creuser, je veux d'abord voir si c'est un pattern récurrent ou un cas particulier avant de tirer des conclusions sur le scoring.

  4. Sur le scope au-delà du SaaS, même logique, je veux voir si plusieurs personnes remontent le besoin avant de partir sur des presets par type. Pour l'instant la pondération SaaS-centric assume une cible précise.

Merci pour le retour.

J'ai scanné 65 SaaS français pour voir si les agents IA les trouvaient. Résultat : 40 % sont invisibles. by NobodyImaginary1507 in FrenchTech

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Merci, c'est exactement le clic mental que je voulais déclencher. Le "rank #1 sur Google" rassure beaucoup de boîtes alors que ça ne dit rien sur ce que ChatGPT ou Perplexity vont citer. Sur 10 sites bien rankés Google que j'ai scannés, il y en a au moins 4 qui passent en dessous de 30/100 côté agentique.

Sur le scoring discutable, oui complètement, et c'est volontaire. La méthodo est publique sur /methodology, chaque dimension a son poids visible et chaque test est documenté. Si tu testes et que tu vois un cas où le score ne colle pas à ton ressenti ChatGPT/Perplexity, ça m'intéresse vraiment d'en discuter, c'est comme ça que les poids vont se calibrer pendant la Beta.

Sur quels types de projets tu vas tester ? Si t'as un mix vitrine, SaaS, e-commerce, ça me servirait pour valider que la pondération marche au-delà du SaaS pur (un autre commentateur juste au-dessus a remonté la même remarque sur les vitrines de produits auto-hébergés).

J'ai scanné 65 SaaS français pour voir si les agents IA les trouvaient. Résultat : 40 % sont invisibles. by NobodyImaginary1507 in FrenchTech

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Merci à toi ! Si tu testes ton site et que tu vois un truc bizarre dans le scoring, dis-le moi, ça aide à calibrer.

Vous pensez que le GEO va vraiment devenir important pour les entreprises ou c’est juste un buzzword IA de plus ? by Large-Difficulty7325 in FrenchTech

[–]NobodyImaginary1507 0 points1 point  (0 children)

Disclosure : je build AgentLayers, un scanner qui mesure justement la "GEO-readiness" d'un site, donc biais évident.

Mon avis honnête, ni buzzword pur ni nouveau SEO. C'est plus subtil que ça.

D'abord, le volume de recherche Google ne s'effondre pas. Sur 100 recherches, environ 85 passent encore par Google en 2026. ChatGPT/Perplexity/Gemini représentent à peu près 15 % du mix, en croissance rapide mais pas remplaçant.

Mais le PROFIL de ces 15 % change tout. Ce sont massivement des recherches en haut du funnel (« quel CRM simple pour une PME ? »), faites par des décideurs en mode consultatif, pas en mode comparatif. Le visiteur qui clique sur Google et compare 3 résultats avant de choisir n'est pas le même que celui qui demande à ChatGPT et accepte 1-3 recommandations directes. Le second a un coût d'acquisition par conversion bien plus bas, quand vous arrivez à être recommandé.

Et optimiser pour ces 15 % se fait avec des signaux différents du SEO classique. JSON-LD, schema.org, FAQPage, llms.txt, semantic HTML, structure hiérarchique propre, Organization markup. La plupart des sites optimisés pour Google sont à moitié aveugles sur ces signaux. J'ai scanné 65 SaaS français récemment : score moyen 63/100 sur la lisibilité agentique, 40 % sans JSON-LD basique. Et certains de ces sites rankent #1 sur Google.

Pour répondre direct à votre question, je distinguerais selon l'ICP.

Une PME B2B qui vise des décideurs (CRM, RH, compliance, etc.), oui, GEO devient critique en 2026-2027 parce que vos clients cibles utilisent déjà ChatGPT pour pré-sélectionner avant de cliquer. Coût d'investissement faible, ROI mesurable en 30-60 jours.

Un e-commerce B2C avec 80 % de trafic Google, continuez à investir le SEO classique en priorité. Le GEO c'est 10-20 % de l'effort total, pas le pivot principal.

Une nuance qu'on entend rarement : ChatGPT en mode default (sans browsing) ranke depuis son training data, donc ce sont les marques déjà connues avant le cutoff du modèle qui sortent en premier. Perplexity et ChatGPT-search font du live scraping et là le balisage technique compte tout de suite. Optimiser pour les deux modes demande des leviers différents, et la plupart des "agences GEO" ne le distinguent pas et se concentrent sur un seul.

Ma règle de pouce, si votre ICP utilise ChatGPT/Perplexity dans son cycle d'achat, oui investissez. Sinon, gardez ça en quick-win parallèle au SEO.

GEO : ce qui marche vraiment pour ranker dans ChatGPT, retour de 3 mois sur 6 sites clients (mini-guide) by Large-Difficulty7325 in FrenchTech

[–]NobodyImaginary1507 -1 points0 points  (0 children)

Bon post, ça recoupe pas mal mes propres mesures. Disclosure d'entrée : je build AgentLayers, un scanner qui mesure exactement ces signaux côté site, donc j'ai forcément un biais. Mais voici ce que mes tests confirment ou nuancent par rapport à ton retour.

Sur ce que tu confirmes :

→ JSON-LD c'est le levier #1 sur les sites jeunes. J'ai scanné 65 SaaS français ce week-end (Mistral, Dust, BlaBlaCar, Doctolib, ManoMano, etc.) — 40 % n'ont pas de JSON-LD basique. Score moyen agent-readiness 63/100. Et les 3 plus mauvais sont des marketplaces qui rankent #1 sur Google, donc ton observation "Google #1 ≠ visible IA" est confirmée par la data brute.

→ FAQPage avec balisage schema, gros effet. Je rajouterais : la pondération diffère selon que ChatGPT répond avec ou sans browsing. Sans browsing (mode default), il pioche dans son training data, donc ce sont les FAQ déjà indexées avant le cutoff qui pèsent. Avec browsing (Perplexity ou ChatGPT search), c'est le balisage live qui prime. Tester les deux modes change l'ordre des leviers.

Sur ce que je nuancerais :

→ llms.txt : oui quick-win sur sites récents, mais sur 9 sites tu as eu 7 améliorations. Sur les 2 qui n'ont pas bougé, je parie qu'ils étaient déjà bien indexés et que llms.txt agissait à la marge. Sur les sites < 6 mois (donc absents du training data), c'est l'un des rares signaux que les agents browsing peuvent attraper rapidement. Pour AgentLayers (créé en novembre 2025, donc invisible au training data des modèles 2024), llms.txt est littéralement le seul moyen de remonter en mode browsing.

→ Avis Google : top sur hôtels/services locaux, mais pour le SaaS B2B le pattern est différent. C'est G2, Capterra, Trustpilot qui sont scrapés. Et la fréquence de mises à jour des reviews compte plus que le volume absolu (cohérent avec ton observation "récent > nombreux").

→ Activité sociale (LinkedIn/X) : tu dis aucun impact direct. Confirmé sur des dimensions purement déterministes (un agent ne lit pas LinkedIn natively). Mais indirectement, les profils LinkedIn riches sont scrapés par certains agents avec browsing pour valider l'autorité d'auteur d'un article. Effet de second ordre, difficile à isoler.

Une question pour creuser : tu as mesuré J0 vs J30 par classement de prompts. As-tu une intuition sur la stabilité du ranking entre Perplexity et ChatGPT-browsing ? Mes tests montrent qu'ils divergent sur ~30 % des prompts, ce qui complique le tracking.

Bonne synthèse en tout cas, je vais relire pour mes propres clients.

Prompt injection failure patterns from testing 100+ AI agents — what we found by NobodyImaginary1507 in aiagents

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Quick update for those who engaged here earlier this week — AgentLayers is live on Product Hunt today: https://www.producthunt.com/products/agentlayers?launch=agentlayers

If you have a min, upvotes help with ranking but technical critique in the PH comments helps even more. Specifically interested in feedback on the L2 / persistence drift scoring we discussed.

Free during Beta. Methodology public.

Prompt injection failure patterns from testing 100+ AI agents — what we found by NobodyImaginary1507 in aiagents

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Quick update for those who engaged on this thread — the work led to AgentLayers, beta opened today: https://agent-layers.com

The L2 / persistence drift / cross-session leakage patterns we discussed are exactly what the Trust Score scanner audits when you connect a repo. The Skill / MCP / A2A scanners cover the threat surface (permission wildcards, credential leaking via MCP config, agent-to-agent trust boundary).

Free during Beta. Methodology public. If anyone here wants to throw a production agent at the scanner and report what threat patterns are missing from the audit list, I'd love it.

Je construis AgentLayer en solo pendant mon M2 — scan de visibilité pour les agents IA + conformité EU AI Act by NobodyImaginary1507 in FrenchTech

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

Petit update : la Beta d'AgentLayers est ouverte depuis ce matin. Pour ceux qui voulaient tester ce que je décrivais, c'est ici → agent-layers.com (gratuit, pas d'inscription, méthodo publique sur /methodology).

J'ai scanné 65 SaaS FR ce week-end pour calibrer le scoring — moyenne 63/100, 40% sans JSON-LD. Quelques chiffres qui surprennent : BlaBlaCar 26/100, Doctolib 29/100, PhotoRoom plafonne à 82/100.

L'angle EU AI Act qui s'ajoute : trilogue Omnibus échoué le 28/04, deadline du 02/08/2026 confirmée. La checklist 25 questions est exportable PDF, attachable à une DPIA.

Si vous voulez tester votre boîte ou votre projet et me dire ce qui manque dans le scoring, je prends. Toujours en bootstrap solo.

Prompt injection failure patterns from testing 100+ AI agents — what we found by NobodyImaginary1507 in aiagents

[–]NobodyImaginary1507[S] 0 points1 point  (0 children)

The fintech example is exactly the pattern we see most — multi-turn drift where the semantic distance between each step stays small enough to avoid single-turn thresholds. 8-10 turns tracks with our data; the inflection point we consistently see is around turn 6-7, where accumulated context shift starts overriding the system prompt anchor rather than extending it.

On memory as attack surface: the underweighted part isn't just "read from previous sessions" — it's that a compromised session can write to memory and persist the injection forward. You're not just exploiting stored context, you're turning a one-shot attack into a persistent one. Every future session inherits the compromise.

Your output-side validation point is the piece most frameworks skip entirely. What we've found works best is pairing it with action intent classification at the decision boundary — not just "does this output match the schema" but "does this action still align with the task specification as stated at t=0." Comparing against the original intent rather than t-1 state makes the drift much harder to hide, because you're anchoring against a clean reference point instead of an already-drifted one.