Audit référencement du site de l’Élysée

Site de l'ElyseeLe 18 décembre dernier, le site de l'Élysée montrait son nouveau visage : un site moderne, avec un beau design, 100% Made in France, peu coûteux, résolument tourné vers le social, etc. Tout ça vous l'avez lu sur n'importe quel site de presse, tout comme vous savez, même sans l'avoir visité, que sa grosse nouveauté est la frise chronologique. Vous savez même que cette frise s'arrête le 15 mai 2012.

Bien, comme vous savez tout ça, je ne vais pas vous en parler ici, le sujet a été maintes fois évoqué. Ce que l'on a moins évoqué par contre, c'est l'aspect SEO du site du président de la République. Et comme il fallait bien que quelqu'un s'y colle, je me dévoue corps et âme pour vous.

Elysee.fr, l'État des lieux

Le nom de domaine

Commençons par le commencement : le nom de domaine. Elysee.fr existe depuis près de 15 ans et chacun d'entre nous sait que Google raffole des noms de domaines anciens. C'est un héritage bénéfique, que l'on ne doit pas spécialement aux créateurs du nouveau site, mais c'est un bon point. Là où on peut féliciter l'équipe, c'est qu'elle ne s'est pas reposée sur les acquis et a pensé aux nouveautés, notamment les noms de domaines avec accents. De fait, www.élysée.fr a bien été acheté et redirige correctement vers la home. Maintenant, un petit effort supplémentaire pour rediriger les versions sans www vers les versions avec www ne serait pas de trop ;-)

Le robots.txt

J'ai bien peur qu'on se trouve ici encore face à une mauvaise utilisation du robots.txt : ce n'est certainement pas la dernière fois que je le dirai mais celui-ci n'empêche en rien l'indexation des contenus, ni ne pousse à la désindexation. Si on se réfère au robots.txt du site elysee.fr, on se rend compte que le dossier /president/root/ est en disallow. Un petit coup d'oeil sur la SERP permet de voir qu'il y a pourtant des pages indexées (en réalité, des fichiers PDF).

PDF indexés

Les dates nous mettent la puce à l'oreille : ce sont en effet des dates qui précèdent le 15 mai 2012, vous savez, là où plus rien n'existe. Les fichiers indexés étaient donc là avant la refonte du site, c'est donc dans une optique de désindexation que cette directive a été placée dans le fichier robots.txt. Il ne serait pas plus simple de demander une désindexation à l'aide du fichier .htaccess ou des entêtes HTTP ? En supprimant la directive du robots.txt bien sûr, puisque sinon Google ne crawlera plus ces pages.

Est-il utile de préciser que lorsqu'on clique sur ces liens, les fichiers ayant été supprimés du serveur, on se retrouve sur une belle 404 ? Ici, Google voit rouge et tire la sonnette d'alarme.

Le sitemap.xml

N'en déplaise à certains, je reste un fervent défenseur du sitemap.xml. Pas parce qu'il aide au positionnement ou à l'indexation, non, loin de là. Simplement il reste d'une aide non négligeable, ou plutôt un élément de confort, pour monitorer le crawl.

Seulement dans cette optique là, j'aurais divisé le sitemap en plusieurs sitemaps différents, un par catégorie par exemple. Après tout, chaque catégorie n'est pas forcément amenée à évoluer au même rythme.

Les URL

Aïe, ici le bat blesse énormément. Si en apparence les URL sont propres et bien construites, en creusant un peu on se rend compte qu'on peut trouver des URL à paramètres. Indexables bien évidemment. Dans ces paramètres on en retrouve certains discutables et d'autres assez simples à gérer : catégories annexes (agenda, déplacement), type de média (vidéos), paramètres de recherches, etc. Au bout du compte, voilà ce avec quoi on peut se retrouver :

Elysee URL paramètre

Pour couronner le tout, ces pages pointent vers des 404. Et oui, ces paramètres ne sont pas appelés à rester indéfiniment sur le site. Je vous refais le coup du rouge et de la sonnette d'alarme ?

Cohérence

J'avoue ne pas trop comprendre certains points, en regardant de plus près le sitemap (allez petite méthodologie d'audit bien artisanal quand vous n'avez qu'une liste d'URL sous la main : regardez la construction des URL, si les catégories sont présentes dans celles-ci, vérifiez une page au hasard de chaque catégorie : indexation, statut HTTP, chemin pour arriver à la page, etc. Pour sortir une seule page de chaque catégorie, vous pouvez par exemple mettre en place un filtre Excel), je suis tombé sur cette URL :

http://www.elysee.fr/voyage-officiel-en-pologne

Lorsqu'on essaye d'atteindre cette page avec notre navigateur préféré, on est redirigé vers cette URL (qui au passage pourrait me paraître plus logique pour apparaître sur Google News, mais pourquoi n'est-elle alors pas présente dans le sitemap ?) :

http://www.elysee.fr/chronologie/#e1701,2012-11-16,voyage-officiel-en-pologne

Bien, si je ne comprends pas complètement l'intérêt de mettre dans le sitemap une URL redirigée je vais tout de même passer outre et m'attarder sur le résultat en vérifiant si l'une ou l'autre de ces URL est indexée. Voyons ce que ça donne :

Test URL 1

Test URL 2

Aïe, c'est pas joli joli tout ça. Bon, essayons de voir si la page est indexée sous une autre URL :

Test URL 3

Eh ben ! Allez, faisons un autre test avec le title de la page qui veut bien s'afficher alors ! Ah non ça ne marchera pas, le title est "Chronologie - Présidence de la République" et mon petit doigt me dit qu'il y a plus d'une page qui porte ce title. Tentons autre chose, c'est déjà notre 4ème test et il faut commencer à connaître un peu Google pour en arriver là et trouver cette page, avouons-le :

Test URL 4

Nom de ******* ! Je ne comprends pas. Soyons plus simple :

Test indexation 5

Ah ! Enfin j'ai des résultats ! C'est une bonne chose, seulement voilà, le résultat qui m'est proposé en premier n'est pas celui qui m'apporte le plus d'informations. En effet, je m'attendais à tomber sur cette page : http://www.elysee.fr/voyage-officiel-en-pologne/view/ qui est celle qui me parait la plus complète.

Mais attendez une minute ! Si je regarde bien l'URL, si je regarde bien la balise Title de la page en question, j'aurais dû trouver cette page avec mon 3ème et mon 4ème test ! Mince, cette page n'est pas indexée. La balise meta robots contient pourtant "index,follow". J'en déduis, même si c'est prématuré, que Google n'a même pas crawlé cette page, pourtant présente elle aussi dans le sitemap.xml (sitemap qui est évolutif, il se peut donc qu'elle ne soit déjà plus présente au moment où je publie cet article).

Quelle en est la cause ? Sans connaître le chemin parcouru par Googlebot et sans avoir regardé plus que ça l'architecture du site (c'est mal, je sais), je ne sais pas. Mais il est certain qu'il y a un problème et la page qui devrait ressortir n'est pas la bonne selon moi.

L'optimisation pour les réseaux sociaux

Alors là, je n'ai rien à dire, je suis totalement bluffé. C'est un point qui n'a pas été pris à la légère et ça se voit. On retrouve les metas nécessaires entre les balises Head pour Facebook et Twitter. Quant aux pages, voire même seulement à quelques parties des pages, elles sont facilement partageables sur les réseaux sociaux les plus importants.

La visibilité

Évidemment, vous vous doutez bien que je n'en suis pas resté là. Après avoir remarqué toutes ces erreurs, je me suis posé la question de la visibilité du site sur notre moteur de recherches préféré, j'ai nommé google.fr. Direction SEMRush pour voir ce qu'il en est du trafic SEO et de la visibilité (j'appelle visibilité le nombre de requêtes sur lesquelles un site est positionné).

Bon, évidemment, le résultat est tout à fait logique, c'est une perte affolante du trafic en provenance des moteurs de recherches (le dernier point correspond au mois de décembre 2012, l'avant dernier au mois de novembre 2012, etc.) :

Courbe trafic ElyseeFR

Bon ça peut arriver. Après tout en décembre, ce ne sont pas les questions politiques qui intéressent le plus les Français n'est-ce pas ? J'ai tout de même tendance à penser que l'annonce du nouveau site a fait du bien au trafic moteur pour ce mois de décembre, mais je me trompe peut-être.

Vérifions si c'est un réel manque d'intérêt ou plutôt une baisse de la visibilité, c'est-à-dire une baisse du nombre de mots-clés positionnés :

Visibilité moteur Élysée

Aïe aïe aïe, c'est pas beau à voir ce graphique. On passe de plus de 2000 mots clés où on se positionne en novembre à moins de 500 en décembre. Alors oui, il faut le dire, lors d'une refonte c'est un cas qui n'est pas rare, notamment lorsque l'architecture du site change énormément, mais une perte de 75% de visibilité, ça reste tout de même énorme, et ça pouvait être en partie évité.

D'abord, comme vous l'avez lu en introduction, on ne trouve plus aucune information précédant le 15 mai 2012 (quoique d'après le sitemap.xml, depuis le 31 décembre on retrouve les discours d'investiture des présidents de la Vème République), des informations qui étaient pourtant présentes sur les anciennes versions du site.

Ce sont donc des milliers de pages qui ont purement et simplement disparu du site. Encore une fois, ce n'est pas rare lors d'une refonte mais il y a tout de même des rustines à poser, je parle bien évidemment des redirections 301. Rien n'a été mis en place à cet effet. Vous ne me croyez pas ? Allez donc jeter un oeil à l'ancienne version du site sur wayback machine et surtout aux liens : tous ou presque pointent aujourd'hui vers une 404 (dans l'URL, ne prenez que la partie commençant par http://www.elysee.fr pour vérifier bien sûr). C'était pourtant, j'en suis persuadé, des pages qui répondaient à un bon nombre de requêtes et qui se positionnaient.

Je suis curieux de connaître le nombre de pages indexées avant la refonte pour le comparer au nombre de pages indexées aujourd'hui, je suis certain qu'on aura ici une grande partie de la raison de cette perte de visibilité.

Par simple curiosité, j'ai fait une comparaison entre le site de l'Élysée et le site France.fr qui n'est pas spécialement réputé pour son optimisation SEO (et je ne vous parle même pas de son trafic, sauf peut-être en privé si je vous connais bien) :

Courbes de visibilité

Et après ?

Après ? Ce sont des informations qui entrent dans le cadre d'une prestation payante (en fait, celles présentées ici le sont déjà), Made In France mais payante quand même. Il y a encore d'autres améliorations possibles concernant la technique ou la navigation. Je ne me suis pas penché sur le contenu, mais la balise Title de l'accueil et les balises Title vues ici et là me laissent penser qu'il y a aussi mieux à faire sur ce point. Je ne me suis pas non plus penché sur le linking, mais je ne me fais pas de soucis de ce côté-là, ça reste tout de même le site du président de la République.

Cet article est surtout là pour montrer que même les plus grands ont des progrès à faire en terme de référencement et ne sont pas forcément les mieux lotis, mais aussi pour faire une étude de cas où vous aurez, je l'espère, appris deux ou trois petites choses.

Concernant le site de l'Élysée, le changement c'est maintenant, mais sans faire n'importe quoi ça n'aurait pas été plus mal (n'y voyez là aucune connotation politique, vous vous tromperiez sûrement). Une refonte ne se gère pas de la même façon qu'une création de site, il ne faut pas perdre l'acquis. Moi, SEO de la République, j'aurais par exemple effectué tout un travail de redirection et j'aurais compilé un maximum de données et de statistiques pour réparer mes bêtises, parce que j'en aurais sûrement fait aussi ;-)

Catégorie Référencement | Thématique .

43 réponses à Audit référencement du site de l’Élysée

  1. Emmanuel says:

    La nouvelle version n’est effectivement pas parfaite mais qui va aller regarder ? Celui qui veut aller sur le site de l’Elysée le trouvera sans aucun problème. Le reste reste du perfectionnisme. Enfin pour les réseaux sociaux c’était tout de même important.

  2. Aline says:

    « ooh toi, tu vas avoir des problèmes… »
    Merci pour cette étude de cas, la partie « robots.txt » montre concrètement que ce fichier n’est pas une très bonne solution pour la désindexation de pages, et tu as raison de le répéter car ce n’est pas évident pour tout le monde (je rencontre ce genre de problèmes en ce moment…) très intéressant en tout cas, attention, ils vont faire appel à tes services :-)

  3. valentin says:

    Sujet original pour commencer cette nouvelle année, j’aime !
    J’aime aussi ce genre d’URL : http://www.elysee.fr/v-ux-aux-francais-3/

  4. Victor says:

    Amazing !

    Ce n’est pas si rare de voir des grands sites bourrés d’erreur SEO. Là c’est clairement la refonte qui a été mal gérée.
    J’ai pas regardé le site de mon côté et tu es surement plus doué que moi donc j’ai entièrement confiance. Ce petit exercice est intéressant en tout cas.
    Les balises semblent vilains, et le duplicate sur ce genre de site doit être sympa aussi, notamment entre les pages et les fichiers PDF (j’imagine).

    A bientôt !

  5. Accimmo says:

    Merci pour cet audit qui est intéressant et même marrant.
    Le site de l’Elysée a vraiment besoin d’un grand nettoyage de printemps

  6. Romain says:

    Hello Sylvain,

    Tu peux expliqué plus en détail l’intérêt de fournir plusieurs Sitemap ?
    Même si les catégories ne sont pas forcément amenées à évoluer au même rythme comme tu dis, je ne vois pas trop l’explication à cela.

    Bis,

  7. serge esteves says:

    Salut Sylvain,

    Bel exemple de tout ce qu’il faut pas faire en SEO, pas de redirections, structure pourri, sitemap pourri, tout pourri quoi ! :D

    Mais bon, peut etre qu’ils s’en foutent d’apparaitre sur google ou pas !?

    Pour les URLS avec un #, c’est normal que ce soit pas crawlé ni indéxé, google ne suit pas tout ce qui suit derrière le #.
    En plus ils se sont assurés que ce soit vraiment pas crawlable ni indexable en mettant des canoniques vers la version de l’url sans #.
    Et je dirais meme plus, le site utilise massivement le javascript, alors bonne chance pour que googlebot y comprenne quelque chose. Désactive le javascript pour voir.
    En fait, mis à part le sitemap, qui laisse déja à désirer, il y a très peu de pages crawlables depuis la structure du site.
    Et vu que ce sont les pages crawlables depuis la structure du site qui ont le plus de chance d’être indéxé et bien positionné, on se retrouve naturellement avec cette chute d’indexation et de positionnement que tu as montré.
    Le sitemap sert a crawler des urls mais ne garantie en aucun cas leur indexation et encore moins un bon positionnement, surtout si la structure derrière est…. toute pourri.

    Après…
    a cause de leur utilisation du javascript / ajax, il y a aussi des soucis de duplications, le contenu de leur agenda en cours apparait en haut de chaque page pour les bots.
    Des soucis de performance: trop de requetes, besoin de paralleliser
    D’ergonomie, mobile
    ….

    Ni fait ni a faire!

  8. Maxime says:

    La partie sur le robots.txt est vraiment intéressante, car elle montre bien que le robots.txt n’est pas la solution ultime pour la désindexation des pages.

    Superbe idée en tout cas il fallait le faire :)

  9. François-Olivier says:

    Le robots ne sert pas à désindexer mais htaccess non plus.
    Pour cela il faut utiliser la meta robots et ou l’outil de suppression de l’index WMT.

  10. Sylvain says:

    @Romain : c’est surtout pour le monitoring, s’il y a des problèmes de positionnement concernant une catégorie précise : est-elle bien crawlée ? Et c’est ici qu’un sitemap en plusieurs parties peut avoir son intérêt ;-)

    @Serge Esteves : oui pour les #, c’est pour ça que j’ai mis ma remarque sur Google News au conditionnel ;-) Concernant le Javascript, Google le lit vraiment bien aujourd’hui, et l’utilisation d’outils qui permettent de voir une page comme Googlebot laissent penser qu’il est suivi. En ce qui concerne la structure et les requêtes, je te rejoins à 100 %.

    @François-Olivier : Tu peux mettre une règle dans le htaccess indiquant la mise en place pour certains types de contenus/certains emplacements la mise en place du x-robots-tag dans les entêtes HTTP des pages choisies ;-)

  11. Cédric says:

    Super intéressant et super complet cet article. Je début en SEO et au-delà du site analysé ici il y a beaucoup de clés qui vont me permettre d’avancer !

    Par contre je ne suis pas d’accord avec Emmanuel. Effectivement quelqu’un qui cherche le site de l’Elysée le trouvera sans problème, mais le but n’est pas d’être référencé uniquement sur sa « marque » mais également sur le contenu du site.

  12. Max says:

    Nous en avions déjà parlé il y a quelques semaines entre potes mais là il est vrai que c’est encore pire que ce que je pensais ! C’est une catastrophe SEO !!

    En plus lorsque l’on imagine le prix d’une telle refonte, c’est un énorme gaspillage de nos fonds publics… Mais où va nos impôts ?!

  13. Nico says:

    Sympa l’analyse du site de l’Elysée ! Il faudrait le filer à Fleur Pellerin, la pseudo nouvelle ministre du numérique ca pourrait l’intéresser !

    En tout cas, cet article prouve bien que le Robots.txt ne suffit pas à désindexer une page ou un répertoire !

  14. Bruno says:

    Bonjour,

    L’Elysée n’est pas seule à être connue et reconnue, mais pourtant mal lotie côté référencement.
    En effet si on prend LeBonCoin, le leader des sites généralistes de petites annonces gratuites, il n’apparaît pas en première page de Gogole sur beaucoup de requêtes pourtant pertinentes. Mais sa notoriété suffit à faire son succès!
    Pour finir, je rejoins Max en me demandant combien cela a encore coûté au contribuable, surtout à l’heure où tout le monde s’accorde sur le fait de faire des économies et pour un résultat SEO aussi catastrophique!

  15. Guillaume says:

    Je suis bien d’accord qu’un robots.txt n’empêche pas l’indexation je l’ai bien vu sur quelques un de mes sites. En revanche j’ai l’impression que les headers ne fonctionnent pas vraiment non plus. J’ai voulu empêcher l’indexation de fichier swf en ajoutant une règle dans mon .htaccess. Quand je sniffe la requête je vois bien apparaître la règle pour refuser l’indexation. Mais le fichier se retrouve quand même indexé dans Google…

    Intéressant de voir à quoi ressemble un début d’audit de visibilité.

  16. Yann says:

    Bonjour Sylvain,

    Merci pour cet audit internet qui explique clairement une méthodologie possible pour analyser la structure et l’achitecture d’un site.

    Je crois qu’un site institutionnel comme Elysee.fr n’a pas pas besoin de tout ça. En effet, quel est la raison d’être de cet outil de communication officiel ? Informer de certains faits, gestes du gouvernement.

    S’agissant d’une source officielle / référence, je pense que l’aspect « gain de visibilité / popularité » est accessoire. à où la notion de SEO est plus utile, c’est par rapport à l’accessibilité, qui permet de diffuser et porter l’information sur tous types de supports puisqu’il s’agit de toucher le maximum, sinon CHAQUE citoyen français, qu’il dispose d’un Smartphone ou d’un vieux PC avec Internet Explorer 7, qu’il soit malvoyant ou handicapé moteur…

  17. François-Olivier says:

    @Sylvain
    Déjà pourquoi tu édites mon link de signature ? Je n’ai pas utilisé un pseudo spammy

    Ensuite, quand on fait un audit public, on fait gaffe à ce qu’on dit.
    Tu critiques leur choix de blocage par robots.txt et tu conseille de faire exactement pareil avec un x Robots Tag.
    De plus, un blocage robots.txt dans leur cas peu être bien plus pertinent, s’il est combiné à une demande de suppression d’un répertoire dans WMT (à condition que ce dossier ne soit pas un vivier à PR).

  18. Sylvain says:

    @François-Olivier : j’édite ton lien parce que tu n’as pas utilisé KeywordLuv comme il est indiqué, tu pourras remarquer que c’est le cas sur tous les commentaires de cet article.

    Ensuite je ne conseille pas de faire exactement pareil. Je conseille d’indiquer via x-robots-tag de ne pas indexer la page. Seulement pour que Google voit cette page, il faut qu’il crawle la page. Et la directive dans le robots.txt lui indique de ne pas crawler la page. Tu avoueras qu’il y a une différence ;-)

  19. Christophe BENOIT says:

    Cible toujours facile ces sites institutionnels qui ont très souvent 10 ans de retard.

    Je bosse notamment en sous-traitance pour un site régional et force est de constater que le travail retenu par les donneurs d’ordre (qui n’ont souvent pas de compétences pour juger les prestations proposées) est complètement en décalage avec les bonnes pratiques d’aujourd’hui. Je pense notamment à un site sur lequel j’ai du proposer des recommandations SEO et qui sont restées lettre morte parce que l’agence web disposant du bon de commande ne peut pas en 2012 mettre en place du basique de chez basique (CMS privé obligatoire et non évolutif) : pas de redirections 301, pas de rel canonical, pas de sitemap, pas de balises title personnalisées (automatiquement reprises d’après le h1), pas de balise pour lier avec les réseaux sociaux…

  20. RaphSEO says:

    Hello Sylvain, un bien bel pré-audit que voila, n’oublies surtout pas de leur envoyé en interne accompagné de la facture :) .
    Comme beaucoup de sites gouvernementaux, on constate que la problématique SEO n’est pas au coeur du process.
    En revanche, je constate que l’aspect social est bien plus présent et traité.
    Enfin je suis d’accord avec toi sur l’intérêt et l’utilité d’un sitemap.xml. Tu sembles fonctionner un peu à l’identique de ce que je fais. Et créer non pas un mais plusieurs sitemaps peut être d’une très grande utilité, j’aborderais probablement le thème lors d’un de mes billets sur GWT
    ++
    Raph

  21. mythologieca says:

    Superbe audit, on comprend tout de suite ce qui cloche sur le site de l’Élysée , c’est assez aberrant que pour des sites aussi important que le SEO n’ a pas du tout été pensé lors de la refonte !

    Il aurait été plus simple et économe de faire la partie SEO en amont de la refonte et non après (poser des rustine, coût plus cher etc…)

    Au plaisir de vous lire ;)

  22. Eric says:

    Que dire au Webmaster du site? Ha si… « le changement, c’est maintenant » ;) Je sais Sylvain, tu l’as déjà faite celle-là mais bon je l’avais en tête depuis le début ^^

    Plus sérieusement, on passera sur la « copier/coller » du site de la Maison Blanche aux US, n’est-ce pas. Ils ont mis du noir sur la homepage à la place du bleu précédent. C’est mieux mais c’est pas encore ça… Encore une fois à la traîne niveau design…

    Ensuite, la vraie question, c’est : qui réalise et administre ce site? C’est une vraie question quand on voit les écueils « basiques » qu’il y a. Pour ma part, l’absence de redirection du http vers le www est juste hallucinante o_0

    Je pense qu’on pourrait s’amuser à analyser d’autres sites institutionnels, juste pour plaisanter un peu. Quelqu’un a le numéro de Fleur Pellerin? ;)

  23. Rodleg says:

    Très bonne analyse, surtout du fait que vous n’êtes pas tombé dans des critiques gratuites (contrairement à certain commentaires malheureusement), tout est travaillé merci vraiment pour l’article.
    C’est bien de préciser que la chute de la visibilité est relative à la refonte et pas forcement à un mauvais travail de seo, après pour le reste, je crois qu’il faudra refaire une analyse dans quelques temps.

  24. Evenstood says:

    Intéressant comme audit mais il faut aussi voir quelle est la cible rechercher par le site de l’Elysée. Le fait d’avoir des pages en moins est évidente puisque l’on change de présidence et donc de programme politique.

    Idem pour la courbe des mots clés qui ressortent mais ce n’est pas un mal puisque la ligne présidentielle du PS n’est pas la même que celle pratiquée pendant 5 ans par l’UMP.

    Les mots clés apportés par l’ancien quinquennat (certainement pleins de Sarkozy) ne sont plus un trafic intéressant pour ce site qui de plus n’a pas de réel intérêt à avoir un bon SEO.

    Tout est donc à relativiser je pense, surtout sur des sites institutionnels.

  25. Le Juge says:

    J’ai beaucoup bossé – alors jeune padawan sur les sites du Gouvernement – et je peux meme dire que j’en ai bouffé plus que de raisons (beaucoup plus).

    De ton audit je vois une chose, c’est que je SIG n’en a toujours pas grand chose a foutre du référencement – meme si quelque part on voir qu’ils font des efforts sur le Social média.

  26. William says:

    Excellent ce audit du site de l’Elysée!
    C’est intéressant de voir comment sont réalisés les sites publics/de grosses entreprises. On voit que pour le budget qui y est consacré, ce n’est pas forcément la qualité attendue!

  27. Jeromeweb says:

    Ce n’est qu’un site ‘normal’ pour un président ‘normal’, alors normal qu’il ne soit pas optimisé ha ha

  28. Olivier says:

    Je ne suis pas d’accord sur tout.
    Pour le sitemap, je pense que si tu as les bons outils tu es capable de savoir exactement comment se passe le crawl de ton site et connaître la structure de celui-ci quelle que soit la taille de ton site, même avec des millions de pages.

    Ensuite pour un site comme l’Elysée, la question se pose. On il vraiment besoin de SEO. Cette question est intéressante car beaucoup d’entreprises doivent se la poser.
    Dans le cas de l’Elysée je pense que la priorité doit aller à la structure de l’information,
    l’ergonomie and co.
    Pour des questions pratique, il est important que certaines pages ressortent, mais dans tous
    les cas ce n’est pas ça qui fera le trafic de ce site, ni sa réussite…

  29. Monica says:

    Ils sont tous des résidents de la république, aurait dit Bashung…
    Donc, comme les autres, le nouveau locataire de l’Elysée aura eu à faire le ménage SEO à fond en virant des milliers de pages, en n’ayant que faire des mots-clefs et papiers-peints du prédécesseur et ses ex. Le changement par le vide, c’est maintenant.
    Par contre si le nouveau prestataire SEO est une bille notamment au niveau 301 et sitemap, alors autant faire table rase encore plus. Il est encore temps, encore 4,5 ans, tout le temps.

  30. arnaud says:

    Bien joué Sylvain pour cet audit. Ca ne m’étonne qu’à moitié, mais c’est quand même dommage vu le budget qu’ils doivent allouer pour la gestion du site. Il ne reste plus qu’à leur proposer une prestation, y’a un petit billet à faire! ;)

  31. SEO quiquile says:

    Je rejoins l’avis de Yann d’omnireso sur l’accessibilité. Les sites institutionnels ont d’abord un devoir de rendre l’information accessible et disponible à tous et sur tout type de support. Si c’était fait sur un site e-commerce, je comprendrais l’intérêt du SEO qui a été mal géré et qui est nécessaire d’être corrigé.

    Aussi, sur ton exemple des actus: site: => C’est en effet problématique, on voit d’ailleurs le fil d’Ariane désormais. Quand as-tu fait ton audit? Il faudrait leur laisser le temps aussi ;-)

  32. Sylvain says:

    @Raph : hé hé merci =) J’aime voir que des bons SEO travaillent plus ou moins de la même façon que moi, ça me conforte !

    @Olivier : c’est vrai qu’il n’est pas obligatoire de fractionner le sitemap mais c’est surtout une question interne : s’il faut développer l’outil cela peut prendre du temps, il faut juste voir le rapport temps/coût du développement d’un outil ou du fractionnement du sitemap. Il n’y a pas qu’une seule bonne méthode ;-)

    Ensuite ont-ils besoin de SEO ? Tu peux lire mon dernier article à ce propos, mais à mon avis oui, clairement. Le SEO n’est pas là que pour vendre des rachats de crédit ou des pilules, il faut aussi penser « outside the box »

    @Benoit : c’est vrai qu’ils ont un devoir concernant l’information mais ont aussi un besoin de maitriser leur communication à mon sens.

    Concernant les actus, je n’avais pas fait la recherche avec un site: sinon il était évident que la même page, mais paginée, ressorte ;-) Cette capture a été faite mercredi soir.

    @ceux qui ont demandé : je n’ai pas de certitude mais j’ai vu passer à plusieurs reprises le chiffre 50 000 € concernant le coût du site de l’Élysée

  33. Yann says:

    Profitez en pour aller faire un tour sur la Fanpage de l’Elysée, a mon avis ils n’ont pas de community manager a plein temps…

  34. Laurent says:

    Il manque un concept vital : facteur bloquant vs. facteur ralentissant.
    C’est bien joli de dresser un portrait volontairement alarmiste de l’opti SEO, mais il est biaisé.
    Etre juste serait de relever des éléments réellement bloquants pour le réf, plutôt que pinailler sur des facteurs plus ou moins ralentissants.

  35. Magicyoyo says:

    Tu fais ici la démonstration de ton expertise technique. Très bien. C’est bien réalisé.

    Il me semble en revanche important de dire qu’un audit SEO sans référence aux OBJECTIFS du site web et à sa STRATÉGIE n’a aucun intérêt (sauf exercice visant à démontrer ton expertise technique donc). :)

  36. Aurélien says:

    Merci pour ce partage.

    Le plus gros problème a mon avis est la quantité de contenu supprimé.

  37. Jean says:

    Chouette travail de base où effectivement le site est plus pensé SMO que SEO ; mais est-ce vraiment un hasard ?
    J’en doute

  38. Amélie says:

    Hehe tu devrais envoyer une facture au site pour ces recos :p

    N’empêche 50 000€ pour un site comme ça, tu peux bien proposer quelques recos pour seulement 10 000€ ? ^^

    Après je partage l’avis d’Olivier, je ne pense pas que le site ait réellement besoin de SEO, c’est peut être pour ça qu’ils ont un peu négligé cette partie

    ps : pas mal le dernier paragraphe :p

  39. Visibiliti.fr : Agence SEO says:

    C’est ce qu’on peut appeler une refonte raté d’un point de vue SEO.
    Par contre, Ton audit met en avant les points « faibles » mais tu ne parle que très peu des points positifs. C’est dommage. Un audit de référencement doit aussi servir à çà.
    Tes remarques sont pertinentes mais l’aspect technique ne fait pas tout pour un bon référencement !

  40. Sylvain says:

    @Magicyoyo : oui en effet tu as raison, du coup tu devrais lire mon article suivant ;-)

  41. flexman says:

    Merci pour votre article et cet audit. Vous expliquez très bien les points importants et les améliorations à apporter pour un site de cette importance. Tout à fait d’accord avec vous ils auraient du prévoir le SEO dés la conception / refonte du site au lieu d’apporter des rustines couteuses et moins efficaces.

    Au plaisir.

  42. Victor says:

    Quand je lis ce article, je vois là la manière que les professionnels fonctionnent, je dois avouer que je suis tenté de copier le processus pour mon propre compte. Il faut dire que pour ceux qui se sont formés sur le tas comme moi, il est parfois très compliqué de savoir par où commencer quand on veut réaliser ce genre de prestation.

    [Modération : pro-tip, ne mets pas de lien publicitaire inutile à la fin de ton commentaire, les gens n'aiment pas ça]

  43. Eric says:

    C’est un article bien détaillé qui permet de mieux aborder le référencement pour les gros sites. Par contre, c’est assez décevant que nos impôts ne soient pas mieux utilisés…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Veuillez utiliser votre nom ou votre pseudo. Tout commentaire ne respectant pas cette règle verra son lien supprimé.