Comment fonctionne Google ? Par Sylvain Peyronnet

Sylvain PeyronnetIl y a quelques semaines, je vous ai donné mon retour d'expérience concernant ce qui m'avait aidé à devenir un meilleur référenceur. Dans ces quelques conseils, j'évoquais le fait de connaître le fonctionnement des moteurs de recherches, et vos commentaires démontraient une certaine envie d'en savoir plus sur ce point-là. C'est pour quoi j'ai décidé d'en parler avec un spécialiste des algorithmes de classement : Sylvain Peyronnet.

Avant de commencer l'interview, je tiens à vous parler d'une formation que Sylvain prévoit de lancer avec son frère, et pour que ce rendez-vous soit parfait ils ont besoin de votre avis.

Bonjour Sylvain ! Certains lecteurs ne te connaissent peut-être pas encore, pourrais-tu te présenter, ton travail, ton parcours ?

Bonjour ! Je m'appelle donc Sylvain Peyronnet, et je suis actuellement Professeur des Universités à l'Université de Caen Basse-Normandie, dans le labo GREYC (https://www.greyc.fr/). Ca veut dire que je suis enseignant et chercheur.

Mon domaine de recherche est celui de l'algorithmique probabiliste : je conçois et j'analyse des algorithmes qui utilisent des sources aléatoires, généralement dans le but d'accélérer les calculs ou d'utiliser moins de mémoire quand on fait un calcul complexe. Mes principaux domaines d'applications sont la vérification de protocoles complexes, la lutte contre le webspam, les réseaux sociaux et le calcul haute-performance. Pour ceux qui veulent en savoir plus, il faut faire un tour sur ma page pro (http://sylvain.berbiqui.org).

Pour l'enseignement, c'est aussi tourné web, je suis responsable du master 2 ingénierie web à l'UCBN, et avant j'ai été responsable de l'apprentissage en info à Polytech Paris-Sud. Enfin, je collabore aussi à l'un des masters de l'école Polytechnique.

En parallèle je m'intéresse au webmastering et au SEO depuis longtemps. Avec mon frère Guillaume (http://www.gpeyronnet.fr/) nous avons d'abord monté krinein.com, puis on a fait le mangeur de cigogne en 2004, puis on a fait d'autres sites. Et quand Guillaume a monté sa boite, on s'est associé et depuis je l'aide sur certains points, pour lesquels nous sommes complémentaires : conseil et formation, principalement en SEO, algorithmique et techno moteurs pour moi.

Mon parcours est celui d'un universitaire: la filière scientifique à la fac, depuis le DEUG jusqu'à la thèse. Ce qui est plus amusant c'est qu'à part ma thèse je n'ai pas de diplôme d'info : j'ai fait des maths (maths pures puis logique mathématique) et aussi un peu d'économie/finance. Sinon, point de vue vie professionnelle j'ai monté (et planté) une première boite, j'ai bossé comme prof et chercheur à l'EPITA, j'ai fait du conseil et enfin je suis devenu maitre de conférences puis prof des universités. En bref on peut dire que j'ai toujours fait ce que je voulais faire, et que ça a plutôt réussi au final.

On peut dire que tu connais ton sujet ! Comme tu t'en doutes, ce sont tes connaissances des algorithmes qui vont intéresser les lecteurs du blog. Pourrais-tu nous en dire un peu plus sur les préoccupations que l'on a lorsqu'on crée un algorithme prenant en compte le webspam, les réseaux sociaux et tout ce qui a trait à la relation entre les sites ?

Tout d'abord, il faut voir qu'il y a deux types de choses qu'on peut vouloir faire.

Par exemple, une chose qu'on peut vouloir faire est de réaliser des tâches standards, comme par exemple calculer un score d'importance pour un site, ou une personne quand on est sur les réseaux sociaux, ou déterminer la valeur d'un texte par rapport à une thématique. Ces tâches sont de difficultés diverses en elles-mêmes, mais elles sont rendues TRES difficiles sur le web et les réseaux sociaux car le contexte est *adversarial*.

Cela signifie qu'il y a un adversaire qui lutte pour maximiser l'utilité qu'il a de l'objet (site, texte, etc.) lorsqu'il est traité par un algorithme donné. L'exemple typique est le pagerank. Le pagerank a pour objectif de déterminer la popularité d'une page, et dans un contexte naturel, c'est à la fois assez simple à calculer, et le PR est une bonne approximation de la popularité réelle. Malheureusement (ou heureusement pour les SEOs), on peut manipuler l'algorithme en modifiant les schémas de liens qui sont fait (en en rajoutant, enlevant, en modifiant des chemins de liens entre pages, etc.). Prendre en compte l'existence de manipulations pour rendre robuste le calcul de popularité, c'est très dur. Je parle ici de créer des algorithmes dits robustes, c'est à dire qui fonctionnent sans avoir besoin de beaucoup de modifications, même lorsqu'il y a des manipulations conséquentes. Dans le cadre de la lutte contre le webspam, on parle d'algorithme de déclassement (demotion en anglais). Il s'agit d'algorithmes qui annule l'effet du webspam SANS le détecter : on ne sait pas quelles sont les pages de spam, mais elles n'apparaissent pas dans les SERPs quand même.

Ce qui m'amène à l'autre chose qu'on veut faire : la détection de mauvais comportements. Il s'agit de choses plus simples, et c'est la voie empruntée par Google avec ses filtres. Ici on va avoir une approche a posteriori : une fois identifié un adversaire, on va créer un mécanisme qui va le dézinguer en le détectant. Par exemple, si on voit que des gens font du spam de bourrin sur les blogs WP en utilisant un outil de génération aléatoire de texte, alors on va créer un outil qui va faire deux choses. La première est de classifier les textes en deux catégories : ceux générés aléatoirement et les autres. La deuxième va être de repérer tous les sites qui profitent des liens générés via un générateur de textes particulier. Ensuite le moteur pourra décider d'une action sur les sites détectés.

Au final, je résume, pour faire un très bon travail, on se focalise sur la notion de robustesse, c'est la vraie préoccupation. Dans les autres cas, on va se focaliser sur la modélisation de l'adversaire, pour le détecter.

Donc si je comprends bien, Google a commencé par développer un algorithme de classement en prenant en compte les relations entre sites puis a éliminé les abus au fur et à mesure qu'il les a découverts ? Comment fait-il pour découvrir ces abus ? Il repère des anomalies dans ses bases ou il est obligé de vérifier manuellement ses propres résultats ?

L'algorithme du PageRank prend effectivement en compte toutes les relations entre sites (les liens). Cependant, Google doit très probablement appliquer différents filtres pour moduler l'impact de certains abus (déclassement de certains liens, non considération d'autres, etc.). Ces filtres peuvent intervenir avant ou après le pagerank.

Il ne faut pas confondre un filtre et une modification de l'algorithme. Par exemple, la prise en compte de la thématique des liens est sans doute une modification de l'algorithme, et pas un filtre (sauf pour les thématiques adultes, qui sont filtrées).

Pour découvrir les abus, plusieurs possibilités : interventions humaines de Quality Raters, statistiques comportementales des visiteurs de Google (par exemple retour rapide d'un visiteur avec une même requête alors que la personne avait cliqué sur le premier résultat), et plus probablement un mix des deux.

Donc la prise en compte du comportement utilisateur est bien effective, intéressant. Je reviens sur les réseaux sociaux, comment peuvent-ils être pris en compte ? Entre les comptes privés, les liens nofollow, les réseaux thématiques, l'importance d'un compte (par la taille de sa communauté), ça doit être un vrai boxon à gérer ?

Pour la prise en compte du comportement c'est une manière de faire un système d'alerte, après, est ce Google y accorde beaucoup d'importance, c'est à voir ;)

Pour les réseaux sociaux, je ne peux rien répondre, car en fait je n'en sais vraiment rien. Je sais qu'il y a des travaux universitaires pour quantifier l'influence, les trending topics, etc. Mais je n'en sais pas plus.

On a beaucoup parlé de liens jusqu'à présent, je vais te poser une question piège. Admettons que tu crées un algorithme de classement et que celui-ci repère deux sites qui ont exactement le même profil de liens, comment travaillerais-tu cet algorithme pour qu'il arrive tout de même à établir un classement entre ces sites ? J'imagine que tu vas jouer sur des aspects internes aux sites, mais lesquels ?

Même si c'est une hypothèse peu probable, on va faire comme si ;)

Je jouerais sur plusieurs aspects pour affiner la comparaison :

- Le contexte des liens sur les sites émetteurs : je pondérerais les liens selon l'ancre (générique, optimisée, sur-optimisée), selon l'emplacement sur le site (ligne de flottaison, menu, footer, etc.), selon le texte autour du lien, etc.

- Le contenu du site cible : est-ce que le contenu est de plus ou moins grande qualité ? Cette aspect peut être évalué par des méthodes de classification. Je renvoie le lecteur de cette interview vers les travaux de Ntoulas, Najork, Manasse et Fetterly à ce propos (http://www.ntoulas.net/pubs/ntoulas_spam.pdf). Il s'agit de déterminer les critères qualitatifs (dans leur cas pour le spam, mais ça marche pour la qualité perçue) et de créer un algorithme qui va quantifier globalement le site à partir de critères séparés.

- le contenu du site cible : est-ce qu'il est pertinent (cosinus de Salton, tf*idf, etc.) ? est-ce qu'il est généré à la main ? est-ce qu'il est unique ? Tout cela peut être déterminé algorithmiquement.

- la cohérence des liens : ici on rejoint la notion de cocon sémantique dont on entend assez souvent parler. Personnellement je parle de continuité sémantique. Est-ce que les liens sont cohérents en terme de thématique (un lien d'un site de fans du PSG vers un site de vente de légumes, c'est louche) ? Avec la notion de pagerank sémantique, on peut analyser cette cohérence et la valoriser.

A noter que toutes les questions que j'évoque ici, on sait les résoudre algorithmiquement au niveau d'un moteur de recherche.

Il me semble qu'après tout ça, on est bien équipé pour comprendre le fonctionnement des algorithmes des moteurs de recherches. Tu aurais quelque chose à ajouter, quelque chose qu'on a pas encore évoqué ?

Il y a de très nombreuses choses que l'on n'a pas évoqué, mais il faut bien s'arrêter à un moment. J'ajouterais juste qu'il faut vraiment se maintenir au courant des nouveautés algorithmiques des moteurs. Pour Google il faut regarder les brevets qui sortent, mais surtout les articles issus de Google Research (http://research.google.com/pubs/papers.html).

Ou encore mieux, me contacter pour notre formation moteur ou de la veille techno (subtile ma pub, non ?).

Avec la qualité de tes réponses, j'accepte ta pub sans soucis ;-)

D'autres interviews qui font rêver :
Chris Sherman
Rand Fishkin
François Sutter
Virginie Clève
Sylvain Richard

Catégorie Ils ont commencé un jour | Thématique .

28 réponses à Comment fonctionne Google ? Par Sylvain Peyronnet

  1. Rom says:

    Hello,

    Déjà merci au deux Sylvain :)
    J’ai deux petites questions….

    Tu dis : « On ne sait pas quelles sont les pages de spam, mais elles n’apparaissent pas dans les SERPs quand même. » Pourrais-tu éclaircir un peu ce point stp ?

    Et deuxième question : Comment un algo peut-il détecter les pages générées avec du contenu main et du contenu automatiser ?

    Merci bien ;)

  2. Guillaume says:

    En ce moment je me fais pas mal de petit algorithme pour donner une note à une URL en fonction des signaux sociaux, ou bien donner une note à un compte twitter en fonction du nombre de tweet, abonnés et followers. Et je me sert de ces algorithmes pour gérer des bots twitter. Et je voulais savoir par exemple sur Krinein le site est développé en PHP ? Et du coup si tu as besoin d’algorithme pour certaines choses tu les fais en PHP ou tu utilise un autre langage comme Python ou autre ?

  3. Thierry says:

    Hey ! Enfin un article de fond sur l’algorithme Google, et plus généralement sur la mécanique des moteurs de recherche, compréhensible par le premier webmarketeur venu !
    Bravo et merci aux deux Sylvain (presque une forêt!), M. Fouillaud pour l’interview et M. Peyronnet pour cette vulgarisation réussie.

  4. Yann says:

    Merci pour ces informations capitales sur le fonctionnement des moteurs.
    J’ai une question pour Sylvain P :

    Sachant que cette page fait un lien vers le site krinein.com d’une part,

    que la homepage de mon site (passé en lien normalement) contient un lien vers krinein.fr d’autre part,

    un algorithme est-il capable de faire la triangulation ? Quel genre de signal ce commentaire envoie-t-il aux algos, maintenant que j’associe explicitement les deux extensions ?

    J’imagine que cela va renforcer le branding de « krinein » tout court, quelque soit l’extension du NDD. Mais sans forcément améliorer le positionnement sur les thématiques de ces 2 sites car il n’y pas de cocon sémantique / contexte / co-texte relatif à ces sites.

    Ou pas ? ^^

  5. LaurentA says:

    C’est une sûr, le comportement des internautes est un critère pertinent intégré dans les algorithmes. C’est d’ailleurs un des seuls que l’on ne peut pas détourner. Il est donc a prendre en compte dans la rédaction des articles d’un site pour garder au maximum les visiteurs et leur proposer d’autres pages à visiter.

  6. Christian says:

    « un lien d’un site de fans du PSG vers un site de vente de légumes, c’est louche »
    Pas tant que ça si le légume sert de projectile ;-)

    Concernant les données collectées (horodatage, contexte, profil, etc.), un moteur a intérêt à tout stocker, même s’il ne s’en sert pas encore…
    Quand il a accumulé des tas de données, il peut parfaitement regarder dans la masse des données qu’il a, si on peut dégager un signal quelconque qui pourrait servir soit au classement, soit au déclassement.
    Parfois des données sont exploitables, mais non utilisées, car on a encore mieux en magasin…
    Quelque part, on n’est pas très loin intellectuellement des problématiques météo : on stocke, on stocke… ensuite on essaye de trouver ce qui aurait pu prédire le temps que l’on a aujourd’hui et supposer le temps de la semaine suivante. Pour autant, ce ne sont pas les mêmes algos.
    Pour autant, à l’échelle du web, sans cesse grossissant, il n’est pas facile de mettre en place des algos « vaguement intelligents », pour des questions de ressources machine et énergétiques.
    Il est probable que GG restera très idiot pendant un grand moment encore à cause de la taille du web.

  7. Steve says:

    En bref j’en déduis que l’algorithme de google change selon le comportement (contenu texte et type lien) des données mise en ligne. Il m’est un peu difficile de bien définir ce que je veux vraiment dire mais j’ai quasiment la réponse à mes questions précédentes sur le changement sans arrêt de ce fameux algorithme de Google.
    La question qui se pose en moi maintenant c’est comme en vers ses changements d’algorithmes faire pour avoir un texte unique intouchable par l’algorithme selon sa fréquence ou type de modification?

  8. Le Juge says:

    Pffffffffffff … comment il m’enrhume des fois Sylvain – c’est abusé. En tout cas a chaque fois c’est tres tres tres interessant d’avoir un point de vue au plus pres de l’algo – puis qu’a priori de nous tous celui qui comprends le mieux ce que fait google dans la théorie c’est bien Sylvain – En plus i arrive a expliquer des concepts compliqués tres simplements!

    Super l’interview!

  9. steeve says:

    Enorme interview ! Bon quand on connait un petit peu le personnage…cela n’étonne guère^^
    J’avais pour ma part découvert Sylvain lors d’un podcast chez Laurent Bourrelly, c’était déjà très sympa.

  10. Erwan says:

    joli Christian !!

    pour ma part je me demande pour une université demande (ou plutôt paye quelqu’un) pour faire des recherches sur le webspam. Quel est l’intérêt ? Surtout que ça bouge tellement vite.

    Deuxième question pour Sylvain, est qu’il a été contacté par Qwant car je trouve que ce serait un moyen de mettre en action ce qu’il fait pour un projet qui pourrait être de service publique français (ouais, j’exagère là).

  11. SylvainP says:

    @Rom Les méthodes de déclassement visent à diminuer l’impact des pages de spam sans forcément déterminer quelles sont ces pages. Je vais faire une analogie avec la lutte contre la vitesse sur la route : l’approche filtrage (à la google) c’est le radar, l’approche déclassement, c’est le dos d’âne (ou ralentisseur, ou gendarme couché ;) ).

    @Rom again ;) Pour répondre il me faudrait un très très long commentaire, mais il y a plein de méthodes : certaines utilisent des connaissances sur la structure de la langue, d’autre uniquement des indicateurs statistiques. Avec les indicateurs statistiques, on détecte déjà la majeure partie des textes générés.

    @Guillaume Krinein est en PHP pour le site lui-même (CMS maison), mais ensuite selon les besoins, les scripts de calcul ont été réalisés en python, perl voire C/C++ (pour spotrank par exemple) quand il faut de la vraie performance. Notre credo est d’utiliser le langage le mieux adapté (performance versus facilité et rapidité d’écriture). Ceci étant, PHP n’est jamais adapté à des réalisations algorithmiques, ce n’est pas fait pour ça.

    @Yann Détecter un lien triangulaire c’est facile, et à mon avis cela n’envoie un signal négatif que si l’un des sites du triangle est au coeur de milliers de triangles et à mis en place bien d’autres choses « suspectes ».

  12. Oman says:

    Super intéressant !
    J’ai une autre question pour Sylvain (Peyronnet).
    Supposons que vous soyez en charge de la lutte contre le spam pour Google. Communiqueriez-vous en temps réel sur les modifications de l’algorithme et les filtres mises en place afin d’inciter les spammeurs à changer leurs pratiques le plus rapidement possible?
    OU
    Garderiez-vous toujours un décallage entre la communication du moteur (vers les webmaster) et le niveau réel des modifications et filtres mises en place ?

  13. Faustine says:

    Hello,

    Déchiffrer et analyser les algorithmes, c’est comme partir à l’aventure en quête du Graal en mode Indiana Jones geek…

    Plus sérieusement, j’aurais aimé savoir ce que pense Sylvain des brevets déposés par Google autour des interactions Homme-Machine et son impact sur les évolutions de la recherche internet.

    Belle journée,

  14. Monica says:

    Adversarial ! Merci pour ce néologisme de la mort qui ira enrichir mes prochaines saillies quand je serai de mauvais poil… C’est vrai quoi, on dirait une insulte façon « moule à gaufre » de chez capitaine Haddock.

    Un néologisme qui résume bien son monde quand même, car tout est Adversarial dans cette économie ultralibérale, l’homme est un loup pour l’homme, blabla, etc…
    Et ramené au contexte de Google: BH contre WH, ref naturel contre Adwords, la lutte est sans fin. Mais si j’ai bien compris l’article, il semblerait qu’un algo, aussi « robuste » soit-il, ne peut vaincre « l’adversité » humaine, tout au moins il la probabilise, pour ensuite avoir recours à des béquilles que sont les filtres.

    Les algo en tant que créatures mathématiques auraient-ils aussi une vue limitée? Tels des ectoplasmes, aurait ajouté Haddock…

  15. SylvainP says:

    @Erwan Je choisis mes propres sujets, et je dois aussi trouver mes propres financements de projets, car depuis quelques années c’est ainsi que fonctionne la recherche française. Mais par contre, je travaille d’abord sur des problèmes théoriques, et ensuite je montre qu’il existe des applications, mais je ne suis pas dans une démarche « ingénieur », c’est-à-dire que je ne suis pas « guidé » par le but applicatif. Sinon, contrairement à ce qu’on peut croire, les spammeurs évoluent très très peu, les méthodes qu’ils utilisent sont toujours fondamentalement les mêmes, ce qui changent c’est les spots et le degré d’utilisation. Il faut donc que les moteurs modifient leurs réglages de temps en temps, mais rarement leurs algos (d’où les nombreuses versions de filtres, mais les très peu fréquentes updates).

    @Erwan again ;) Mes travaux sont souvent appliqués par des sociétés, mais il est très rare que je puisse en parler. Ceci étant, je peux dire que je ne travaille pas avec Qwant. Mais si quelqu’un veut faire des projets communs avec mon équipe de recherche, il faut me contacter !

    @Oman Communiquer pourquoi pas, mais il semble plus utile stratégiquement de ne pas le faire. D’un point de vue technique ça ne changerait pas grand chose à mon avis.

    @Faustine Je suis désolé mais mes connaissances en IHM font que je ne peux vraiment pas dire grand chose sur le sujet.

    @Monica Ce n’est pas un néologisme, c’est le terme anglais ;)

  16. un consultant SEO says:

    Merci pour cet article que j ai pris beaucoup de plaisir à lire et relire pour tout bien comprendre. c est en effet tout à fait intéressant, d aller à la source et de se demander comment les moteurs fonctionnent au niveau des algorithmes. Le truc, c est que bien souvent, cela prend énormément de temps et on procède de la manière la plus simple : mettre en place les actions SEO que l’on connait et qui fonctionnent ( enfin pour l instant!) sans aller au fond du problème

  17. Laurent says:

    J’ai une question plus générique, au vu du déploiement de Penguin 2.0 et de certains résultats. Prenons l’exemple d’un site qui contient trois pages. Celles-ci sont un texte unique, mais sans grand intérêt (comprendre : réécriture d’un paragraphe type introduction de page Wikipedia, très générique). Certains mots sont répétés des dizaines de fois (environ 70 fois pour l’un des mots-clés ciblés). Le tout présent en ligne depuis des années, sans aucun changement. Il a visiblement été créé pour générer des revenus Adsense. Enfin, il compte moins d’une dizaine de backlinks, mais ceux-ci sont optimisés. Ce site reste très bien classé sur plusieurs mots-clés qui comptent tout de même quelques milliers de requêtes mensuelles (en exact évidemment).

    Ma question : est-ce que ce site se maintient si haut parce que les requêtes en question n’ « intéressent » pas Google, pour une quelconque raison ? Ou est-ce que parce que tous les autres sites potentiellement bien classés sur cette requêtes ont été diversement sanctionnés ?

  18. LaurentB says:

    Comme toujours notre docteur es algo met tout le monde d’accord.
    Chaque phrase est à décortiquer et bien assimiler dans son contexte car c’est du lourd.

    Par exemple, il y a une petite bombe lorsque Sylvain explique modification d’algo vs. filtre. Je n’ai pas envie de reprendre tous les billets qui se plantent royalement sur ces notions, mais c’est devenu assez surréaliste.

  19. Alexa says:

    Ce qui m’intéresse le plus c’est le mode d’emploi de google post-penguin 4. Quels changements dans la pratique de référencement? En tout cas, ce qui est certain c’est que google est désormais plus exigeant par rapport aux liens et aux contenus du site.

  20. Shelko says:

    Comme le dit Le juge, c’est dingue comme des choses aussi complexes peuvent être expliquées simplement lorsque l’orateur a du talent.
    très instructif cet interview, je pense que je vais la relire quelques fois pour ne rien oublier.
    C’est assez sympa de voir un point de vu global (bien que théorique) a contrario des discutions générales basées sur des ressentis ventant l’intérêt du lien ou du contenu en fonction de la saison.

  21. Céline says:

    Une interview des plus intéressantes vu que ma connaissances du fonctionnement des algorithmes est assez limitée. J’avoue avoir du le relire plusieurs pour tout assimiler car c’est quand même hyper technique mais j’ai découvert plein de choses donc merci pour l’article ^^

  22. Jérôme says:

    Finalement, c’est bien complexe tout ça. J’avais vu que les frères Peyronnet donnaient des cours à ce sujet et j’avais été tenté.
    Ce qui m’avait bien plus était l’argument mis en avant : si tu veux contourner le système et trouver des moyens de s’assurer de bons résultats, il faut d’abord le comprendre.

  23. Géraldine says:

    Super interview, Sylvain est vraiment passionnant mais… Comment dire ? cela reste ultra technique ! Ca donne envie d’approfondir, mais avec de vrais cours alors. Dommage que Caen soit trop loin ! Et j’ai bien retenu : se tenir informé, faire de la veille régulièrement… Merci pour cette leçon, avec un grand « L ».

  24. Tristan says:

    Sacré parcours le Monsieur…

    Les cinq premiers paragraphes où Sylvain nous présente son travail, son parcours sont dignes d’un texte parodique sur les petits génies. Pourtant là on est dans le vrai. Impressionnant.

    Cet article me semble intéressant, car, il faut bien le souligné, derrière chaque recherche sur les algorithmes, il y a bien un facteur humain. Et autant pour le travail de SEOs qui est déjà assez « technique » (pour moi petit intégrateur), se cachent des personnes encore plus impliqués et expérimentées dans le domaine.

    Et même si je suis loin d’imaginer et d’estimer la masse d’informations et de données à traiter, j’admire le travail de Sylvain, qui doit être (une fois qu’on le maîtrise) très valorisant.

    Bonne continuation aux deux Sylvain.

  25. JM says:

    Son métier a l’air vraiment passionnant, et je pense qu’il est réellement passionné par ce qu’il fait !

    Son cursus est impressionnant, notamment réussir à concilier rechercher des algos, webmastering, SEO ! Bravo !!

  26. TransferNow says:

    Sacré parcours, très intéressant le post ! merci pour l’itw.

    J’adore la mise en page sa change des Q/R classiques :)

  27. paul says:

    Très bon interview et surtout facilement compréhensible.
    On peut ainsi comprendre plus aisément le fonctionnement et les mécanique des moteurs de recherche.
    De plus Sylvain Peyronnet a un parcours assez impressionnant !
    Merci

  28. Alexandre says:

    Bonjour les deux Sylvains,

    Très bon article, superbe interview de qualité. Vous m’avais appris des choses sur google.

    Je vous en remercie.

    Amitiés,

    Alexandre

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Veuillez utiliser votre nom ou votre pseudo. Tout commentaire ne respectant pas cette règle verra son lien supprimé.