Aujourd’hui, je suis tombé par hasard sur un article qui m’a interpelé et qui m’a amené à faire deux trois recherches sur ce mécanisme appelé en anglais link prefetching. Ce système permet d’indiquer au navigateur de télécharger des images ou des documents et de les mettre en cache une fois la page chargée. L’utilisateur peut alors avoir rapidement accès à ces documents qui ont été mis en cache par le navigateur. D’après les lectures que j’ai pu faire le link prefetching en html5 serait actuellement possible uniquement avec Firefox. On imagine aisément toutes les utilisations qui pourraient en être faites…
Le navigateur active ce mécanisme lorsqu’il trouve une balise HTML link
ou un lien http: header
avec un type de relation next
ou prefetch
.
Exemples :
<link rel="prefetch" href="/images/monimage.jpeg">
Link: </images/big.jpeg>; rel=prefetch
Plus d’informations sur le sujet :
- http://davidwalsh.name/html5-prefetch
- http://www.whatwg.org/specs/web-apps/current-work/multipage/links.html#link-type-prefetch
- https://developer.mozilla.org/en/Link_prefetching_FAQ
- http://blog.whatwg.org/the-road-to-html-5-link-relations#rel-prefetch
- http://www.cloudspace.com/blog/2010/06/03/html5-link-prefetching-or-the-most-dangerous-tag/
16 commentaires
Poster un commentaire
Flux RSS des commentaires de cet article
Plutôt dangereux comme possibilité non ?
Le 22 Sep. 2010 à 17h06 par Nico
@Nico : Tu peux développer,stp ?
Le 22 Sep. 2010 à 18h07 par Eric Le Bihan
Nico : Tu parles du problème qu’a eu Google Web Accelerator à sa sortie, qui téléchargeait également les liens « Supprimer ce post » sur les systèmes de forums ou autres mal conçus ?
Ce genre de faille est de toute façon exploitable avec un élément
<img/>
, en utilisant l’attributsrc
pour télécharger la ressource voulue. Les formulaires, c’est pas fait pour les chiens ;-)Quoi qu’il en soit, c’est évidemment à utiliser avec la plus grande prudence : il est assez hasardeux d’anticiper pour l’utilisateur ce que sera la prochaine page qu’il visitera.
Il faut également bien garder à l’esprit que la bande passante (pas forcément illimitée) de l’utilisateur est sollicitée, peut-être pour rien. Pas très « Green Computing » :-)
Le 22 Sep. 2010 à 18h09 par Pierre Bertet
Nico n’a pas développé mais si je pense à ce qu’il pense, oui : c’est un truc dont de nombreux webmestres sans scrupules ou des blackhat seo vont abuser comme dans les bons vieux iframe du passé.
Le 23 Sep. 2010 à 08h08 par Philippe @ Créations sites Web Normandie
Philippe : SEO, tu es sûr ? Il faut que tu t’expliques là :-)
Le 23 Sep. 2010 à 10h26 par Pierre Bertet
Pas des intégristes en tout cas.
D’ailleurs j’aime beaucoup ce que vous faites, vous, les intégristes.
Le 23 Sep. 2010 à 16h22 par Philippe @ HTML5 Débloque-notes
Philippe a tout à fait bien résumé ma pensée.
Qui plus est, je (me) répète ce que j’explique dans mon tuto sur la balise video sur Alsacréations : je trouve dommage d’imposer à l’utilisateur et à sa bande passante un choix… autant le laisser libre d’en décider.
Le 23 Sep. 2010 à 20h29 par Nico
@Nico, @Philippe : je ne suis pas sur que tout le monde ait bien compris votre pensée, pouvez-vous être plus clair dans vos commentaires ? Ce n’est pas parce qu’une possibilité existe qu’elle sera forcément mal utilisée. Dans certains cas ce sera une bonne chose et dans d’autres cas ça ne le sera pas.
Le 24 Sep. 2010 à 11h59 par Eric Le Bihan
« Ce n’est pas parce qu’une possibilité existe qu’elle sera forcément mal utilisée. »
Dans le monde du SEO un peu noir, il y aura un paquet de référenceurs qui vont profiter de l’aubaine. Pour gonfler des stats par exemple : comment les outils d’analyse statistiques vont-ils pouvoir savoir si une page du cache a été lue ou non ?
Ce n’est qu’un exemple.
Le 25 Sep. 2010 à 10h22 par Philippe @ créations sites HTML5
C’est vrai que le monde du SEO restera toujours très obscurs pour nous… :-) Les outils d’analyses statistiques évoluent non ?
Le 25 Sep. 2010 à 12h08 par Eric Le Bihan
Philippe : Je ne comprends pas bien, tu parles de gonfler les logs d’Apache par exemple ? Quelle incidence sur le SEO ? La distinction est relativement aisée de toute façon, un header spécifique est envoyé pour distinguer ces requêtes des autres.
Au final, je ne vois vraiment pas ce qui peut être exploité avec cette technique, et qui ne peut pas l’être avec l’attribut src d’une image ou d’une iframe.
Le 25 Sep. 2010 à 15h00 par Pierre Bertet
« Les outils d’analyses statistiques évoluent non ? (…) »
oui, mais toujours très très en retard.
Et si ceux basés sur du JS ne seront pas touchés, les outils d’analyse côté serveur le seront…
car (et pour répondre à Pierre) il faudra qu’ils intègrent l’HTTP header, X-moz: prefetch pour détecter que la page n’est que dans le cache et n’a pas encore été lue.
Me trompé-je ?
Le 25 Sep. 2010 à 15h44 par Philippe @ créations sites normandie
Tout à fait d’accord pour les outils d’analyse de logs, il faut le prendre en compte, mais quel rapport avec le SEO ? Tu peux décrire un exemple ?
Désolé d’insister, je suis de nature très curieuse comme tu le vois :-)
Le 25 Sep. 2010 à 16h26 par Pierre Bertet
« Désolé d’insister, je suis de nature très curieuse comme tu le vois :-) »
C’est une preuve de bonne santé intellectuelle !
Pour faire du SEO il faut des référenceurs et ils ne sont pas tous honnêtes. Par exemple, ceux qui font du blackhat sont des joueurs avant tout qui utilisent des failles pour faire monter une page dans les SERPs pour faire accroître le trafic vers cette page ou carrément faire descendre les pages concurrentes à celles-ci pour éliminer un concurrent.
Et puis il y a des référenceurs sans scrupules qui, sans faire pour autant de blackhat (souvent parce qu’ils en sont pas capables) magouillent leurs chiffres de visites avec de fausses stats qu’ils agitent sous le nez de leurs clients pour encaisser leur facture. C’est à ceux-là que je pensais.
Le 25 Sep. 2010 à 17h57 par Philippe @ réalisations sites web normandie
Je comprends, je pensais qu’il était question de tromper l’algorithme utilisé par Google par exemple. Si ce n’est que pour tromper le client, c’est beaucoup de peine pour pas grand chose, les chiffres peuvent aussi s’inventer ;-)
Le 25 Sep. 2010 à 18h03 par Pierre Bertet
Hello Pierre,
c’est aussi pour tromper les moteurs…
nombre de blackhat seo font référencer les stats de leurs clients par les moteurs. Toutes les pages des stats possèdent des référents (les sources de trafic) qui sont autant de backlinks pour les moteurs.
En générant de fausses visites issues de prefetching sur les pages de stats avec des faux référents on peut se retrouver très vite avec un nombre impressionnant de BL.
Quel monde !
Le 30 Sep. 2010 à 09h38 par Philippe @ réalisations sites web normandie