12
votes

Ajax ramper: vieille façon vs nouvelle façon (#!)

Old Way

Lorsque je chargais de charger une page de manière asynchrone dans des projets qui nécessitaient le contenu à indexé par les moteurs de recherche, j'ai utilisé une technique vraiment simple, c'est xxx

EDIT: J'avais l'habitude de mettre en œuvre l'événement HASCHANGE pour supporter le bookmarking pour les utilisateurs JavaScript.

Nouvelle façon

Récemment, Google est venu avec l'idée d'Ajax rampant, lisez-y ici: < / p>

http://code.google.com/web/ajaxcrawling/

http://www.asual.com/jQuery/adddress / échantillons / rampant /

essentiellement, ils suggèrent de changer "site web/#page" sur "website.com/#!page" et ajoutez une page contenant le fragment, comme " website.com/?_escaped_fragment_=page"<

h2, quel est l'avantage d'utiliser la nouvelle voie?

Pour moi, il semble que la nouvelle façon ajoute beaucoup plus de travail et de complexité à quelque chose qui Avant de faire de manière simple: j'ai conçu le site web Pour travailler sans Ajax, puis j'ai ajouté un événement AJAX et HASHCHANGE (pour supporter le bouton Back and Backmarking) à une étape finale.

d'un point de vue de référencement, quels sont les avantages de l'utilisation de la nouvelle voie?


0 commentaires

4 Réponses :


1
votes

L'idée derrière c'est que les utilisateurs JavaScript peuvent aussi faire signe des pages en favoris, je pense. Si vous jetez un coup d'œil à votre «ancienne» méthode, il suffit de remplacer le contenu de la page; Il n'y a aucun moyen de copier l'URL pour afficher la page dans l'état actuel à d'autres personnes.

Donc, si vous avez implémenté la nouvelle méthode #! , vous devez vous assurer que ces URL pointaient les pages correctes, via JavaScript.


0 commentaires

1
votes

Je pense qu'il est simplement plus facile pour Google d'être sûr que vous ne travailliez pas avec du contenu en double. Je comprends le hasch comme FOO / # / BAR.HTML dans les URL et transmettez-le à la structure Permalink, mais je ne suis pas tout à fait sûr si Google aime ou non.

question intéressante cependant. +1


1 commentaires

Google déclare qu'il n'expose pas les fragments. J'ai mis en place les mêmes trucs dans mon portefeuille et lorsque vous faites le site: NemesesDesign.net, je n'ai que des URL normales. Lorsque vous vérifiez le webmaster Center, je n'obtiens pas de contenu en double avertissement.



3
votes

L'avantage n'est pas vraiment applicable pour vous, car vous utilisez une amélioration progressive. La nouvelle fonctionnalité Google est destinée aux applications écriées entièrement dans JavaScript, ce qui ne peut donc pas être lu par le robotler. Je ne pense pas que vous ayez besoin de faire quoi que ce soit ici.


0 commentaires

5
votes

L'idée est de rendre les applications Ajax robustes. Selon les spécifications HTTP, les URL font référence au même document quel que soit l'identifiant de fragment (la pièce après la marque de hachage). Par conséquent, les moteurs de recherche ignorent l'identifiant de fragment: Si vous avez un lien vers www.example.com/page#content , le robotler demandera simplement www.example.com/page .

Avec les nouveaux schémas, lorsque vous utilisez la notation #! Le robot sait que le lien fait référence à un contenu supplémentaire. Le robotler transforme l'URL en une autre URL (laid) et la demande à partir de votre serveur Web. Le serveur Web est censé répondre avec HTML statique représentant le contenu AJAX.

Modifier concernant la question initiale: Si vous avez déjà eu des liens réguliers vers des pages statiques, ce schéma ne vous aide pas.


0 commentaires