Questions et réponses pour le robots.txt :

Robots.txtx (le protocole d'exclusion des robots) est un fichier texte placé à la base d'un domaine de site Web pour donner des instructions aux robots Web conformes (tels que les robots de recherche de moteur de recherche) sur les pages à ramper et à ne pas ramper, ainsi que d'autres informations. comme un emplacement du site. Dans les cadres modernes, il peut être utile de générer de manière programmable le fichier. Des questions générales sur l'optimisation des moteurs de recherche sont plus appropriées sur le site Webmasters Stackexchange.

12
votes
Le webcrawling bots de Facebook respecte-t-il le Délai de crawl: ...

10
votes
Si je veux permettre uniquement aux robots d'accéder à index.php, cela fonctionnera-t-il? XXX ...

7
votes
Mon client a une charge de pages qu'ils ne veulent pas indexées par Google - elles sont toutes appelées xxx afin qu'ils soient / page-123 ...

7
votes
J'ai un client dont le domaine semble être frappé assez fort par ce qui semble être un DDO. Dans les journaux, c'est des agents d'utilisateurs à la recherche normaux avec ...