J'ai un client dont le domaine semble être frappé assez fort par ce qui semble être un DDO. Dans les journaux, c'est des agents d'utilisateurs à la recherche normaux avec des IP aléatoires, mais ils passent à travers des pages trop rapidement pour être humains. Ils ne semblent également pas demander des images. Je ne peux pas sembler trouver de modèle et ma suspicion est une flotte de zombies Windows. P>
Les clients avaient des problèmes dans le passé avec des attaques de spam - ont même dû pointer MX à Postini pour obtenir le côté de la conduite de 6,7 Go / jour de la chute. P>
Je veux configurer un piège à bot dans un répertoire interdit par robots.txt ... Je n'ai tout simplement jamais tenté de tenter cela auparavant, en espérant que quelqu'un a eu des idées créatives pour les bots de piégeage! P>
5 Réponses :
Vous pourriez d'abord jeter un coup d'œil à l'origine de la propriété intellectuelle. Je suppose qu'ils viennent tous d'un pays comme la Chine ou le Nigéria, auquel cas vous pourriez créer quelque chose dans HTACCESS pour interdire toutes les IP de ces deux pays, en ce qui concerne la création d'un piège pour les bots, je n'ai pas eu la moindre idée p>
Les IP sont partout sur la place .. qui, dans le cas du spam, il était assez évident que les origines étaient infectées des machines Windows.
Vous pouvez configurer un script PHP dont l'URL est explicitement interdite par robots.txt. Dans ce script, vous pouvez extraire la source IP du bot suspecté vous frappant (via $ _Server ['Remote_addr']), puis ajoutez cette adresse IP à une table noire de la base de données. P>
Ensuite, dans votre application principale, vous pouvez vérifier l'adresse IP source, une recherche pour cette adresse IP dans votre table de liste noire et si vous le trouvez, lancez une page 403 à la place. (Peut-être avec un message comme: «Nous avons détecté des abus provenant de votre IP, si vous sentez que cela est en erreur, contactez-nous à ...») P>
À la hausse, vous obtenez une liste noire automatique des mauvais robots. Sur l'inconvénient, ce n'est pas terriblement efficace, et cela peut être dangereux. (Une personne vérifie innocemment que la page de la curiosité peut entraîner l'interdiction d'un gros plan d'utilisateurs.) P>
éditer: Alternativement (ou en outre, je suppose) Vous pouvez simplement ajouter simplement un GeOIP chèque à votre application et rejeter les hits basés sur le pays d'origine. P>
Vous pourriez avoir une sorte de captcha pour automatiser la déblocage des personnes de vraies personnes en cliquant dessus.
Vous avez eu la meilleure réponse .. Mise en œuvre de ces solutions Sorteta (ne stockez pas dans DB), y combiné avec la suggestion de Scott et un petit torcheur de bot. Voir ma réponse pour plus de détails
rejeter les hits basés sur le pays d'origine. Code> ... Comment j'imaginais que cela joue dans le monde réel ... "Hm. Tu es d'Amérique? Ouais, je sais pour un fait que Il y a au moins un ordinateur infecté dans votre pays - ou éventuellement, une personne ennuyait de lire des robots.txt et curieux de la zone interdite - donc c'est un non, j'ai peur. À ce stade, seulement des demandes d'Andorre, des États fédérés de la Micronésie , Vanuatu et Tuvalu seront servis. Et Madagascar. Devrait sortir de la pandémie était juste; il est vraiment difficile d'infecter ce pays. "
Ce que vous pouvez faire est d'obtenir une autre boîte (une sorte d'agneau sacrificiel) non sur le même tuyau que votre hôte principal, alors l'hôte une page qui se redirige vers lui-même (mais avec un nom de page randomisé dans l'URL). Cela pourrait obtenir le bot coincé dans une boucle infinie fixant la CPU et la bande passante sur votre agneau sacrificiel mais pas sur votre boîte principale. P>
Je pense que c'est la meilleure option. Quelle serait la pile de cet agneau pour le rendre aussi économique que possible?
J'ai tendance à penser que c'est un problème mieux résolu avec la sécurité du réseau plus que de coder, mais je vois la logique dans votre approche / question. P>
Il existe un certain nombre de questions et de discussions sur cette faute sur le serveur qui peut être digne d'enquête. P>
Eh bien, je dois dire, un peu déçu - j'espérais des idées créatives. J'ai trouvé les solutions idéales ici .. http://www.kloth.net/internet/bottrap. php puis pour protéger les pages jette Je prévois de prendre les conseils de Scott Chamberlain et Pour être en sécurité, je prévois d'implémenter CAPTCHA sur le script. Si l'utilisateur répond correctement, il suffit de php include ($ document_root. "/blacklist.php"); ?> code> sur la première ligne de chaque page ..
blacklist.php code> contient: p>
DIE code> ou redirige à la racine du site. Juste pour le plaisir, je jette le piège dans un répertoire nommé
/ admin /
interdit: / admin / code> à robots.txt. P>
quelle approche idiote. Il va tuer votre site plus rapidement que toute attaque DDOA fera (bien que je doute que vous en avez déjà vu un encore).
C'est une question fascinante et j'aimerais voir certaines des réponses. Mais je soupçonne que cela pourrait être un meilleur ajustement pour défaut de serveur .
Je suis d'accord mais les développeurs sont beaucoup plus créatifs que les professionnels informatiques..lol!
Mais quelqu'un a déjà "créé" cette solution et les gars informatiques sont très bons pour le déployer.
Le niveau d'application n'a rien à voir avec les DDO
Vous pouvez utiliser la détection de bot et maintenir une liste noire de tous les robots de vos stat. Vérifiez ceci: Codecanyon.net/item/advanced-Bot-Detection -Notification / ... espérons que cela aide
@Jimmischel vérité. Personnellement, j'aime vraiment le look de Sugarplum , et je l'utiliserais s'il n'y avait pas été pour le fait qu'il soit censé aller avec Apache.