Seitenkopierer hindern

Hallo,

mir geht es hier nicht um eine YII - Lösung sondern um ein allgemeines Problem.

Ich versuche meine Seite durch Seitenkopierer zu schützen indem ich folgendes realisiert habe.

Jeder User erhält eine Session

Jeder Aufruf wird gezählt

Erreicht die Anzahl der Seitenaufrufe in einer Session in einer festgelegten Zeit ihre Grenze so liefert die Seite den Code 503 zurück.

Das Problem an dieser Stelle ist jetzt nun das Suchmaschinen darunter fallen und fälschlicherweise den Code geliefert bekommen.

Meine weitere Überlegungen an dieser Stelle wären nun dieser das ich die IP’s der Bot’s mir besorge und denen ein Privileg zuordne, bzw. die Begrenzung gänzlich aufhebe

Probel: Wo kriege ich die IP’s her

Vielleicht habt ihr euch mit dem Problem schon mal beschäftigt und habt es anders gelöst?! Vielleicht nichtmal in PHP!?

thx

Du kannst überprüfen ob der gesendete HTTP_USER_AGENT dem einer Suchmaschine entspricht. Allerdings ist es für einen Nutzer natürlich kein Problem das zu faken. Von daher muss schon stärker geprüft werden. Hier mal ein Beispiel wie du den Googlebot 100% sicher identifizieren kannst:




if (true === (bool)preg_match("/google/", $_SERVER['HTTP_USER_AGENT']))

{


   $ip = Yii::app()->request->userHostAddress;


   $hostname = gethostbyaddr($ip);


   if (true === (bool)preg_match("/googlebot.com$/", $hostname))

   {

      if ($ip === gethostbyname($hostname))

      {

         // Googlebot

      }

   }


}



Siehe dazu hier. Wie das für andere Suchmaschinen aussieht weiss ich nicht. Im Prinzip ist ja sowieso nur Google wichtig. Falls du dazu dennoch was für Bing und Yahoo findest lass es mich wissen :D

Ich verstehe das Problem nicht. Wenn es jemand darauf anlegt, wird er die Seite kopieren. Daran wirst du nichts ändern können, ausser deine Seite offline nehmen. Mit solchen Maßnahmen belastest du nur deine regulären Nutzer, den eigentlichen Zweck wird es nicht erfüllen…

Seiten wie Google, Amazon und ebay zeigen oftmals eine Fehlerseite wenn du zuviele Anfragen von einem Rechner ausverschickst, da sie automatisierte Abfragen garnicht mögen (kosten von Ressourcen etc.)

Das habe ich gestern auf Grund eines mangelhaften “Schutz”-Systems live zu spüren bekommen. Ich habe vergessen die Sessions nach einer bestimmten Zeit wieder freizugeben und somit 2000 Benutzer den Zugang zum System versperrt. :(

Den "Schutz" habe wieder rausgenommen, aber dennoch werde ich ihn Zukunft wieder sowas anbieten, aber in anderer Form.

Sollten Abfragen zuhäuft und zuschnell ankommen werde ich es wie Google machen, indem ich ein Captcha unterschiebe.

Das kopieren wird es zwar nicht verhindern wie du gesagt hast, aber es wird der Kopierer hindern und was wichtiger ist, es wird das System entlasten.