Was und warum eine robots.txt?

7 Gründe, den Newsletter von Ralf Schmitz zu abonnieren!

Was und warum eine robots.txt?

0

In letzter Zeit fällt immer häufiger auf das Ebooks in der Google Suche erscheinen und kostenlos Downloadbar sind. In der Regel ohne das Wissen des Betreibers, und mit großer Verwunderung wenn man den Anbieter darauf aufmerksam macht. Warum ist das so?

Sobald ein Anbieter z.B. die Zahlungssysteme Paypal, Micropayment, Sofortüberweisung und ein paar weitere für den Verkauf seiner Ebooks nutzt, und gleichzeitig einen Sofortdownload anbietet entsteht dieses Problem. Bei diesen Systemen muss man das Ebook auf seinen Server hochladen, um einen Sofortdownload Button anbieten zu können.  An dieser Stelle entsteht dann das Problem.

Sofern Sie Ihren Server nicht für bestimmte Bereiche bei  den Suchmaschinen sperren, indizieren diese alle Dateien auf Ihrem Server. Natürlich auch das Ebook als PDF Datei. Um dies zu verhindern muss DRINGEND eine Datei namens robots.txt auf Ihren Server gelegt werden. Mit dieser Datei sperren Sie bestimmte Bereiche auf Ihrem Server, für die Suchmaschinen und verhindern damit ein erscheinen des Ebooks (PDF Datei)  in den Suchergebnissen.

Nutzen Sie diese Vorgehensweise NICHT, müssen Sie sich auch nicht wundern, wenn kein oder nur wenig Umsatz die Folge ist. So sollte eine robots.txt aussehen

User-agent: *
Allow: /
Disallow: /ordner/
Disallow: /ordner1/

Gerne dürfen Sie sich den rot markierten Text kopieren und Ihre robots.txt Datei erstellen. Beachten Sie bitte: ordner oder ordner1 ersetzten Sie einfach mit dem Namen des Verzeichnis auf Ihrem Server das Sie schützen möchten. Wenn sich Ihr Ebook z.B. im Ordner „Download“ befindet, ersetzten Sie „ordner“ einfach durch „Download“. Laden die Datei auf Ihren Server hoch und fertig. Somit wird das Verzeichnis für Suchmaschinen gesperrt und nicht mehr in die Ergebniss aufgenommen.

Kurzerklärung:
User-agent:* = Alle Suchmaschinen
Allow:/ = für alle Suchmaschinen zugelassen in die Ergebnisse aufzunehmen
Disallow: /ordner/ = Verzeichnis „ordner“ für alle Suchmaschinen gesperrt, werden nicht in die Ergebnisse aufgenommen

So gehen Sie vor. Kopieren Sie sich den roten Text. Öffnen Sie einen Texteditor (Editor,Wordpad oder ähnlich). Fügen den kopierten Text ein. Ändern Sie das Verzeichnis oder die Verzeichnisse die Sie schützen möchten. Speichern Sie die Datei als robots.txt. Laden Sie die Datei per FTP auf Ihren Webserver in das oberste Verzeichnis.

Fragen zu diesem Thema? Senden Sie mir eine Mail an post@ralfschmitz.biz ich helfe gerne weiter.

VN:F [1.9.22_1171]

Bewerte Bitte meinen Artikel:

Rating: 0.0/10 (0 votes cast)

Über den Autor

Ralf SchmitzRalf Schmitz ist Affiliate-Marketing-Experte mit jahrelanger Erfarung, Autor des Bestsellers "Der Affiliate König", und erfolgreicher Internetunternehmer. Seit 2009 lebt Ralf Schmitz auf Mallorca und arbeitet dort immer wieder an neuen innovativen Ideen. 2012 wird er mit dem Produkt "AffiliatePowerMarketing" die nächste Generation von Internet-Marketing einläuten.Alle Beiträge ansehen von Ralf Schmitz

Hinterlassen Sie einen Kommentar

Folge uns auf Facebook, Twitter, Google+ & Youtube

Folge mir zu meinen Social-Media Profilen.

Folge uns auf Google Plus:
Folge uns auf Facebook:
Folge uns auf Twitter:
Abonniere uns auf YouTube:

News.... Meine neue Partnerprogramm Webseite ist fertig! Hier findest Du alles auf einen Blick (Click)

Ausgezeichnet.org