Feedback erwünscht

Begonnen von Rastlos, März 17, 2006, 10:59:58

Vorheriges Thema - Nächstes Thema

0 Mitglieder und 2 Gäste betrachten dieses Thema.

Globetrotter

Hallo Jens,... :icon_biggrin:

da hast Du sicher Recht, dass der Inhalt der Seiten sowieso von den Robots gescannt wird. Trotzdem haben die Keywords immer noch eine wichtige Bedeutung vor allem bei untergeordneten Suchmaschinen und warum soll man sich diese Gelegenheit der Positionierung ohne Not vergeben? Die Regeln bei den Suchmaschinen werden sicher immer wieder geändert und optimiert. Eine unbedingte Garantie für ein bestimmtes PageRanking gibt es daher nicht.

Die neue Anmeldung bei den Suchmaschinen solltest Du unbedingt machen. Zum einen haben diese bisher nur eine Seite erfasst und es kann bis zu 3 Monaten oder länger dauern, bis der nächste Robot bei Dir vorbeischaut. Die Indizierung innerhalb weniger Tage geschieht in der Regel nur bei ganz wichtigen und umfangreichen Websites mit mehreren Hundert oder Tausend Seiten. Auch der Ablauf dieses Verfahrens ist bei den einzelnen Suchmaschinen top secret.

Wenn Du also nicht unter Umständen Monate warten willst, dann einfach neu anmelden. Es hat keinen Nachteil sondern eher...... :zustimm:

Liebe Grüsse vom

Globetrotter

Rastlos

@Jürgen
Mhhh, da habt Ihr wohl sicherlich mal wieder recht. Schaden kann es schließlich nicht, also werde ich auch die Neuanmeldung in den nächsten Tagen machen.

Noch mal vielen Dank für die vielen wertvollen Tipps  :zustimm:
Wer rastet der rostet und es gibt einfach zu viel Schönes auf unserer Erde zu entdecken!
www.weltbummeln.de

Globetrotter

@ Jens

Gern geschehen....... :hallo:
Liebe Grüsse vom

Globetrotter

Globetrotter

#23
Hallo Jens,

noch mal ein kurzer Nachtrag und unser konkreter Tipp:
die Spider der Suchmaschinen scannen nur die ganz wichtigen und sehr umfangreichen Websites in einem Turnus von wenigen Tagen. Bei Websites, die nur wenige hundert Unterseiten (oder weniger) haben, kann der Zeitraum für einen Besuch bis zu mehreren Monaten betragen. Oft werden auch nicht alle einzelnen Seiten gescannt sondern evtl. nur die Home-Seite und wenige Unterseiten.

Deshalb sollte man eine sog. Sitemap (entweder über Google generieren, was ziemlich kompliziert ist) oder als reine Textdatei wie zum Beispiel hier://urllist.txt auf seinen Server oder Provider (also in das Hauptverzeichnis seines Webs) hochladen. Die Textdatei muss den Namen .urllist.txt haben. Dann meldet man diese Textdatei bei Google an. Vorher bei Google ein Konto anlegen und anmelden. Dann die Website mit dieser Textdatei anmelden....fertig.

Wir haben diese Textdatei unserer Website mit einem Tool erstellt, was viel Arbeit erspart, da bei uns ca. 17.000 einzelne URL-Seiten erstellt werden mußten. Wer weniger Seiten in dieser urllist.txt aufführt, kann das auch per Hand mit einem normalen Editor machen.

Wenn Du willst, geben wir Dir gerne den Link zu diesem Tool bekannt, da es Freeware ist.
Liebe Grüsse vom

Globetrotter

Rastlos

@Jürgen
Ich habe Euren Tipp beherzigt und meine Seite erneut bei Google angemeldet. Mittlerweile sind auch alle meine Unterseiten bereits von Google gespidert worden (sind ja zum Glück nicht ganz so viele wie bei Euch  :icon_wink:). Ich habe dabei aber nur die Hauptseiten mit den relevanten Textinhalten angegeben und nicht auch noch alle Bilderunterseiten, denn bei den Bildbeschreibungen sind nicht ganz so wichtige Inhalte dabei.

Zusätzlich habe ich auch eine Sitemap auf meiner Seite eingerichtet und obendrein auch eine zusätzliche XML-Sitemap bei Google angemeldet. Ich wäre aber trotzdem für den Link zum Tool dankbar. Ich bin ein Fan von guter reeware und würde es gerne mal ausprobieren.
Wer rastet der rostet und es gibt einfach zu viel Schönes auf unserer Erde zu entdecken!
www.weltbummeln.de

Rastlos

@Jürgen
Ihr braucht den Link zum Tool hier nicht noch einmal posten, habe ihn gerade in dem anderen Thread gefunden  :icon_mrgreen:
Wer rastet der rostet und es gibt einfach zu viel Schönes auf unserer Erde zu entdecken!
www.weltbummeln.de