Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Netz an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Resultaten und recht bald fand man Unternehmen, die sich auf die Aufbesserung ausgerichteten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft zu der Übertragung der URL der geeigneten Seite an die vielfältigen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Webserver der Suchseiten, wo ein zweites Programm, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die frühen Varianten der Suchalgorithmen basierten auf Infos, die dank der Webmaster auch vorliegen wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Content einer Seite, aber setzte sich bald hervor, dass die Inanspruchnahme er Hinweise nicht gewissenhaft war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Präsentation des Seiteninhalts sonstige Verben vermochten. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei individuellen Suchen listen.[2] Auch versuchten Seitenersteller verschiedene Attribute binnen des HTML-Codes einer Seite so zu manipulieren, dass die Seite richtiger in Serps aufgeführt wird.[3]
Da die neuzeitlichen Search Engines sehr auf Gesichtspunkte angewiesen waren, die allein in den Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Missbrauch und Manipulationen in der Positionierung. Um bessere und relevantere Vergleichsergebnisse in Resultaten zu erhalten, mussten wir sich die Anbieter der Search Engines an diese Umständen einstellen. Weil der Riesenerfolg einer Suchseiten davon zusammenhängt, wichtigste Suchergebnisse zu den gestellten Keywords anzuzeigen, vermochten untaugliche Resultate darin resultieren, dass sich die Anwender nach ähnlichen Optionen bei dem Suche im Web umsehen. Die Erwiderung der Search Engines vorrat in komplexeren Algorithmen beim Rang, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht manipulierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Google – eine Suchseite, die auf einem mathematischen Routine basierte, der mit Hilfe der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch übrige Suchmaschinen bezogen während der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Yahoo search