Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Internet an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Positionierung in Ergebnissen und recht bald fand man Betriebe, die sich auf die Aufbesserung professionellen.
In den Anfängen geschah die Aufnahme oft zu der Übermittlung der URL der passenden Seite an die divergenten Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Suchseite, wo ein weiteres Anwendung, der die bekannten Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster eigenständig gegeben wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Überblick per Thema einer Seite, gewiss stellte sich bald heraus, dass die Inanspruchnahme er Vorschläge nicht verlässlich war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Internetseiten bei speziellen Benötigen listen.[2] Auch versuchten Seitenersteller mehrere Fähigkeiten innert des HTML-Codes einer Seite so zu beherrschen, dass die Seite besser in den Resultaten gelistet wird.[3]
Da die damaligen Internet Suchmaschinen sehr auf Merkmalen dependent waren, die nur in den Taschen der Webmaster lagen, waren sie auch sehr anfällig für Abusus und Manipulationen im Ranking. Um bessere und relevantere Testergebnisse in den Serps zu bekommen, mussten sich die Inhaber der Suchmaschinen im Netz an diese Gegebenheiten adjustieren. Weil der Erfolg einer Suchmaschine davon abhängt, relevante Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, konnten ungünstige Testergebnisse darin resultieren, dass sich die User nach diversen Varianten bei dem Suche im Web umblicken. Die Auskunft der Search Engines fortbestand in komplexeren Algorithmen beim Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Bing – eine Anlaufstelle, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch andere Internet Suchmaschinen orientiert in Mitten der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Yahoo search