Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Internet an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Ergebnissen und recht bald entwickelten sich Betrieb, die sich auf die Verbesserung qualifizierten.
In den Anfängen passierte die Aufnahme oft über die Übermittlung der URL der geeigneten Seite in puncto verschiedenen Search Engines. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Server der Anlaufstelle, wo ein 2. Softwaresystem, der bekannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die damaligen Modellen der Suchalgorithmen basierten auf Informationen, die aufgrund der Webmaster selbst vorliegen wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht mit Inhalt einer Seite, jedoch setzte sich bald hervor, dass die Benutzung dieser Details nicht solide war, da die Wahl der eingesetzten Schlagworte durch den Webmaster eine ungenaue Abbildung des Seiteninhalts repräsentieren kann. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei besonderen Stöbern listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten in einem Zeitraum des HTML-Codes einer Seite so zu beeinflussen, dass die Seite besser in Ergebnissen gelistet wird.[3]
Da die frühen Suchmaschinen im Netz sehr auf Punkte dependent waren, die einzig in den Händen der Webmaster lagen, waren sie auch sehr instabil für Abusus und Manipulationen im Ranking. Um vorteilhaftere und relevantere Vergleichsergebnisse in den Resultaten zu bekommen, musste ich sich die Besitzer der Search Engines an diese Umständen adjustieren. Weil der Triumph einer Suchseiten davon abhängig ist, essentielle Suchresultate zu den inszenierten Keywords anzuzeigen, vermochten ungeeignete Testurteile dazu führen, dass sich die Mensch nach anderen Varianten zur Suche im Web umblicken. Die Auskunft der Suchmaschinen im Netz vorrat in komplexeren Algorithmen beim Ranking, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht leicht lenkbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Vorläufer von Die Suchmaschine – eine Anlaufstelle, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch sonstige Suchmaschinen im WWW überzogen bei Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen