Seit 1998 - Seite an Seite mit unseren Kunden
Sie suchen einen Partner für Ihr Internetprojekt oder planen den Einstieg in die virtuelle Welt? Weiter...
Sie möchten Ihren Anbieter wechseln oder sind auf der Suche nach einem neuen Dienstleister? Weiter...
Sie planen einen Relaunch Ihrer Internetseite, wollen diese funktional erweitern oder neu ausrichten? Weiter...
(16.03.2015) Eine erst kürzlich publizierte Nachricht im GWG (GoogleWatchBlog) lässt zunächst aufhorchen. - Und doch ist es nur der nächste, folgerichtige Schritt auf dem Weg des Suchmaschinenriesen zu noch besseren Ergebnissen für seine Kunden. "Ehrlich währt am längsten", so könnte man die nächste Stufe des Website-Rankings zusammenfassen, und tatsächlich hat der Wahrheitsgehalt von Inhalten auf der Website viel damit zu tun...
Wir hatten erst kürzlich in unserem Suchmaschinen- und Marketingblog über die Entwicklung der Websuche geschrieben. Angelangt waren wir letztendlich bei den Google Trust Signals die bereits aktuell Einzug in das Suchmaschinenranking von Webseiten hält. Google selbst umreißt die Entwicklung im GWG wie folgt:
Das Geheimnis der Qualität der Google Websuche war und ist der PageRank, der grundsätzliche auf der Anzahl der Links die zu einer Webseite führen basiert. Im Laufe der Zeit kamen noch hunderte weitere Faktoren dazu, aber das grundlegende System hat sich nicht verändert. Jetzt arbeiten Googles Forscher an einer völlig neuen Bewertungsmöglichkeit, die die Qualität einer Webseite aufgrund der enthaltenen Fakten und dessen Wahrheitsgehalte bewertet und in das Ranking mit aufnimmt.
Quelle: GoogleWatchBlog (GWG)
Grundlage für die Bewertung des "Wahrheitsgehaltes" wird der seit dem Jahr 2012 installlierte Knowledge Graph von Google werden, der schon jetzt laut einer kürzlich veröffentlichten Studie rund 20% aller Anfragen innerhalb Google direkt beantwortet. Die aktuellsten Bemühungen sind derzeit in der Fernsehwerbung zu sehen: Hier im folgenden Video ein Beispiel...
Für die Ergebnisse des "Knowledge Graph" greift Google auf einen eigenen Algorithmus zurück, der im Index nach strukturierten Daten sucht und diese bei Bedarf ausliefert. - Eine vermutete Primärquelle hierfür: Die freie Enzyklopädie - Wikipedia. Es ist anzunehmen, dass die Ergebnisse mit allerlei weiteren Quellen abgeglichen und verifiziert werden. - Künftig soll das Wissenarchiv des "Knowledge Graph" in jedem Fall also zur Aufbereitung von Informationen für den Abgleich von Website-Inhalten haben. Und damit Einfluss auf das Ranking der jeweiligen Seite nehmen. Fortan soll beim "Crawling" von Webseiten und dem indexieren der hinterlegten Inhalte damit der Wahrheitsgehalt der Seite ermittelt werden. Die "wahrhaftigsten" Ergebnis-Seiten werden dann bevorzugt und höher gelistet in den Ergebnissen aufgeführt.
Aktuell greift Google hierbei nach eigenen Angaben auf einen Fundus von gewaltigen 2,8 Milliarden Fakten zurück, 119 Millionen Quellen (Webseiten) dienen im Quervergleich der Verhinderung von falschen Informationen. Es ist zu vermuten, dass erste Testläufe mit dem "Knowledge Based Trust" bereits anstehen - der endgültige Launch dieses Kriteriums ist aktuell noch nicht festgelegt.
Festzuhalten bleibt in diesem Zusammenhang, dass in Zukunft nicht mehr nur seriöse Optimierung der Seiten (White-Hat-SEO) und qualitative Inhalte wichtig sind, sondern auch der eigentliche Inhalt einer Webseite – der Wahrheitsgehalt – an Bedeutung gewinnt. Ehrlich bemühte Seiteninhaber werden davon profitieren...
Internet Agentur Scherer