Newsbeitrag veröffentlicht am 02.03.2015
Am 12.02.2015 veröffentlichte eine Experten-Gruppe der Google Inc. eine Ausarbeitung mit Veränderungsvorschlägen zum Google Suchalgorithmus. Bei dieser Google-Experten-Gruppe handelt es sich um ein Team, welches sich z. B. aus Software-Ingenieuren, Technikern, Informations-Wissenschaftlern und Software-Experten zusammensetzt. Die Ausführungen sind überwiegend mathematischer und wahrscheinlichkeitstheoretischer Natur und beinhalten Herleitungen in entsprechenden Notationen, die aber auch in klare Empfehlungen formuliert werden. Das Papier trägt den Titel "Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources", also "Wissens-Basierendes Vertrauen: Bewertung der Vertrauenswürdigkeit von Web Quellen".
Das Papier beschreibt folgende Problematik: Backlinks und Besucher-Historien einer Website fließen traditionell noch hoch in den Such-Algorithmus ein. Dadurch haben beispielsweise "Klatsch und Tratsch"-Webseiten häufig einen hohen Page Rank, allerdings können die dort veröffentlichten
Informationen nicht immer als verlässlich betrachtet werden. Umgekehrt gäbe es viele weniger populäre Webseiten, eben aufgrund einer schlechteren Backlink-Struktur und einer schlechteren Besucher-Historie, die allerdings sehr genaue Informationen publizieren.
Lt. dem Papier wird ein "Verlässlichkeits-Score" mit der Bezeichnung "Knowledge-Based Trust" also "Wissensbasierendes Vertrauen" mit der Abkürzung KBT als Kennzahl für die Bewertung einer Webseite angegeben. Diese Kennzahl
soll automatisiert erzeugt werden: es befinden sich bereits Methoden im Einsatz, mit deren Hilfe die Informationen
aus Webseiten gesammelt werden und damit Wissenszentren konstruiert werden können. Das vorliegende Wissen in den Wissenszentren
muss nun differenziert werden in korrekte Fakten und nicht korrekte Fakten. Die neue Methode zur Bewertung der Korrektheit der Fakten
wird durch ein neuartiges, mehrschichtiges Wahrscheinlichkeitsmodell erreicht, welches auf verbindende Schlussfolgerungen basiert.
Wir verstehen diese Aussage so, dass das mehrschichtige Wahrscheinlichkeitsmodell die vorliegenden Fakten im Wissenszentrum gegeneinander vergleicht. Beispiel: 1000 Webseiten berichten, dass am 01.03.2015 ein neues Smartphone in Barcelona vorgestellt wurde, eine Seite berichtet, dass das Smartphone in Paris vorgestellt wurde, so geht der Algorithmus
davon aus, dass der eine Bericht einen höheren Wahrscheinlichkeitswert für eine nicht korrekte Information enthält.
Weiter ist der KBT (also der Verlässlichkeits-Score) wohl so zu verstehen, dass bei einer Konzentration solcher nicht korrekter Informationen eine Abstufung des Verlässlichkeits-Score
durchgeführt wird. Da der KTB in diesem Szenario Teil der Ranking-Kriterien von Google wird, würde das zu einem Verlust in der Ranking-Platzierung führen.
Auch wenn lt. dem Papier manuelle Beurteilungen der Ergebnisse geplant sind um die Resultate zu bestätigen, sehen wir Probleme bei der Einführung des KBT: selbst
wenn der Bewertungsalgorithmus überwiegend richtig arbeitet, so kann es doch auch zu Fehlern kommen. Wenn 1000 Webseiten falsch liegen und eine richtig, so würde das
System das vielleicht nicht in einem automatisierten Prozess erkennen. Webseitenbetreiber sollten die Möglichkeit bekommen, eine manuelle Prüfung selbst anzustoßen, um
diesem Problem entgegenzuwirken.
Bei einem zuverlässigen KTB kann dieser andererseits auch dazu führen, dass Google seinem Ziel näher kommt und guten Content mit hohem Ranking belohnt.
Wie ist Ihre Meinung zu Googles Plänen, die Korrektheit von Informationen zu bewerten und in die Ranking-Kriterien aufzunehmen? Schreiben Sie auf dieser Seite Ihren Kommentar:
siehe unten!