laboratoire

Google travaillerait actuellement à un nouveau critère de pertinence, basé sur l'analyse de la véracité des faits relatés dans une page web, comparée à un référentiel de type Knowledge Graph...

On apprend cette semaine par un article de la revue New Scientist que des chercheurs de Google ont publié une étude (PDF) intitulée "Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources" (attention, solides connaissances en mathématiques conseillées pour la lire).

Cette étude montre comment il serait possible d'analyser et de classer des résultats en estimant la pertinence de leur contenu (et notamment le fait que les informations qui y sont fournies sont vraies ou fausses) et sans obligatoirement se baser sur le traitement des liens entrants, comme le fait Google aujourd'hui. Une source d'information qui proposerait des contenus erronés perdrait ainsi de la confiance envers le moteur, alors qu'un site web ayant "tout juste" monterait en termes de KBT (Knowledge-Based Trust, ou confiance basée sur la connaissance). L'idée serait de comparer les contenus identifiés sur le Web avec une base de connaissance (Knowledge Graph ou son futur Knowledge Vault). L'analyse d'une page et, de façon plus globale, du site entier, pourraient donner des indications sur le niveau de confiance que le moteur peut avoir envers une source d'informations. Une approche finalement pas si éloignée que cela du fonctionnement actuel de Google...

Bien sûr, ce système ne pourrait pas s'adapter au web dans son ensemble car toutes les pages ne contiennent pas des "faits" pouvant être comparés à un référentiel donné, mais l'approche est séduisante et pourrait venir en complément des critères actuels. Reste à envisager la façon dont le référentiel serait bâti et qui détiendrait la "vérité suprême" et comment elle serait établie. Une vraie question de fond...

google-etude-liens-contenus

Source de l'image : Google