Les études sur la taille du Web sont à la mode. On peut même se demander si elles ne deviennent pas un simple prétexte à "faire mousser" le lancement ou la promotion d'un produit sur la recherche d'information. Après WWWMetrics, Inktomi, Altavista, IBM, Compaq, puis Cyveillance il y a deux semaines, c'est au tour de la société BrightPlanet de dévoiler une étude sur l'étendue de la Toile et notamment sur le "Web invisible" (les informations contenues dans les bases de données, inacessibles aux moteurs "classiques") que BrightPlanet appelle "Deep Web". Cette étude indique qu'il y aurait 100 000 bases de données disponibles, riches en contenu, représentant 550 milliards de pages Web (7 500 Tera Octets d'information) qui serait gratuitement accessibles pour 95% d'entre elles.
BrightPlanet a basé son étude sur l'utilisation de son logiciel Lexibot, qui serait capable d'effectuer des recherches sur ces bases de données.
Présentation de l'étude :
http://www.completeplanet.com/Tutorials/DeepWeb/index.asp
Lexibot :
http://www.lexibot.com/
Autre site sur le Web invisible :
http://www.invisibleweb.com/