Précisément.... le relativement est très important et l'emporte sur la fiabilité à mon avis... Faute de pouvoir ramener les volumes à l'utilisateur (et pas à la consultation) la fiabilité est très soumise à caution !xenom a écrit : c'est juste une méthode technique pour avoir des données relativement fiables sur les utilisateurs et aussi d’adapter le site aux utilisateurs. Ca ne revele aucune données, ca ne permet pas vraiment un tracage.
Exemple pratique : deux personnes consultent un site l'un avec ie6 et l'autre avec FF le premier le consulte 90x dans la journée (oui c'est un malade et alors... ?) l'autre 10x ... 90% ie6 Vs 10%FF sur les consultations et 50/50 pour les utilisateurs ... Idem pour les OS etc... l'exemple est un peu extrême mais l'idée est là. On voit poindre le biais qui surreprésente le navigateur qui plante le plus et qui fait recharger le plus la page...
Même en déboulonnant par adresse IP on obtient des stats fausses (sans être capable de corriger les différents biais) à cause des IP exterieurs partagées (foyers avec 1 seule box pour plusieurs ordis, entreprises, etc... ). C'est moins important comme biais mais ça reste inconnu et toujours assez peu loin du doigt mouillé.
Bref y'a des biais dans tous les sens et c'est au final un bon prétexte pour ne pas respecter les standards : " puisqu'on peut adapter à chaque cas particulier pas besoin de respecter un standard convenable indépendant de la plateforme et du navigateur....", "Puisque les sites peuvent s'adapter, aucune urgence à respecter les standards"... C'est aussi l'occasion d'habituer le péon moyen à ce qu'il transmette des infos sans le savoir ("oui mais c'est pour votre bien")... et hop on fini par lui faire transmettre l'url des 2 dernières pages visitées ... et hop on fini par les utiliser dans des données de ciblage publicitaire et des analyses de parcours...