Avant de venir faire l’imbécile sur des choses pas sérieuses, à savoir le Web ;-), je me suis occupé pendant cinq ans environ d’un laboratoire d’oenologie.
Dans l’environnement d’un laboratoire, la gestion de la qualité passe notamment par la connaissance des modes de mesure et par la standardisation des méthodes. C’est ainsi que pour faire accréditer mon laboratoire par un organisme indépendant, j’ai du non seulement mettre au point l’ensemble des procédures de fonctionnement du laboratoire, mais aussi et surtout mettre en application un ensemble de méthodes définies, documentées et acceptées, regroupées dans un fascicule qui s’appelait le programme N° 78 : analyse des vins.
C’est ainsi que pour la mesure de la quantité de sucre, ou de soufre dans un vin, nous devions par exemple vérifier notre capacité à analyser le vin suivant une méthode de référence, et également vérifier notre capacité à délivrer des résultats statistiquement équivalents à la méthode de référence (reproductibilité, répétabilité, incertitude) en utilisant d’autres méthodes moint lourdes à mettre en oeuvre.
Bref, dans un domaine comme l’analyse des vins, nous avions des méthodes de mesure normalisées, et notre travail consistait essentiellement à les mettre en application le plus sérieusement possible, de façon à délivrer des résultats corrects.
Lorsque je parle de résultats corrects, j’entends par là le fait de pouvoir affirmer que la quantité d’un composant se trouve dans la plage d’incertitude donnée, cette incertitude étant calquée sur les besoins des donneurs d’ordre, c’est-à-dire ceux qui utilisent le résultat de mesure (attention à la surqualité 😉
Bref, car je m’éloigne de mon sujet initial, ce qu’il faut retenir, c’est que nous avions des méthodes, et que nous les utilisions, car c’était la seule façon de pouvoir travailler sérieusement et de pouvoir comparer et utiliser les résultats produits par différents laboratoires, dans différents pays, et pour différentes utilisations.
Quelques années plus tard, je discutais avec un ami entrepreneur, qui dirige une entreprise spécialisée sur la surveillance et la mesure de la qualité de service sur Internet (QoS). Je lui indiquais qu’il me semblait absolument vital et tout à fait inévitable que des entreprises ou des groupements d’entreprises commencent à mettre au point des méthodes standardisées et documentées de mesure de la qualité de service. Autrement dit, avons-nous ce qu’il faut pour comparer des choses comparables.
Alors, qui doit faire ce travail de mise au point des méthodes de référence ?
- Les centres de recherche ?
- Les organismes de normalisation ?
- Les entreprises spécialisées (qui peuvent essayer de faire de leurs propres méthodes les méthodes de références) ?
- Des groupements d’entreprises ?
D’autres questions se posent également :
- Comment se fait la mesure ?
- Depuis combien de points ?
- Quels chiffres sont vraiment importants ?
- A partir de combien de mesures un résultat peut-il être considéré comme utilisable ?
- Quelles sont les attentes des utilisateurs de la mesure ?
- Quelles sont la reproductibilité et la répétabilité d’une mesure ?
- Quels organismes respectent ces méthodes ?
- Existe t-il des organismes tiers de confiance qui pourraient certifier les laboratoires de mesure, car c’est bien comme ça que l’on peut les appeler ?
Bref, sur ce sujet de la qualité de service, où la donnée numérique est reine, vous retrouvez tous les enjeux classiques de la qualité en laboratoire. Dès 2001, je n’avais aucun doute sur la future standardisation des méthodes. D’ailleurs, si les industriels européens de la qualité de service avaient bougé rapidement, il auraient peut-être pu faire de leurs méthodes de mesure la référence absolue en matière de qualité de service. En attendant, ils ont surtout beaucoup avancé et industrialisé leurs process, dans un domaine par ailleurs extrêment concurrentiel, ce qui est quand même extrêmement positif.
En revanche, du côté américain, il semblerait que des méthodes de référence commencent à s’imposer. L’article de 01net publié aujourd’hui au sujet de l’alliance APDEX (oui, oui, une alliance industrielle, l’arme léthale en matière de normalisation industrielle 😉 vous montrera qu’on a peut-être raté le coche, ou qu’en tous cas, il ne faut absolument pas négliger la problématique de la standardisation des méthodes de mesure dans le domaine de la qualité Web. Nous avons sans doute affaire ici aux futures données de référence que nous utiliserons lorsque nous souhaiterons comparer plusieurs applications.
Je vais aller plus loin : ce que nous voyons ici va se produire dans tous les domaines de la qualité Web. Ce que j’affirme ici est sans doute plus compliqué à appréhender que dans le domaine de la qualité de service où les chiffres sont à lecture directe, mais par exemple, Jakob Nielsen n’aura certainement pas le temps de publier plus de 15 ou 20 articles sur le nombre de personnes nécessaires pour évaluer l’utilisabilité d’un site (lisez celui de la semaine) avant que des chiffres, des unités de mesure et des méthodes ne soient choisies, aussi arbitraires soient-ils, qui nous permettront de comparer sur une application les résultats obtenus par différents laboratoires d’ergonomie. Je suis également persuadé que ce sera également le cas en matière d’accessibilité, de qualité logicielle et probablement de conformité aux standards.
Vous l’aurez compris, je suis persuadé que l’avenir de la qualité Web va maintenant se jouer en grande partie sur la standardisation des méthodes de mesure.
Très intéressant, en effet, de se poser la réflexion de QUI est sensé faire avancer la réflexion sur la normalisation de la qualité internet.
La difficulté de la qualité web, selon moi, c’est qu’elle touche à des aspects très divers. Les critères techniques et fonctionnels sont faciles à mesurer. Et je ne m’étonne pas de voir que l’alliance APDEX se focalise essentiellement sur les temps de réponse des applications. Mais d’autres aspects de la qualité web, non moins importants, comme la qualité du contenu, de la navigation, du graphisme,… sont beaucoup plus difficiles à objectiver.
Ceci dit, cette difficulté est aussi une richesse, qui fait tout l’intérêt de notre métier de e-qualiticiens… et qui explique peut-être, Elie, que tu sois passé du vin au web ?
I enjoyed reading your stuff. Cool site. right cards will loose cards without any questions
Pourait-on savoir de quelles mesures vous parlez?
Auriez vous des des exemples à nous donner svp?