Damn, c'est un sujet extrêmement vaste... J'en ai fait des heures avec des étudiants, et on ne faisait que gratter la surface.
Si tu as quelques souvenirs de mathématique niveau terminale / 1er cycle, tu peux déjà regarder les introductions à la théorie de la mesure expérimentale destinée aux premiers cycles universitaires (mais c'est de niveau assez variable), aux CPGE (=classes prépas) et aux agrégations de physique/chimie. Par exemple :
http://poisson.ens.fr/Ressources/incertitudes.pdf
Je ne m'avance pas sur la qualité du poly ci-dessus (je n'ai fait que le parcourir, mais ça a l'air d'être la même chose que la plupart des polycopiés du genre, que j'ai lu en nombre... et la source (ENS) est en principe fiable). Il y a toujours des trucs qui m'énervent dans ces polycopiés, notamment quantité d'hypothèses passées sous le tapis, mais il faut bien commencer par quelque chose.
Si tu veux des choses plus avancées, je dois pouvoir te retrouver ça, mais ça dépend ce que tu veux en faire (honnêtement, le poly du dessus doit suffire à pas mal d'utilisations "normales")
Quelques réponses plus précises :
Quels sont les outils permettant de quantifier et réduire l'erreur lors d'une mesure ?
Normalement, les mesures (enfin, mesurages, mais bon...) sont considérés comme un processus aléatoire : tu pars d'un phénomène réel défini par un certain nombre de paramètres, et en effectuant les mesures, tu en tires une série de valeurs partiellement aléatoire. Le but est de revenir aux paramètres du système à partir des valeurs obtenues.
Par exemple, tu veux la durée d'un phénomène, tu prends un chronomètre. En supposant le phénomène reproductible et d'une durée constante (il y a beaucoup à dire sur l'existence d'une valeur-vraie, surtout quand la physique est quantique, mais bon...), tu vas toujours obtenir sensiblement les mêmes durées, mais avec quelques différences en fonction du fait que tu presses un peu en avance ou en retard.
Autre exemple : tu as une lampe qui clignote, qui est allumé un temps 0<x<1 seconde, et éteinte le reste de la seconde. Tu prends 1000 photos à des instants aléatoires. Sur les photos, la lampe sera soit allumée, soit éteinte, naturellement de façon aléatoire. A partir du nombre N de photos où elle est allumée, tu peux vouloir en déduire x (la meilleure estimation sera x = N/1000, sous certaines conditions).
Bref, tu as le résultat d'un "processus aléatoire".
A partir de là, tout est basé sur le principe d'estimateurs.
Si tu prends le premier exemple où tu cherches une durée, sous certaines conditions statistique, un possible estimateur de la durée du phénomène sera effectivement la moyenne de toutes les mesures de durées que tu as faites.
Si tu veux savoir quelle erreur tu commets en utilisant la moyenne par exemple, tu as d'autres estimateurs qui cherchent à deviner, à partir des mesures, quelle erreur tu as sans doute commise. Cf l'écart-type, j'y reviens.
Il est difficile de dire quelle est le meilleur estimateur / la meilleure formule pour chacune de ces choses. Si je te demande quelle est la meilleure voiture, tu me diras que ça dépend si tu veux faire une course, tracter une caravane, franchir une rivière ou emmener tes enfants au cinéma. C'est exactement pareil pour les estimateurs.
Tu as des estimateurs dont l'espérance (en gros la moyenne des résultats qu'il te fournira) correspond à la bonne valeur. C'est plutôt une bonne chose, mais ils peuvent nécessiter beaucoup de mesures pour avoir une erreur pas trop grande. Tu as d'autres estimateurs qui te donnent moins de variations avec moins de mesures, mais qui donnent plus souvent des valeurs au-dessus de ce que tu cherches qu'en dessous, c'est-à-dire qu'en augmentant le nombre de mesures, tu ne tendras pas vers la grandeur que tu cherches à mesurer.
La moyenne ne me semble pas pertinente vu que sur un grand nombre de mesure elle va tendre vers la bonne valeur, non ?
La moyenne est là pour te donner une meilleure estimation de la valeur que tu cherches à mesurer que tu n'en auras en ne faisant qu'une seule valeur.
Souvent oui, elle tends vers la bonne valeur, mais pas toujours. Par exemple, si tu veux mesurer l'aire de carrés, que tu mesures le côté avec une règle, que tu mets les résultats au carré, et que tu fais la moyenne, ça ne tendra pas vers l'aire des carrés (il faut que tu fasses la moyenne des mesures des côtés, et que tu mettes au carré le résultat). Enfin bon, difficile de répondre dans l'absolu, mais généralement ça marche.
Des approches genre écart-types seraient peut-être plus efficaces ?
Oui, toujours dans certaines conditions, l'écart-type (enfin une des versions, tu verras qu'il y a plusieurs formules, c'est celle avec 1/(n-1) qui convient ici a priori) est, grossièrement, un bon estimateur des erreurs que tu commets lors des mesures.
Cette estimation de l'erreur, couplée avec le nombre de mesure, te permet de définir un intervalle de confiance, c'est-à-dire une zone dans laquelle tu as 95% ou 99% de chances que la valeur que tu souhaites mesurer se trouver.
Par exemple, tu peux, avec N mesures, affirmer qu'il y a 95% de chance que la durée de ton phénomène soit entre 9.2 secondes et 9.4 secondes. Les détails pour passer de l'écart-type à l'intervalle de confiance, tu en trouveras les idées de base dans un lien comme au-dessus. Tout n'est pas démontré (les mathématiques derrière sont complexes, niveau master au moins, mais c'est vraiment intéressant).
Dans la pratique, on n'a généralement pas besoin de savoir pourquoi telle ou telle formule convient. Le seul truc dommage, c'est qu'en fonction des situations, une formule ou une approche peut convenir mieux qu'une autre, et généralement les hypothèses ne sont pas clairement indiquées dans les ouvrages pour étudiants.
La moyenne semble être une première approche mais peut-être insuffisante : s'il y a quelques erreurs importantes ça risque d'être faussé.
Tout dépend complètement du processus de mesure. En général, la moyenne reste la meilleure solution si tu ne sais pas modéliser correctement le processus d'erreur.
Peut-être serait-il plus malin d'identifier en premier les valeurs absurdes et les virer ?
C'est une possibilité, mais encore faut-il être capable de reconnaître les valeurs absurdes, et si tu ne le fais pas de la bonne façon, la moyenne des valeurs restantes peut être à côté de la plaque. Donc difficile de s'avancer sans plus d'information.
La médiane plutôt que la moyenne peut être un autre estimateur, plus stable avec certains bruits/certaines erreurs de mesure, mais il faut être prudent.
Des approches genre écart-types seraient peut-être plus efficaces ?
Si tu parles de calculer l'écart-type pour déterminer les valeurs aberrantes, puis de reboucler, c'est quelque chose qui peut se faire, mais qui mathématiquement est très complexe à faire correctement...
Bon, j'ai tenté de mettre quelques idées rapidement, mais... est-ce que tu peux être plus précis sur ce que tu veux mesurer ? Ou bien est-ce de la curiosité ?