Previous PageTable of ContentsNext Page


7.  EXAMEN

7.1  VALIDATION DES MODÈLES DOSE-RÉPONSE

Valider un modèle, c'est démontrer son exactitude par rapport à une utilisation donnée. Dans ce contexte, l'exactitude s'entend de l'absence d'erreur systématique et aléatoire – deux concepts communément appelés respectivement justesse et fidélité en métrologie. Tous les modèles sont par nature des représentations incomplètes du système qu'ils prétendent modéliser mais ils peuvent néanmoins être utiles. On trouve des informations générales sur la manière de travailler avec des modèles mathématiques dans différents manuels d'études théoriques et appliquées. Doucet et Sloep (1992), offrent une excellente introduction aux tests de modèles. Ces auteurs font une distinction entre la confirmation d'un modèle (démontré comme crédible; plausible) et sa vérification (démontré comme vrai). L'ouvrage de McCullagh et Nelder sur les modèles linéaires (1989) est une source d'information précieuse sur les méthodes de modélisation statistique et décrit quelques principes généraux d'application des modèles mathématiques, en soulignant les trois principes du modélisateur:

  1. Tous les modèles sont faux, mais certains sont plus utiles que d'autres.
  2. Ne pas s'enticher d'un modèle à l'exclusion des autres.
  3. Vérifier soigneusement l'ajustement d'un modèle par rapport aux données.

En outre, Law et Kelton (2000) s'intéressent à la question de la construction de modèles de simulation valides, crédibles et suffisamment détaillés et étudient des techniques pour renforcer leur validité et leur crédibilité. Notons toutefois que certains modèles ne peuvent pas être intégralement validés, mais que leurs composantes ou modules peuvent l'être individuellement. Dee (1995) a identifié comme suit les quatre principaux aspects de la validation d'un modèle:

  1. validation conceptuelle
  2. validation de l'algorithme
  3. validation du code de logiciel
  4. validation fonctionnelle

Ces aspects sont décrits dans les paragraphes qui suivent. La question de la validation est en outre traitée dans les directives FAO/OMS sur l'évaluation de l'exposition aux risques microbiologiques dans les aliments et sur la caractérisation des risques microbiologiques dans les aliments.

La Validation conceptuelle vise à déterminer si le modèle représente avec exactitude le système étudié. La simplification des processus biologiques qui sous-tendent les étapes du modèle est-elle réaliste, autrement dit les hypothèses du modèle sont-elles crédibles? Ordinairement, la validation conceptuelle est essentiellement qualitative et le meilleur test est représenté par la confrontation avec des opinions d'experts de diverses disciplines scientifiques. Des modèles différents avec des bases conceptuelles diverses peuvent être testés les uns par rapport aux autres dans un contexte bayésien, à l'aide de facteurs de Bayes ou d'un critère d'information quelconque. Les données expérimentales ou d'observation à l'appui des principes et des hypothèses devraient être présentées et examinées. Les concepts de modélisation décrits au chapitre 6 sont une série d'hypothèses de base qui représentent l'opinion unanime d'un vaste groupe d'experts qui ont contribué à ces directives. Ils sont fondés sur un raisonnement mécaniste et étayés par quelques preuves expérimentales. En tant que tels, ils sont considérés comme la meilleure base qui existe actuellement pour les études de modélisation dose-réponse.

La validation de l'algorithme est liée à la traduction des concepts d'un modèle en formules mathématiques. Elle se fait en répondant à des questions comme celles-ci: Les équations du modèle représentent-elles le modèle conceptuel? Dans quelles circonstances, peut-il être justifié de simplifier les hypothèses? Quel est l'impact qu'a le choix de méthodes numériques pour la résolution du modèle sur les résultats? Et y a-t-il une concordance entre les résultats dérivés des différentes méthodes utilisées pour résoudre le modèle? Pour les modèles de dose-réponse microbiologiques, ces questions se rapportent à la fois à l'adéquation des modèles (examinée à la section 6.3.) pour décrire les processus d'infection et de maladie, et aux différents choix décrits ici. Est-il juste de supposer que la probabilité d'infection est constante pour chaque pathogène, dans chaque hôte? Le modèle Bêta-Poisson approximatif peut-il être utilisé ou doit-on recourir au modèle hypergéométrique exact? Pour évaluer les effets des procédures numériques, il existe une méthode très efficace qui consiste à comparer les résultats des différentes méthodes employées pour estimer l'incertitude des paramètres, par exemple en superposant les échantillons des paramètres obtenus par les techniques de Monte Carlo ou les procédures Bootstrap, avec des intervalles de confiance basés sur la vraisemblance. La représentation graphique des résultats peut être utile, mais la prudence s'impose.

La validation du code de logiciel est liée à l'application de formules mathématiques en langage informatique. Une bonne pratique de programmation (modulaire et pleinement documentée) est une condition préalable indispensable. Les points qui méritent une attention particulière sont les effets possibles des facteurs de précision des machines et des facteurs spécifiques au logiciel, sur le produit du modèle. Les rapports d'erreur interne du logiciel sont des sources d'information précieuses, de même que l'évaluation des produits intermédiaires. Pour les modèles dose-réponse, il est conseillé de contrôler les résultats obtenus avec un nouveau logiciel en les comparant avec les résultats publiés antérieurement.

La validation fonctionnelle a pour objet de vérifier le modèle par rapport à des observations obtenues de manière indépendante. En théorie, l'évaluation devrait être faite en obtenant des données réelles pertinentes et en effectuant une comparaison statistique des événements simulés et des observations, mais cela exige des données plus détaillées que celles dont on dispose habituellement. Il est parfois possible de comparer les résultats des études d'évaluation des risques avec des estimations épidémiologiques de l'incidence d'une maladie, obtenues de manière indépendante. Ces données ne permettent pas de valider le modèle dose-réponse en soi, mais elles peuvent donner des renseignements précieux. Jusqu'à présent, la plupart des études ont considéré qu'une vérification de l'intervalle des risques estimés et des incidences observées suffisait pour valider un modèle. Toutefois, de par leur nature, les estimations des risques (probabilités estimées) peuvent être utilisées comme une fonction de vraisemblance pour effectuer un test d'adéquation plus formel.

La crédibilité des résultats peut aussi être établie en démontrant la cohérence des relations de dose-réponse calculées à partir de sources de données différentes. Par exemple, une relation de dose-réponse définie à partir d'une étude alimentaire sur des humains peut être validée par rapport à des données épidémiologiques ou à des données de la surveillance nationale des maladies d'origine alimentaire. Dans ces comparaisons, il doit être tenu compte de la diversité des hôtes, des pathogènes et des matrices. Ainsi, des sources de données différentes peuvent être utiles ou pour valider un modèle ou pour généraliser sur la base d'éléments plus solides.

7.2  EXAMEN DES PAIRS ET DU PUBLIC

Le procédé adopté pour développer les résultats peut renforcer la crédibilité d'une caractérisation des dangers. L'examen des résultats par des pairs et par le public est un élément fondamental du processus. Une interaction interdisciplinaire est essentielle pour le processus d'évaluation des risques et devrait être étendue au processus d'examen. Des experts des processus biologiques concernés devraient examiner les concepts et les hypothèses sur la base desquels a été effectuée une caractérisation des dangers. En outre des statisticiens qualifiés devraient revoir l'analyse des données et la présentation des résultats de l'ajustement des modèles. Pour faciliter l'examen des pairs, les aspects mathématiques devraient être expliqués de façon claire et accessible, afin que ceux qui ne sont pas des mathématiciens puissent s'y retrouver dans les concepts et les détails de l'évaluation.

L'analyse critique d'un processus de caractérisation des dangers est une tâche complexe qui doit être confiée à des experts hautement qualifiés, c'est pourquoi des ressources suffisantes devraient être automatiquement mises à disposition pour le processus d'examen des pairs, dans le cadre du plan de projet. Toutes les parties intéressées devraient pouvoir accéder aux résultats de l'examen des pairs, qui devrait notamment indiquer comment les commentaires ont été incorporés dans la version définitive du document et, le cas échéant, pourquoi d'autres observations n'ont pas acceptées.

Le processus d'examen du public a deux grands objectifs. Premièrement, il permet à toutes les parties prenantes d'une caractérisation des dangers de passer au crible les hypothèses formulées, ainsi que leur impact sur les résultats de l'évaluation des risques. Deuxièmement, il permet de déterminer si les ensembles de données et les informations descriptives utilisés pour caractériser les dangers sont complets.


Previous Page Top of Page Next Page