​Renforcer la confiance dans les systèmes basés sur des modèles

Aperçu

​Au cours des quatre dernières décennies, l’évolution des ordinateurs a constamment porté la promesse de révolutionner les processus numériques, y compris la manière dont nous testons les produits. Aujourd’hui, les avancées en puissance de calcul, cybersécurité, intelligence artificielle, outils de conception assistée par ordinateur et modèles scientifiques nous rapprochent de la réalisation de ces promesses. Explorons la relation entre les modèles de conception, la confiance que nous leur accordons et comment les tests et la simulation peuvent renforcer cette confiance.

 

Contenu

Modèles numériques et tests physiques

Traditionnellement, la phase de test servait de point de contrôle pour passer d’une étape de développement à la suivante. Par exemple, un prototype est soumis à des tests basés sur des critères de conception et, une fois ces critères remplis, la conception passe à l’étape suivante du processus de conception. Cependant, les données de test elles-mêmes ne sont pas transférées avec la conception. Le but du test de conception est uniquement d’assurer la réussite de la phase prototype. Ce schéma se répète à toutes les étapes de la conception, de l’étude de marché et du développement conceptuel aux tests de production et de maintenance. Par conséquent, à mesure que le produit est développé, de précieuses données de test sont laissées de côté, ce qui entraîne une perte importante d’opportunités d’apprentissage.

Pour ajouter à cette complexité, de nombreuses entreprises sont passées d’une méthodologie de conception séquentielle à une approche de développement de produit plus flexible et agile. La progression traditionnelle linéaire et solitaire du processus de développement a évolué. Par conséquent, les tests sont désormais un aspect continu qui imprègne chaque étape du développement.

L’adoption de la méthode agile et la nécessité de diffuser les données et les informations ont mis en lumière une question centrale : comment pouvoir capturer et partager efficacement l’information tout au long du processus de développement ?

Le stockage et la transmission des données en eux-mêmes ne sont pas intrinsèquement difficiles. Cependant, gérer efficacement ces données est un défi que les équipes d’ingénieurs rencontrent depuis longtemps. Comment garantir que les données reflètent les informations les plus récentes ? Répondre à cette question constitue un principe fondamental de l’ingénierie numérique : établir une source unique, autoritaire de vérité. Sans une approche disciplinée de la gestion des données, incluant la mise en place d’une source unique de vérité, les équipes ne peuvent utiliser l’information avec certitude et confiance.

Tout au long du cycle de développement, cette source de vérité autoritaire doit évoluer en conséquence. À chaque série de tests, les nouvelles informations acquises doivent être intégrées au corpus de connaissances existant. Plutôt que de considérer les tests comme une série d’étapes éparses du processus de développement, ils devraient être perçus comme un moyen d’établir une base de connaissances solide qui améliore le développement du produit.

Considérer le test comme une série d’étapes est essentiel pour rendre le processus de test efficace. Cette approche repose sur la capacité d’une équipe d’ingénieurs à répondre à deux questions critiques :

« Comment conserver et transmettre l’information acquise lors des phases précédentes ? Quelles nouvelles informations devons-nous apprendre à chaque nouvelle phase de test ? »

L’ensemble de ces informations peut être appelé fil numérique, qui transporte l’information tout au long du processus de développement. Le fil numérique devient la source unique de vérité faisant autorité et comprend des artefacts numériques tels qu’une liste d’exigences, des modèles numériques, la cartographie des capteurs, des données de test enregistrées, le comportement modélisé, les variations de performance, les défauts tels que fabriqués, les variations individuelles et l’historique d’utilisation réel. Le fil numérique répond à la première question : comment capturer et conserver l’information tout au long du processus de développement. L’amélioration de la qualité du fil numérique devient le principal défi pour une équipe chargée de mettre en œuvre un processus d’ingénierie numérique.

La seconde question, qui concerne la capture des informations nécessaires à chaque nouveau test, peut contribuer à améliorer l’efficacité du processus de développement. L’exactitude et l’exhaustivité de la réponse à cette question détermineront la qualité du fil numérique à l’issue du processus.

Il existe au moins deux facteurs majeurs contribuant aux erreurs dans un système composé de modules. Les erreurs proviennent des interactions entre modules ainsi que de leur impact sur le comportement des composants individuels. Modéliser ces effets peut être considérablement plus difficile que modéliser le comportement des composants individuels. Ces considérations doivent orienter les décisions en ingénierie de test aux étapes ultérieures du développement. L’objectif des tests doit évoluer, passant de la simple qualification pour l’étape suivante à l’établissement de la confiance dans le fil numérique, en particulier dans le modèle représentant le système.

Confiance dans les systèmes modèles

Les modèles remplissent des objectifs différents. Les modèles peuvent servir à représenter visuellement un concept, favorisant la collecte de retours pour orienter la conception plutôt que la précision fonctionnelle. Les modèles peuvent aussi servir à suivre les exigences ou compiler des nomenclatures pour les achats. Ils peuvent aussi agir comme espaces réservés physiques dans un système jusqu’à la disponibilité du composant réel, où la fonctionnalité n’est pas essentielle. Les modèles numériques sont utiles dans les tests de scénarios comme l’analyse par éléments finis ou les tests de sécurité, où le comportement et la réponse du modèle sont critiques. Enfin, les modèles peuvent être utilisés comme jumeaux numériques, liés à des numéros de série spécifiques et incorporant des données fabriquées vieillissantes pour simuler les conditions réelles d’utilisation du système physique.

Dans cette gamme d’applications, l’exigence de précision pour correspondre au système physique varie. Un modèle conceptuel ne peut pas reproduire exactement les performances physiques, mais un jumeau numérique pour la prédiction de maintenance exige une précision proche de l’usage et des défaillances réelles. Le niveau de confiance accordé à la précision d’un modèle est un indicateur de sa crédibilité dans le système. La crédibilité, dans ce contexte, désigne « le degré auquel les individus sont prêts à fonder leurs décisions sur l’information dérivée du modèle ».1

Pour accroître la crédibilité du modèle, il faut un moyen de quantifier cette crédibilité et de mesurer les progrès. La construction proposée par Eann Patterson, appliquée aux modèles en sciences des matériaux et autres domaines, est utile pour cette discussion. Dans ce modèle, Dr. Patterson propose de caractériser les modèles selon deux axes : Dans quelle mesure le modèle est-il testable, et à quel point comprenons-nous la science qui le sous-tend ?

Dans ce cadre, la confiance dans le modèle augmente à mesure que celui-ci est caractérisé vers le bas à gauche du graphe. Il est utile de segmenter le domaine en quatre parties, comme illustré à la figure 1, tout en reconnaissant que ces frontières sont floues et non strictes.

Figure 1. Quatre catégories de modèles

 

Dans ces quatre segments, on distingue quatre catégories de modèles. Il est essentiel pour la crédibilité d’un modèle que les ingénieurs sachent dans quelle catégorie il se situe. Voici une brève description de ces catégories :

    I. Science connue avec modèles vérifiables : dans cette catégorie, les ingénieurs utilisent divers outils et métriques pour garantir la bonne application des modèles. Les exemples incluent leviers mécaniques, échantillons matériels, problèmes idéaux de physique.

    II.            Modèles simplifiés correspondant bien aux résultats expérimentaux : ici, la science est peut-être mal comprise, mais suffisamment de données permettent de modéliser précisément le phénomène. Les ingénieurs doivent utiliser ces modèles avec prudence, en les comparant aux données empiriques. Un exemple est la matière noire : la science n’est pas bien comprise, mais le modèle de l’univers est assez précis pour guider les missions spatiales.

    III.            Modèles ayant une base scientifique solide mais non vérifiables : ces modèles reposent sur des valeurs épistémiques, les rendant viables dans des applications réelles, même sans tests de vérification d’exactitude. Exemples : composants soumis à une fatigue thermoacoustique extrême.

    IV.            Modèles difficiles à construire et à tester : un modèle dans cette catégorie peut être vaguement basé sur la science connue, sans accès aux données scientifiques sous-jacentes ni possibilité de test. Les interactions dans un trou noir peuvent correspondre à cette catégorie.

Cette construction aide à déterminer dans quelle mesure un modèle est digne de confiance. Dans la section suivante, nous verrons comment cela aide une équipe d’ingénieurs à augmenter leur confiance dans un modèle donné.

Accroître la confiance

Maintenant que nous connaissons ces catégories, nous pouvons envisager des stratégies pour pousser les modèles vers le bas à gauche, là où la confiance est plus élevée.

Figure 2. Stratégies pour accroître la confiance dans les modèles
 

Comme illustré à la figure 2, la première stratégie consiste à développer de meilleures techniques et technologies de test. Les systèmes de mesure s’améliorent chaque année en précision, exactitude, rapidité et technologies d’analyse. Chaque progrès fait passer les modèles du quadrant supérieur gauche (III) au quadrant inférieur gauche (I). En tant qu’entreprise de mesure, NI cible cette stratégie : rendre accessibles des mesures auparavant inaccessibles.

Face à un modèle à faible confiance en haut à gauche, une équipe d’ingénieurs peut concentrer ses efforts sur la prise de mesures auparavant indisponibles. Les partenariats industriels avec des entreprises de mesure comme NI, ciblés sur des problèmes de modèles spécifiques, peuvent générer des approches de mesure axées sur les défis les plus pertinents.

La deuxième stratégie consiste à intégrer de nouvelles connaissances scientifiques aux modèles. L’objectif est de développer des modèles fondés sur la science pour remplacer les boîtes noires. Dans ce domaine, NI collabore avec des sociétés comme Ansys pour créer des simulations physiques basées sur des principes scientifiques publiés, validées ensuite par des données expérimentales. Ces modèles détaillés servent à générer des modèles d’ordre réduit (ROM) pour simuler des systèmes, optimiser les capteurs, augmenter les mesures physiques avec des capteurs virtuels et analyser la probabilité de défaillance. La combinaison de modèles physiques et de données expérimentales permet de quantifier les incertitudes, de construire des modèles hybrides utilisant des lois constitutives et l’apprentissage automatique pour capturer la physique résiduelle souvent non modélisée et de réaliser une analyse stochastique pour identifier les points de défaillance les plus probables.

La troisième stratégie concerne les parties du système non testables avec précision et aux principes scientifiques incompris (quadrant IV). Ces systèmes nécessitent de nouvelles approches de recherche pour trouver des moyens de mesurer les phénomènes ou comprendre la physique sous-jacente. NI coopère avec des programmes de recherche universitaire dans le monde entier pour améliorer la compréhension et la mesure de ces concepts.