Gradient conjugué
- Mise à jour2025-07-30
- Temps de lecture : 5 minute(s)
Résout le problème de minimisation sans contrainte pour une fonction non linéaire arbitraire. Vous devez sélectionner manuellement l'instance polymorphe à utiliser.

Entrées/Sorties
données de fonction
—
données de fonction contient les données statiques dont la fonction définie par l'utilisateur a besoin à l'exécution.
fonction objectif
—
fonction objectif est une référence au VI qui implémente la fonction à optimiser. Créez ce VI à partir du VI modèle qui se trouve sous labview\vi.lib\gmath\NumericalOptimizationno_objective function template.vit.
début
—
début est un point en dimension n auquel commence le processus d'optimisation.
paramètres de gradient conjugué
—
paramètres de gradient conjugué
critère d'arrêt
—
critère d'arrêt représente l'ensemble des conditions qui déclenchent l'arrêt de l'optimisation. Si les conditions (tolérance de la fonction ET tolérance du paramètre ET tolérance du gradient) OU max. d'itérations OU max. d'appels de fonction sont remplies, l'optimisation s'arrête.
entrée d'erreur (pas d'erreur)
—
entrée d'erreur décrit les conditions d'erreur qui ont lieu avant l'exécution de ce nœud. Cette entrée fournit la fonctionnalité entrée d'erreur standard.
minimum
—
minimum est le minimum local déterminé dans la dimension n.
f(minimum)
—
f(minimum) est la valeur de la fonction f(X) au minimum déterminé.
nb d'évaluations de la fonction
—
nb d'évaluations de la fonction correspond au nombre de fois que la fonction objectif a été appelée au cours du processus d'optimisation.
sortie d'erreur
—
sortie d'erreur contient des informations sur l'erreur. Cette sortie fournit la fonctionnalité sortie d'erreur standard. |
Pour les fonctions régulières dont les dérivées première et seconde sont définies, l'algorithme Quasi-Newton de Broyden est en général le plus rapide à converger. Si vous avez des problèmes de convergence avec l'algorithme Quasi-Newton de Broyden, vous pourrez peut-être les résoudre en employant l'algorithme du gradient conjugué. L'algorithme de descente du simplexe repose sur des évaluations de fonction ; il est souvent capable de trouver une solution lorsque la fonction n'est pas régulière et que les autres algorithmes n'arrivent pas à converger.
Exemples
Reportez-vous aux exemples de fichiers inclus avec LabVIEW suivants.
- labview\examples\Mathematics\Optimization\Optimize Extended Rosenbrock.vi
données de fonction
—
fonction objectif
—
début
—
paramètres de gradient conjugué
—
méthode de gradient
—
tolérance de la fonction
—
max. d'itérations
—
entrée d'erreur (pas d'erreur)
—
minimum
—
f(minimum)
—
nb d'évaluations de la fonction
—
sortie d'erreur
—