Résout le problème de minimisation sans contrainte pour une fonction non linéaire arbitraire. Vous devez sélectionner manuellement l'instance polymorphe à utiliser.


icon

Entrées/Sorties

  • cfxdt.png données de fonction

    données de fonction contient les données statiques dont la fonction définie par l'utilisateur a besoin à l'exécution.

  • csvrn.png fonction objectif

    fonction objectif est une référence au VI qui implémente la fonction à optimiser.

    Créez ce VI à partir du VI modèle qui se trouve sous labview\vi.lib\gmath\NumericalOptimizationno_objective function template.vit.

  • c1ddbl.png début

    début est un point en dimension n auquel commence le processus d'optimisation.

  • cnclst.png paramètres de gradient conjugué

    paramètres de gradient conjugué

  • cenum.png méthode de gradient

    méthode de gradient spécifie l'algorithme utilisé pour calculer les dérivées. Une valeur de 0 représente la méthode de Fletcher-Reeves. Une valeur de 1 représente la méthode de Polak Ribiere. La valeur par défaut est 0.

  • cenum.png minimisation de courbe

    minimisation de courbe Une valeur de 0 représente un algorithme sans utilisation des dérivées. Une valeur de 1 représente un algorithme comprenant l'utilisation des dérivées. La valeur par défaut est 0.

  • cnclst.png critère d'arrêt

    critère d'arrêt représente l'ensemble des conditions qui déclenchent l'arrêt de l'optimisation. Si les conditions (tolérance de la fonction ET tolérance du paramètre ET tolérance du gradient) OU max. d'itérations OU max. d'appels de fonction sont remplies, l'optimisation s'arrête.

  • cdbl.png tolérance de la fonction

    tolérance de la fonction est le changement relatif de la valeur de la fonction ; elle est définie comme étant abs(f actuelle – f précédente)/(abs(f actuelle) + eps machine). Si le changement relatif de la valeur de la fonction tombe en dessous de tolérance de la fonction, l'optimisation s'arrête.

  • cdbl.png tolérance du paramètre

    tolérance du paramètre est le changement relatif de la valeur du paramètre ; elle est définie comme étant abs(p actuel – p précédent)/(abs(p actuel) + eps machine). Si le changement relatif de toutes les valeurs du paramètre tombe en dessous de tolérance du paramètre, l'optimisation s'arrête.

  • ci32.png max. d'itérations

    max. d'itérations est le nombre maximum d'itérations de la boucle principale de l'optimisation. Si le nombre d'itérations de la boucle principale dépasse max. d'itérations, l'optimisation s'arrête.

  • ci32.png max. d'appels de fonction

    max. d'appels de fonction est le plus grand nombre d'appels de la fonction objectif possible avant l'arrêt du processus d'optimisation.

  • cdbl.png tolérance du gradient

    tolérance du gradient est la norme–2 du gradient. Si la norme–2 du gradient tombe en dessous de tolérance du gradient, l'optimisation s'arrête.

  • cdbl.png temps max (s)

    temps max (s) est l'intervalle de temps maximal autorisé par LabVIEW entre le début et la fin du processus d'optimisation. La valeur par défaut est –1. –1 indique que la durée est illimitée.

  • cerrcodeclst.png entrée d'erreur (pas d'erreur)

    entrée d'erreur décrit les conditions d'erreur qui ont lieu avant l'exécution de ce nœud. Cette entrée fournit la fonctionnalité entrée d'erreur standard.

  • i1ddbl.png minimum

    minimum est le minimum local déterminé dans la dimension n.

  • idbl.png f(minimum)

    f(minimum) est la valeur de la fonction f(X) au minimum déterminé.

  • ii32.png nb d'évaluations de la fonction

    nb d'évaluations de la fonction correspond au nombre de fois que la fonction objectif a été appelée au cours du processus d'optimisation.

  • ierrcodeclst.png sortie d'erreur

    sortie d'erreur contient des informations sur l'erreur. Cette sortie fournit la fonctionnalité sortie d'erreur standard.

  • Pour les fonctions régulières dont les dérivées première et seconde sont définies, l'algorithme Quasi-Newton de Broyden est en général le plus rapide à converger. Si vous avez des problèmes de convergence avec l'algorithme Quasi-Newton de Broyden, vous pourrez peut-être les résoudre en employant l'algorithme du gradient conjugué. L'algorithme de descente du simplexe repose sur des évaluations de fonction ; il est souvent capable de trouver une solution lorsque la fonction n'est pas régulière et que les autres algorithmes n'arrivent pas à converger.

    Exemples

    Reportez-vous aux exemples de fichiers inclus avec LabVIEW suivants.

    • labview\examples\Mathematics\Optimization\Optimize Extended Rosenbrock.vi