Résout le problème de minimisation sans contrainte pour une fonction non linéaire arbitraire. Vous devez sélectionner manuellement l'instance polymorphe à utiliser.


icon

Entrées/Sorties

  • c1dstr.png X

    X est un tableau de chaînes représentant les variables x.

  • cstr.png f(X)

    f(X) est la chaîne représentant la fonction des variables x. Les formules peuvent contenir n'importe quel nombre de variables valides.

  • c1ddbl.png début

    début est un point en dimension n auquel commence le processus d'optimisation.

  • cnclst.png critère d'arrêt

    critère d'arrêt représente l'ensemble des conditions qui déclenchent l'arrêt de l'optimisation. Si les conditions (tolérance de la fonction ET tolérance du paramètre ET tolérance du gradient) OU max. d'itérations OU max. d'appels de fonction sont remplies, l'optimisation s'arrête.

  • cdbl.png tolérance de la fonction

    tolérance de la fonction est le changement relatif de la valeur de la fonction ; elle est définie comme étant abs(f actuelle – f précédente)/(abs(f actuelle) + eps machine). Si le changement relatif de la valeur de la fonction tombe en dessous de tolérance de la fonction, l'optimisation s'arrête.

  • cdbl.png tolérance du paramètre

    tolérance du paramètre est le changement relatif de la valeur du paramètre ; elle est définie comme étant abs(p actuel – p précédent)/(abs(p actuel) + eps machine). Si le changement relatif de toutes les valeurs du paramètre tombe en dessous de tolérance du paramètre, l'optimisation s'arrête.

  • ci32.png max. d'itérations

    max. d'itérations est le nombre maximum d'itérations de la boucle principale de l'optimisation. Si le nombre d'itérations de la boucle principale dépasse max. d'itérations, l'optimisation s'arrête.

  • ci32.png max. d'appels de fonction

    max. d'appels de fonction est le plus grand nombre d'appels de la fonction objectif possible avant l'arrêt du processus d'optimisation.

  • cdbl.png tolérance du gradient

    tolérance du gradient est la norme–2 du gradient. Si la norme–2 du gradient tombe en dessous de tolérance du gradient, l'optimisation s'arrête.

  • cdbl.png temps max (s)

    temps max (s) est l'intervalle de temps maximal autorisé par LabVIEW entre le début et la fin du processus d'optimisation. La valeur par défaut est –1. –1 indique que la durée est illimitée.

  • cerrcodeclst.png entrée d'erreur (pas d'erreur)

    entrée d'erreur décrit les conditions d'erreur qui ont lieu avant l'exécution de ce nœud. Cette entrée fournit la fonctionnalité entrée d'erreur standard.

  • i1ddbl.png minimum

    minimum est le minimum local déterminé dans la dimension n.

  • idbl.png f(minimum)

    f(minimum) est la valeur de la fonction f(X) au minimum déterminé.

  • ii32.png nb d'évaluations de la fonction

    nb d'évaluations de la fonction correspond au nombre de fois que la fonction objectif a été appelée au cours du processus d'optimisation.

  • ierrcodeclst.png sortie d'erreur

    sortie d'erreur contient des informations sur l'erreur. Cette sortie fournit la fonctionnalité sortie d'erreur standard.

  • Pour les fonctions régulières dont les dérivées première et seconde sont définies, l'algorithme Quasi-Newton de Broyden est en général le plus rapide à converger. Si vous avez des problèmes de convergence avec l'algorithme Quasi-Newton de Broyden, vous pourrez peut-être les résoudre en employant l'algorithme du gradient conjugué. L'algorithme de descente du simplexe repose sur des évaluations de fonction ; il est souvent capable de trouver une solution lorsque la fonction n'est pas régulière et que les autres algorithmes n'arrivent pas à converger.

    Exemples

    Reportez-vous aux exemples de fichiers inclus avec LabVIEW suivants.

    • labview\examples\Mathematics\Optimization\Optimize Extended Rosenbrock.vi