Optimisation sans contrainte
- Mise à jour2026-02-04
- Temps de lecture : 2 minute(s)
Requiert: Full or Professional Edition
Résout le problème de minimisation sans contrainte pour une fonction non linéaire arbitraire. Vous devez sélectionner manuellement l'instance polymorphe à utiliser.

Pour les fonctions régulières dont les dérivées première et seconde sont définies, l'algorithme Quasi-Newton de Broyden est en général le plus rapide à converger. Si vous avez des problèmes de convergence avec l'algorithme Quasi-Newton de Broyden, vous pourrez peut-être les résoudre en employant l'algorithme du gradient conjugué. L'algorithme de descente du simplexe repose sur des évaluations de fonction ; il est souvent capable de trouver une solution lorsque la fonction n'est pas régulière et que les autres algorithmes n'arrivent pas à converger.
Exemples
Reportez-vous aux fichiers d'exemple inclus avec LabVIEW.
- labview\examples\Mathematics\Optimization\Optimize Extended Rosenbrock.vi