Optimisation sans contrainte
- Mise à jour2025-07-30
- Temps de lecture : 2 minute(s)
Résout le problème de minimisation sans contrainte pour une fonction non linéaire arbitraire. Vous devez sélectionner manuellement l'instance polymorphe à utiliser.

Pour les fonctions régulières dont les dérivées première et seconde sont définies, l'algorithme Quasi-Newton de Broyden est en général le plus rapide à converger. Si vous avez des problèmes de convergence avec l'algorithme Quasi-Newton de Broyden, vous pourrez peut-être les résoudre en employant l'algorithme du gradient conjugué. L'algorithme de descente du simplexe repose sur des évaluations de fonction ; il est souvent capable de trouver une solution lorsque la fonction n'est pas régulière et que les autres algorithmes n'arrivent pas à converger.
Exemples
Reportez-vous aux exemples de fichiers inclus avec LabVIEW suivants.
- labview\examples\Mathematics\Optimization\Optimize Extended Rosenbrock.vi