Цитата(олесь @ Dec 17 2007, 11:34)

Я довольно долго пытался определить какой оптимизатор работает наиболее эффективно,
вот я в основном пользуюсь случайным оптимизатором и реже градиентным и еще Trained optimizer.
Градиентный метод с самого начала оптимизации для большинства задач вряд ли подойдет из-за проблемы неунимодальности целевой функции. Метод случайного поиска слишком медленен, да и не гарантирует попадания в окрестность глобального минимума. Генетический алгоритм - сочетание преимуществ обоих подходов, но проблема отсутствия гарантий сходимости в глобальный минимум за ограниченное время остается.
Оптимизация неунимодальных функций, имеющих множество локальных минимумов - искусство с отсутствием общеупотребительных рецептов. В MWO эту проблему лучше решать интерактивно, путем сочетания различных методов (постепенной смены одного другим), отслеживая эффективность минимизации в данный момент. Например, если метод сопряженных градиентов застряет - продолжать оптимизацию случайным поиском или GA. Если нет времени или необходимости задумываться над этими проблемами, то лучше использовать Pointer Robust, где это делается автоматически.
Я сам в поледнее время стал больше пользоваться Pointer Robust.