Задачами математического программирования называются задачи

График а задан по формуле z = f(x, y) = −(x2 + y2) + 4. Глобальный максимум at (x, y, z) = (0, 0, 4) обозначен синей точкой.

Nelder-Mead минимальный поиск функцииСимионеску . Симплексные вершины упорядочены по их значениям. Причем 1 имеет самое низкое ( или лучшее) значение.

Математическая оптимизация (альтернативно написанная оптимизация) или математическое программирование-это выбор наилучшего элемента по какому-либо критерию из некоторого набора доступных альтернатив.[1] Задачи оптимизации различного рода возникают во всех количественных дисциплинах от информатики и инженерии до исследования операций и экономики, и разработка методов решения представляет интерес для

математики на протяжении веков.[2]

В простейшем случае задача оптимизации состоит в максимизации или минимизации реальной функции путем систематического выбора входных значений из допустимого набора и вычисления значения функции. Обобщение теории и методов оптимизации на другие формулировки составляет большую область прикладной математики. В более общем плане оптимизация включает в себя поиск области (или входных данных). Включая множество различных типов целевых функций и различных типов областей.

Оптимизационные задачи

Задача оптимизации может быть представлена следующим образом:

Дано: функция f : A → ℝ от некоторого множества A к вещественным числам
Искомый элемент x0A такой. Что f(x0) ≤ f(x) для всех xA («минимизация») или такой. Что f(x0) ≥ f(x) для всех xA («максимизация»).

Такая формулировка называется задачей оптимизации или задачей математического программирования (термин . Не имеющий прямого отношения к компьютерному программированию, но все еще используемый, например, в линейном программировании – см. Многие реальные и теоретические проблемы могут быть смоделированы в этой общей структуре.

Так как действует следующее

f(x0)f(x)f~(x0)f~(x){\displaystyle f\left(\mathbf {x} _{0}\right)\geq f\left(\mathbf {x} \right)\Leftrightarrow {\tilde {f}}\left(\mathbf {x} _{0}\right)\leq {\tilde {f}}\left(\mathbf {x} \right)}

с

f~(x):=f(x),f~:AR{\displaystyle {\tilde {f}}\left(\mathbf {x} \right):=-f\left(\mathbf {x} \right),\,{\tilde {f}}\,:\,A\rightarrow \mathbb {R} }

более удобно решать задачи минимизации. Тем не менее. Противоположная точка зрения тоже была бы верной.

Задачи , сформулированные с использованием этого метода в области физики, могут относиться к методу минимизации энергии, говоря о значении функции f как представляющей энергию моделируемой системы . В машинном обучениивсегда необходимо непрерывно оценивать качество модели данных с помощью функции затрат , где минимум подразумевает набор возможно оптимальных параметров с оптимальной (наименьшей) ошибкой.

Как правило, A-это некоторое подмножество евклидова пространства n, часто заданное набором ограничений, равенств или неравенств. Которым должны удовлетворять члены A. Область A из f называется пространством поиска или набором выбора, в то время как элементы A называются решениями-кандидатами или возможными решениями.

Функция f называется по-разному целевой функцией, функцией потерь или функцией затрат (минимизация),функцией полезности или функцией пригодности (максимизация) или. В некоторых областях, энергетической функцией или энергетическим функционалом. Допустимое решение. Которое минимизирует (или максимизирует. Если это цель) целевую функцию. Называется оптимальным решением.

В математике обычные задачи оптимизации обычно формулируются в терминах минимизации.

Локальный минимум x* определяется как элемент. Для которого существует некоторое δ такое, что

xAwherexxδ,{\displaystyle \forall \mathbf {x} \in A\;{\text{where}}\;\left\Vert \mathbf {x} -\mathbf {x} ^{\ast }\right\Vert \leq \delta ,\,}

выражение f(x*) ≤ f(x) имеет вид;

то есть в некоторой области вокруг x* все значения функции больше или равны значению в этом элементе. Локальные максимумы определяются аналогично.

В то время как локальный минимум. По крайней мере. Так же хорош. Как и любые соседние элементы, глобальный минимум, по крайней мере. Так же хорош. Как каждый возможный элемент. Как правило. Если целевая функция не является выпуклой в задаче минимизации. Может существовать несколько локальных минимумов. В выпуклой задаче, если существует локальный минимум. Который является внутренним (не на краю множества допустимых элементов). Он также является глобальным минимумом. Но невыпуклая задача может иметь более одного локального минимума. Не все из которых должны быть глобальными минимумами.

Большое количество алгоритмов. Предложенных для решения невыпуклых задач. Включая большинство коммерчески доступных решателей. Не способны провести различие между локально оптимальными решениями и глобально оптимальными решениями и будут рассматривать первые как фактические решения исходной задачи. Глобальная оптимизация-это раздел прикладной математики и численного анализа, занимающийся разработкой детерминированных алгоритмов. Способных гарантировать сходимость за конечное время к фактическому оптимальному решению невыпуклой задачи.

Задачи оптимизации часто выражаются специальными обозначениями. Вот несколько примеров:

Минимальное и максимальное значение функции

Рассмотрим следующую нотацию:

minxR(x2+1){\displaystyle \min _{x\in \mathbb {R} }\;\left(x^{2}+1\right)}

Это означает минимальное значение целевой функции x2 + 1при выборе x из множества действительных чисел . Минимальное значение в этом случае равно 1, возникающее при x = 0.

Аналогично, нотация

maxxR2x{\displaystyle \max _{x\in \mathbb {R} }\;2x}

запрашивает максимальное значение целевой функции 2x, где x может быть любым вещественным числом. В этом случае такого максимума нет. Так как целевая функция неограничена. Поэтому ответ — бесконечность

Оптимальные входные аргументы

Основная статья: Arg max

Рассмотрим следующую нотацию:

argminx(,1]x2+1,{\displaystyle {\underset {x\in (-\infty ,-1]}{\operatorname {arg\,min} }}\;x^{2}+1,}

или эквивалентно

argminxx2+1,subject to:x(,1].{\displaystyle {\underset {x}{\operatorname {arg\,min} }}\;x^{2}+1,\;{\text{subject to:}}\;x\in (-\infty ,-1].}

Это представляет собой значение (или значения) аргумента x в интервале (−∞,-1], которое минимизирует (или минимизирует) целевую функцию x2 + 1 (фактическое минимальное значение этой функции-это не то. Что требует задача). В этом случае ответ x = -1, так как x = 0 неосуществимо. То есть не принадлежит к допустимому множеству.

Аналогично,

argmaxx[5,5],yRxcosy,{\displaystyle {\underset {x\in [-5,5],\;y\in \mathbb {R} }{\operatorname {arg\,max} }}\;x\cos y,}

или эквивалентно

argmaxx,yxcosy,subject to:x[5,5],yR,{\displaystyle {\underset {x,\;y}{\operatorname {arg\,max} }}\;x\cos y,\;{\text{subject to:}}\;x\in [-5,5],\;y\in \mathbb {R} ,}

представляет собой пару {x, y} (или пары). Которая максимизирует (или максимизирует) значение целевой функции x cos y, с добавленным ограничением. Что x лежат в интервале [-5,5] (опять же. Фактическое максимальное значение выражения не имеет значения). В этом случае решения представляют собой пары вида {5, 2kπ} и {-5, (2k + 1)π}, где k диапазонов по всем целымчислам .

Операторы arg min и arg max иногда также записываются как argmin и argmaxи означают аргумент минимума и аргумент максимума.

Ферма и Лагранж нашли формулы на основе исчисления для идентификации оптимумов. В то время как Ньютон и Гаусс предложили итерационные методы движения к оптимуму.

Термин линейное программированиеДжорджем Б. Данцигом, хотя большая часть теории была введена Леонидом Канторовичем в 1939 году. (Программирование в этом контексте не относится к компьютерному программированию, а происходит от использования программы военными США для ссылки на предлагаемые учебные и логистические графики. Которые были проблемами. Изученными Данцигом в то время.) Данциг опубликовал симплексный алгоритм в 1947 году, а Джон фон Нейман в том же году разработал теорию двойственности.[требуется цитирование]

Другие известные исследователи в области математической оптимизации включают в себя следующие:

Основные подполя

  • Выпуклое программирование изучает случай. Когда целевая функция выпукла (минимизация) или вогнута (максимизация). А набор ограничений выпукл. Это можно рассматривать как частный случай нелинейного программирования или как обобщение линейного или выпуклого квадратичного программирования.

  • Целочисленное программирование изучает линейные программы. В которых некоторые или все переменные ограничены целыми значениями. Это не выпуклость. А вообще гораздо сложнее. Чем регулярное линейное программирование.
  • Квадратичное программирование позволяет целевой функции иметь квадратичные члены. В то время как допустимое множество должно быть задано линейными равенствами и неравенствами. Для конкретных форм квадратичного члена это тип выпуклого программирования.
  • Дробное программирование изучает оптимизацию соотношений двух нелинейных функций. Специальный класс вогнутых дробных программ может быть преобразован в выпуклую задачу оптимизации.
  • Нелинейное программирование изучает общий случай. В котором целевая функция или ограничения или оба содержат нелинейные части. Это может быть или не быть выпуклой программой. В общем, выпуклость программы влияет на сложность ее решения.
  • Стохастическое программирование изучает случай. Когда некоторые ограничения или параметры зависят от случайных величин.
  • Робастная оптимизация-это. Как и стохастическое программирование. Попытка уловить неопределенность в данных. Лежащих в основе задачи оптимизации. Робастная оптимизация направлена на поиск решений. Справедливых при всех возможных реализациях неопределенностей. Определяемых набором неопределенностей.
  • Комбинаторная оптимизация связана с задачами. В которых множество допустимых решений дискретно или может быть сведено к дискретному.
  • Стохастическая оптимизация используется при случайных (зашумленных) измерениях функций или случайных входных данных в процессе поиска.
  • Бесконечномерная оптимизация изучает случай. Когда множество допустимых решений является подмножествомбесконечномерного пространства. Такого как пространство функций.
  • Эвристики и метаэвристики делают мало или вообще не делают никаких предположений относительно оптимизируемой задачи. Обычно эвристика не гарантирует. Что необходимо найти какое-либо оптимальное решение. С другой стороны. Эвристика используется для нахождения приближенных решений многих сложных оптимизационных задач.
  • Удовлетворенность ограничениями изучает случай. Когда целевая функция f постоянна (это используется в искусственном интеллекте, особенно в автоматизированном мышлении).
  • Дизъюнктивное программирование используется там, где должно быть выполнено хотя бы одно ограничение, но не все. Это особенно полезно при планировании.
  • Космическое картографирование-это концепция моделирования и оптимизации инженерной системы до высокой точности (тонкой) модели с использованием подходящей физически значимой грубой или суррогатной модели.

В ряде подполей методы предназначены в первую очередь для оптимизации в динамических контекстах (то есть принятия решений во времени):

Многокритериальная оптимизация

Добавление более одной цели в задачу оптимизации добавляет сложности. Например, чтобы оптимизировать структурный дизайн. Нужно иметь легкий и жесткий дизайн. Когда две цели противоречат друг другу. Должен быть создан компромисс. Может быть одна самая легкая конструкция. Одна самая жесткая конструкция и бесконечное количество конструкций. Которые являются некоторым компромиссом веса и жесткости. Набор компромиссных конструкций. Улучшающих один критерий за счет другого. Известен как набор Парето. Кривая, построенная для сравнения веса с жесткостью лучших конструкций. Известна как граница Парето.

Дизайн считается

Выбор среди Другими словами. Определение задачи как многоцелевой оптимизации сигнализирует о том. Что некоторая информация отсутствует: желательные цели заданы. Но их комбинации не оцениваются относительно друг друга. В некоторых случаях недостающая информация может быть получена в ходе интерактивных сеансов с лицом. Принимающим решения.

Задачи многоцелевой оптимизации были обобщены далее на задачи векторной оптимизации. Где (частичное) упорядочение больше не задается упорядочением Парето.

Мультимодальная или глобальная оптимизация

Задачи оптимизации часто бывают мультимодальными. То есть обладают множеством хороших решений. Все они могут быть глобально хорошими (одно и то же значение функции затрат) или могут быть сочетанием глобально хороших и локально хороших решений. Получение всех (или хотя бы некоторых) множественных решений является целью мультимодального оптимизатора.

Классические методы оптимизации из-за их итеративного подхода не работают удовлетворительно. Когда они используются для получения нескольких решений. Поскольку не гарантируется. Что различные решения будут получены даже с различными начальными точками в нескольких запусках алгоритма.

Общие подходы к задачам глобальной оптимизации. В которых могут присутствовать несколько локальных экстремумов. Включают эволюционные алгоритмы, байесовскую оптимизацию и имитационный отжиг.

Классификация критических точек и экстремумов

Проблема осуществимости

Проблема выполнимости, также называемая проблемой осуществимости, — это просто проблема нахождения любого возможного решения вообще без учета объективной ценности. Это можно рассматривать как частный случай математической оптимизации. Когда объективное значение одинаково для каждого решения. Идовательно. Любое решение является оптимальным.

Многие алгоритмы оптимизации должны начинаться с выполнимой точки. Один из способов получить такую точку-ослабить условия осуществимости с помощью переменной slack; при достаточной слабине любая начальная точка выполнима. Затем сверните эту переменную slack. Пока slack не станет нулевым или отрицательным.

Существование

Теорема крайнего значения Карла Вейерштрасса утверждает. Что непрерывная вещественная функция на компактном множестве достигает своего максимального и минимального значения. В более общем смысле нижняя полунепрерывная функция на компактном множестве достигает своего минимума; верхняя полунепрерывная функция на компактном множестве достигает своей максимальной точки или вида.

Необходимые условия оптимальности

Одна из теорем Ферма утверждает . Что оптимы неограниченных задач находятся в стационарных точках, где первая производная или градиент целевой функции равен нулю (см. Тест первой производной). В более общем случае они могут быть найдены в критических точках, где первая производная или градиент целевой функции равен нулю или не определен . Или на границе множества выбора. Уравнение (или набор уравнений), утверждающее, что первая производная(ы) равна(ы) нулю во внутреннем оптимуме, называется

Оптимы задач с ограничением равенства можно найти методом множителя Лагранжа. Оптимы задач с ограничениями равенства и/или неравенства можно найти с помощью условий Каруша–Куна–Такера

Достаточные условия оптимальности

В то время как тест первой производной определяет точки, которые могут быть экстремумами, этот тест не отличает точку, которая является минимумом, от точки, которая является максимумом, или от точки, которая не является ни тем, ни другим. Когда целевая функция дважды дифференцируема. Эти случаи можно отличить. Проверив вторую производную или матрицу вторых производных (называемую матрицей Гессиана) в неограниченных задачах. Или матрицу вторых производных целевой функции и ограничений. Называемых граничным гессианом в ограниченных задачах. Условия, отличающие максимумы или минимумы от других стационарных точек. Называются Если решение-кандидат удовлетворяет условиям первого порядка. То для установления хотя бы локальной оптимальности достаточно удовлетворения и условий второго порядка.

Чувствительность и непрерывность оптимы

Теорема об огибающей описывает. Как изменяется значение оптимального решения при изменении базового параметра. Процесс вычисления этого изменения называется сравнительной статикой.

Теорема максимума Клода Бержа (1963) описывает непрерывность оптимального решения как функцию лежащих в его основе параметров.

Исчисление оптимизации

Для неограниченных задач с дважды дифференцируемыми функциями некоторые критические точки можно найти. Найдя точки. В которых градиент целевой функции равен нулю (то есть стационарные точки). В более общем смысле нулевой субградиент подтверждает. Что локальный минимум был найден для задач минимизации с выпуклыми функциями и другими локально липшицевыми функциями.

Далее, критические точки можно классифицировать. Используя определенность матрицы Гессиана: если Гессиан положительно определен в критической точке. То точка является локальным минимумом; если матрица Гессиана отрицательно определена. То точка является локальным максимумом; наконец. Если неопределенна. То точка является своего рода седловой точкой.

Ограниченные задачи часто могут быть преобразованы в неограниченные задачи с помощью множителей Лагранжа. Лагранжева релаксация также может обеспечить приближенные решения сложных ограниченных задач.

Если целевая функция является выпуклой функцией, то любой локальный минимум также будет глобальным минимумом. Существуют эффективные численные методы минимизации выпуклых функций. Такие как методы внутренней точки.

Вычислительные методы оптимизации

Для решения задач исследователи могут использовать алгоритмы, заканчивающиеся конечным числом шагов. Или итерационные методы, сходящиеся к решению (по некоторому заданному классу задач). Или эвристики, которые могут обеспечить приближенные решения некоторых задач (хотя их итерации не обязательно сходятся).

Алгоритмы оптимизации

Итеративные методы

Итерационные методы , используемые для решения задач нелинейного программирования, различаются в зависимости от того. Оценивают ли они гессианы, градиенты или только значения функций. В то время как оценка гессианов (H) и градиентов (G) улучшает скорость сходимости. Для функций. Для которых эти величины существуют и изменяются достаточно плавно. Такие оценки повышают вычислительную сложность (или вычислительные затраты) каждой итерации. В некоторых случаях вычислительная сложность может быть чрезмерно высокой.

Одним из основных критериев для оптимизаторов является просто количество требуемых оценок функций. Поскольку это часто уже является большим вычислительным усилием. Обычно гораздо большим. Чем в самом оптимизаторе. Который в основном должен работать над N переменными. Производные дают подробную информацию для таких оптимизаторов. Но еще сложнее вычислить, например. Аппроксимация градиента требует по крайней мере N+1 оценок функций. Для аппроксимаций 2-х производных (собранных в матрице Гессиана) число оценок функций находится в порядке N2. Метод Ньютона требует производных 2-го порядка, поэтому для каждой итерации число вызовов функций находится в порядке N2, но для более простого чистого градиентного оптимизатора это только N. Однако оптимизаторам градиентов обычно требуется больше итераций. Чем алгоритму Ньютона. Какой из них лучше всего подходит по количеству вызовов функций. Зависит от самой проблемы.

  • Методы, которые оценивают гессианы (или приближенные гессианы. Используя конечные разности):
  • Методы, которые оценивают градиенты или каким-то образом приближают градиенты (или даже субградиенты):
    • Методы координатного спуска: Алгоритмы, которые обновляют одну координату на каждой итерации
    • Сопряженные градиентные методы: Итерационные методы для больших задач. (Теоретически эти методы заканчиваются конечным числом шагов с квадратичными целевыми функциями. Но это конечное завершение не наблюдается на практике на компьютерах конечной точности.)
    • Градиентный спуск (альтернативно
    • Субградиентные методы: Итерационный метод для больших локально липшицевых функций с использованием обобщенных градиентов. Вслед за Борисом Т. Поляком. Субградиентно–проекционные методы аналогичны методам сопряженного градиента.
    • Метод расслоения спуска: Итерационный метод для задач малого и среднего размера с локально липшицевыми функциями. В частности для задач выпуклой минимизации (аналогично методам сопряженных градиентов).
    • Эллипсоидный метод: Итерационный метод для небольших задач с квазивыпуклыми целевыми функциями. Представляющий большой теоретический интерес. Особенно при установлении полиномиальной временной сложности некоторых комбинаторных оптимизационных задач. Он имеет сходство с квази-ньютоновскими методами.
    • Метод условного градиента (Франк–Вульф) для приближенной минимизации специально структурированных задач с линейными ограничениями, особенно с транспортными сетями. Для общих неограниченных задач этот метод сводится к градиентному методу. Который считается устаревшим (почти для всех задач).
    • Квази-ньютоновские методы: Итерационные методы для задач среднего размера (например, N
    • Метод стохастической аппроксимации одновременного возмущения (SPSA) для стохастической оптимизации; использует случайную (эффективную) градиентную аппроксимацию.
  • Методы, оценивающие только значения функций: Если задача непрерывно дифференцируема. То градиенты могут быть аппроксимированы с помощью конечных разностей. И в этом случае может быть использован градиентный метод.

Глобальная конвергенция

В более общем случае. Если целевая функция не является квадратичной функцией. То многие методы оптимизации используют другие методы для обеспечения того. Чтобы некоторая подпоследовательность итераций сходилась к оптимальному решению. Первый и до сих пор популярный метод обеспечения сходимости основан на линейном поиске, который оптимизирует функцию по одному измерению. Второй и все более популярный метод обеспечения конвергенции использует доверительные регионы. В современных методах недифференцируемой оптимизации используются как линейные поиски. Так и доверительные области Обычно глобальный оптимизатор работает намного медленнее. Чем продвинутые локальные оптимизаторы (такие как BFGS), поэтому часто эффективный глобальный оптимизатор можно построить. Запустив локальный оптимизатор из разных исходных точек.

Эвристика

Помимо (конечно завершающихся) алгоритмов и (сходящихся) итерационных методов, существуют эвристические. Эвристика-это любой алгоритм. Который не гарантирует (математически) нахождения решения. Но который. Тем не менее. Полезен в определенных практических ситуациях. Список некоторых хорошо известных эвристик:

Механика

Проблемы в динамике твердого тела (в частности. Сформулированы динамика твердого тела) часто требуют математического программирования методы. Так как вы можете просматривать динамика твердого тела. Как попытка решить обыкновенное дифференциальное уравнение на ограничение коллектор;[6] ограничения применяются различные нелинейные геометрические ограничения. Такие как Кроме того. Задача вычисления контактных сил может быть решена путем решения задачи линейной комплементарности, которую также можно рассматривать как задачу QP (квадратичного программирования).

Многие задачи проектирования также могут быть выражены в виде программ оптимизации. Это приложение называется оптимизацией дизайна. Одним из подмножеств является инженерная оптимизация, а другим недавним и растущим подмножеством этой области является мультидисциплинарная оптимизация проектирования, которая. Будучи полезной во многих задачах. В частности. Была применена к задачам аэрокосмической техники.

Этот подход может быть применен в космологии и астрофизике.[7]

Экономика и финансы

Экономика достаточно тесно связана с оптимизацией агентов, что влиятельное определение относит экономику к науке как дефицитными средствамиСовременная теория оптимизации включает в себя традиционную теорию оптимизации. Но также пересекается с теорией игр и изучением экономических равновесий. Коды журнала экономической литературы классифицируют математическое программирование. Методы оптимизации и связанные с ними темы по JEL:C61-C63.

В микроэкономике задача максимизации полезности и ее двойственная задачазадача минимизации расходов— являются задачами экономической оптимизации. Поскольку они ведут себя последовательно. Предполагается . Что потребители максимизируют свою полезность, в то время как фирмы обычно предполагают максимизацию своей прибыли. Кроме того, агенты часто моделируются как не склонные к риску, тем самым предпочитая избегать риска. Цены активов также моделируются с использованием теории оптимизации. Хотя лежащая в основе математика опирается на оптимизацию стохастических процессов, а не на статическую оптимизацию. Теория международной торговли также использует оптимизацию для объяснения моделей торговли между странами. Оптимизация портфелей является примером многоцелевой оптимизации в экономике.

Начиная с 1970-х годов экономисты моделировали динамические решения во времени. Используя теорию управления.[9] Например, динамические поисковые модели используются для изучения поведения рынка труда.[10] Решающее различие между детерминированными и стохастическими моделями.Макроэкономисты строят динамические стохастические модели общего равновесия (DSGE), которые описывают динамику всей экономики как результат взаимозависимых оптимизационных решений работников. Потребителей. Инвесторов и правительств.[12][13]

Электротехника

Некоторые распространенные области применения методов оптимизации в электротехнике включают проектирование активных фильтров,[14] уменьшение рассеянного поля в сверхпроводящих магнитных системах хранения энергии. Проектирование космических карт микроволновых структур,[15] телефонные антенны.,[16][17][18] конструкция на основе электромагнетизма. Электромагнитно обоснованная оптимизация конструкции СВЧ-компонентов и антенн широко использовала соответствующую физическую или эмпирическую суррогатную модель и методы космического картографирования с момента открытия космического картографирования в 1993году.]

Гражданское строительство

Оптимизация получила широкое применение в гражданском строительстве. Управление строительством и транспортное машиностроение относятся к числу основных отраслей гражданского строительства. Которые в значительной степени зависят от оптимизации. Наиболее распространенными проблемами гражданского строительства. Которые решаются оптимизацией. Являются сокращение и заполнение дорог. Анализ жизненного цикла сооружений и инфраструктур,выравнивание ресурсов,распределение водных ресурсов, управление дорожнымдвижением и оптимизация графика.

Исследование операций

Другая область. Которая широко использует методы оптимизации,-это операционные исследования.[25] Операционные исследования также используют стохастическое моделирование и имитационное моделирование для поддержки улучшенного принятия решений. Все чаще операционные исследования используют стохастическое программирование для моделирования динамических решений. Адаптирующихся к событиям; такие задачи могут быть решены с помощью крупномасштабной оптимизации и методов стохастической оптимизации.

Инженерия управления

Математическая оптимизация используется во многих современных конструкциях контроллеров. Высокоуровневые контроллеры. Такие как model predictive control (MPC) или real-time optimization (RTO). Используют математическую оптимизацию. Эти алгоритмы работают в режиме онлайн и многократно определяют значения решающих переменных. Таких как дроссельные отверстия в технологической установке. Итеративно решая математическую оптимизационную задачу. Включающую ограничения и модель управляемой системы.

Геофизика

Методы оптимизации регулярно используются в задачах оценки геофизических параметров. Учитывая набор геофизических измерений. Например сейсмических записей, обычно решают физические свойства и геометрические формы подстилающих пород и флюидов. Большинство задач геофизики являются нелинейными. Причем широко используются как детерминированные. Так и стохастические методы.

Молекулярное моделирование

Методы нелинейной оптимизации широко используются в конформационном анализе.

Вычислительные системы биологии

Методы оптимизации используются во многих аспектах биологии вычислительных систем. Таких как построение моделей. Оптимальное экспериментальное проектирование. Метаболическая инженерия и синтетическая биология.[26]Линейное программирование было применено для расчета максимально возможных выходов продуктов ферментации[26] и для вывода регуляторных сетей генов из множества наборов данных микрочипов[27], а также транскрипционных регуляторных сетей из высокопроизводительных данных[28]. Нелинейное программирование было использовано для анализа энергетического метаболизма[29] и был применен для метаболической инженерии и оценки параметров биохимических путей.[30]

Машинное обучение

  1. ^
  2. ^ Du, D. Z.; Pardalos, P. M.; Wu, W. (2008). В Floudas, C.; Pardalos, P. (ред.). Энциклопедия оптимизации. Boston: Springer. pp. 1538-1542.
  3. ^ W. Эрвин Дайверт (2008). , The New Palgrave Dictionary of Economics, 2nd Edition Contents.
  4. ^ Зервудакис. Константинос; Цафаракис, Стелиос (2020). Компьютеры и Промышленное машиностроение. ahead-of-print (впереди печати): head-of-print. doi:10.1016/j.cie.2020.106559.
  5. ^ Battiti, Roberto; Mauro Brunato; Franco Mascia (2008). Реактивный поиск и Интеллектуальная оптимизация. Springer Verlag. ISBN 978-0-387-09623-0. Архивирован с оригинала 2012-03-16.
  6. ^ Верещагин А. Ф. (1989). Советский журнал компьютерных и системных наук. 27 (5): 29–38.
  7. ^ Хаггаг, С.; Десоки, Ф.; Рамадан, М. (2017). Гравитация и космология. 23 (3): 236-239. Bibcode:2017GrCo…23..236H. doi:10.1134/S0202289317030069. ISSN 1995-0721. S2CID 125980981.
  8. ^ Лайонел Роббинс (1935, 2-е изд.) Очерк о природе и значении экономической науки, Макмиллан, стр.
  9. ^ Дорфман, Роберт (1969). Американское экономическое обозрение. 59 (5): 817–831. JSTOR 1810679.
  10. ^ Sargent, Thomas J. (1987). . Динамическая Макроэкономическая Теория. Harvard University Press. pp. 57-91. ISBN 9780674043084.
  11. ^ А. Г. Маллиарис (2008). , Новый экономический словарь Палгрейва, 2-е издание. Реферат Заархивирован 2017-10-18 на машине Wayback.
  12. ^ Ротемберг, Хулио; Вудфорд, Майкл (1997). (PDF). NBER Macroeconomics Annual. 12: 297–346. doi:10.2307/3585236. JSTOR 3585236.
  13. ^ Из Нового экономического словаря Палгрейва (2008), 2–е издание с абстрактными ссылками:
    • «численные методы оптимизации в экономике» Карла Шмеддерса
    • «выпуклое программирование» Лоуренса Э. Блюма
    • «Модель общего равновесия Эрроу-Дебре» Джона Геанакоплоса.
  14. ^ Де, Бишну Прасад; Кар, Р.; Мандал, Д.; Гхошал, С. П. (2014-09-27). Международный журнал машинного обучения и кибернетики. 6 (4): 621–636. doi:10.1007/s13042-014-0299-0. ISSN 1868-8071. S2CID 13071135.
  15. ^ Koziel, Slawomir; Bandler, John W. (январь 2008). IEEE Микроволновые и беспроводные компоненты. 18 (1): 1-3. CiteSeerX 10.1.1.147.5407. doi:10.1109/LMWC.2007.911969. S2CID 11086218.
  16. ^ Tu, Sheng; Cheng, Qingsha S.; Zhang, Yifan; Bandler, John W.; Nikolova, Natalia K. (Июль 2013 года). . IEEE Transactions on Antennas and Propagation. 61 (7): 3797-3807. Bibcode:2013ITAP…61.3797 T. doi:10.1109/TAP.2013.2254695.
  17. ^ Н. Friedrich, “Space mapping outpaces EM optimization in handset-antenna design, microwaves&rf. Aug. 30, 2013.
  18. ^ Cervantes-González, Juan C.; Rayas-Sánchez, José E.; López, Carlos A.; Camacho-Pérez, José R.; Brito-Brito, Zabdiel; Chávez-Hurtado. José L. (February 2016). Международный журнал радиочастотной и микроволновой вычислительной техники. 26 (2): 121-128. doi:10.1002/mmce.20945.
  19. ^ Bandler, J. W.; Biernacki, R. M.; Chen, Shao Hua; Grobelny, P. A.; Hemmers, R. H. (1994). IEEE Transactions on Microwave Theory and Techniques. 42 (12): 2536–2544. Bibcode:1994ITMTT..42.2536 B. doi:10.1109/22.339794.
  20. ^ Bandler, J. W.; Biernacki, R. M.; Shao Hua Chen; Hemmers, R. H.; Madsen, K. (1995). IEEE Transactions on Microwave Theory and Techniques. 43 (12): 2874-2882. Bibcode:1995ITMTT..43.2874 B. doi:10.1109/22.475649.
  21. ^ Пирьонези. Сайед Мадех; Таваколан, Мехди (9 января 2017 года). KSCE Journal of Civil Engineering. 21 (6): 2226-2234. doi:10.1007/s12205-017-0531-з. S2CID 113616284.
  22. ^ Хегази, Тарек (июнь 1999). . Журнал строительной инженерии и менеджмента. 125 (3): 167-175. doi:10.1061/(ASCE)0733-9364(1999)125:3(167).
  23. ^ Выравнивание ресурсов в строительных проектах с разделением деятельности и ограничениями ресурсов: имитационная оптимизация отжигаКанадский журнал гражданского строительства. 46: 81-86. doi:10.1139/cjce-2017-0670. hdl:1807/93364.
  24. ^ Герти, М.; Клар, А. (2003-01-01). . SIAM Journal on Scientific Computing. 25 (3): 1066-1087. doi:10.1137/S106482750241459X. ISSN 1064-8275.
  25. ^ . Архивирован с оригинала 18 декабря 2014года . Проверено 14 сентября 2013года .
  26. ^ b Папуцакис. Элефтериос Терри (февраль 1984). Биотехнология и биоинженерия. 26 (2): 174–187. doi:10.1002/bit.260260210. ISSN 0006-3592. PMID 18551704. S2CID 25023799.
  27. ^ Ван, Юн; Джоши, Трупти; Чжан, Сян-Сун; Сюй, Донг; Чэнь, Луонань (2006-07-24). . Биоинформатика. 22 (19): 2413-2420. doi:10.1093/биоинформатика/btl396. ISSN 1460-2059. PMID 16864593.
  28. ^ Ван, Жуй-Шэн; Ван, Юн; Чжан, Сян-Сун; Чэнь, Луонань (2007-09-22). . Биоинформатика. 23 (22): 3056-3064. doi:10.1093/биоинформатика/btm465. ISSN 1460-2059. PMID 17890736.
  29. ^ Vo, Thuy D.; Paul Lee, W. N.; Palsson, Bernhard O. (май 2007). Молекулярная генетика и метаболизм. 91 (1): 15-22. doi:10.1016/j.ymgme.2007.01.012. ISSN 1096-7192. PMID 17336115.
  30. ^ Мендес, П.; Келл, Д. (1998). . Биоинформатика. 14 (10): 869–883. doi:10.1093/биоинформатика/14.10.869. ISSN 1367-4803. PMID 9927716.

Дальнейшее чтение

Внешние ссылки