Параметрическая идентификация

Материал из Wiki
(Различия между версиями)
Перейти к: навигация, поиск
Строка 27: Строка 27:
 
<math>cov (x_1,x_2)</math> - это ковариация или корреляционный момент, на всякий случай напомним, что  это - размерная величина, т.е. она может принимать разные значения, а <math>r_{x_1,x_2}</math> - это безразмерная величина, она лежит в диапазоне [-1;1].
 
<math>cov (x_1,x_2)</math> - это ковариация или корреляционный момент, на всякий случай напомним, что  это - размерная величина, т.е. она может принимать разные значения, а <math>r_{x_1,x_2}</math> - это безразмерная величина, она лежит в диапазоне [-1;1].
  
Ковариация вычисляется как  <math>cov (x_1,x_2)=M{(X_1-M{X_1})(X_2-M{X_2})}=\frac{\sum_{i=1}^{N}((x_{1,i}-M{X_1})(x_{2,i}-M{X_2})) }{N} = \frac{\sum_{i=1}^{N} x_{1,i} x_{2,i} }</math>  
+
Ковариация вычисляется как  <math>cov (x_1,x_2)=M{(X_1-M{X_1})(X_2-M{X_2})}=\frac{\sum_{i=1}^{N}((x_{1,i}-M{X_1})(x_{2,i}-M{X_2})) }{N} = \frac{\sum_{i=1}^{N} x_{1,i} x_{2,i} }{}</math>  
  
 
<math>M{X_1}</math> - это математическое ожидание <math>X_1</math>, т.е.  <math>M{X_1}= \frac{ \sum_{i=1}^{N} {x_1,i}}{N}</math>
 
<math>M{X_1}</math> - это математическое ожидание <math>X_1</math>, т.е.  <math>M{X_1}= \frac{ \sum_{i=1}^{N} {x_1,i}}{N}</math>

Версия 14:44, 8 января 2024

Параметрическая идентификация - это определение параметров математической модели, если структура модели известна. В рамках данного материала мы будем использовать символ x как обозначение ИЗВЕСТНОЙ входной величины, т.е. x не надо искать, в наших рассуждениях он известен, дан заранее, а символ y как обозначение ИЗВЕСТНОЙ выходной величины, т.е. y не надо вычислять, в наших рассуждениях он известен, дан заранее, измерен и т.д.

Вид модели может быть разным - линейное дифференциальное уравнение, система дифференциальных уравнений в частных производных, нелинейное алгебраическое уравнение и т.д. и т.п., но в нашем примере мы рассмотрим решение задачи параметрической идентификации (аддитивных) линейных моделей. Собственно если модель линейная, то она аддитивная. Аддитивная модель - это модель, в которой выходное значение зависит от суммы каких-то функций от входных переменных, например

y(x_1, x_2)=\sin (x_1) + (x_2)^2 - модель аддитивная, но не линейная.

Впрочем, есть ряд приёмов, как привести нелинейную модель к линейному виду, там есть много методов, со своими достоинствами и недостатками.

Мы предполагаем, что модель у нас линейная, в частности, имеет вид:

y(x_1, x_2)=b_0 + b_1 x_1 + b_2 x_2 - это частый случай, особенно когда диапазон изменения x_1 и x_2 невелик.

В некоторых случаях заранее известно что b_0=0, т.е. y(x_1, x_2)=y(0, 0)=0, т.е. это точка имеет намного больший вес и точность чем остальные, например - если подача напряжения на резистор прекращена, то он не выделяет тепло от прохождения тока.

У нас есть ряд опытов, который делится на независимые опыты (входные переменные не совпадают) - по ним можно определить параметры модели b_0, b_1, b_2 и несколько параллельных опытов (входные переменные полностью совпадают) по ним можно определить адекватность модели эксперименту. На практике может быть несколько серий параллельных опытов, или может быть что каждый опыт повторяется несколько раз с одними и теми же входными значениями, эти случаи тоже хорошо рассмотрены в литературе.

Независимые опыты пронумерованы 1, 2, 3, ..., 49.

Параллельные опыты пронумерованы как 50.1, 50.2, ..., 50.6.


ВАЖНОЕ НАПОМИНАНИЕ: каждая серия параллельных опытов рассматривается как один независимый (в принципе, если каждый опыт выполняется в одном и том же количестве повторностей, то это не важно, но в нашем случае, когда один опыт повторяется 6 раз, а остальные - по одному - это существенно), т.е. если все 49+6=55 опытов рассматривать как независимые, то во-первых модель будет более точно соответствовать имеющимся данным в окрестностях точки где были проведены параллельные опыты, а во-вторых - адекватность модели будет завышена, т.к. разброс параллельных опытов будет частью общего разброса. Поэтому, ДЛЯ РАСЧЁТА параметров модели мы заменяем опыты 50.1, ..., 50.6 на один опыт 50, где y будет равен среднему значению в опытах 50.1, 50.2, ..., 50.6. Итого: у нас всего 50 НЕЗАВИСИМЫХ опытов. На самом деле, хорошо было бы убедится, что x_1 и x_2 - линейно независимые (собственно, в том числе и для того чтобы они были линейно независимыми и составляются план - не являются ли x_1 и x_2 линейно зависимыми - нужно вычислить коэффициент корреляции между ними (коэффициент взаимной корреляции) и (по-хорошему) определить его значимость.

r_{x_1,x_2}=\frac {cov (x_1,x_2)}{xx}

cov (x_1,x_2) - это ковариация или корреляционный момент, на всякий случай напомним, что это - размерная величина, т.е. она может принимать разные значения, а r_{x_1,x_2} - это безразмерная величина, она лежит в диапазоне [-1;1].

Ковариация вычисляется как cov (x_1,x_2)=M{(X_1-M{X_1})(X_2-M{X_2})}=\frac{\sum_{i=1}^{N}((x_{1,i}-M{X_1})(x_{2,i}-M{X_2})) }{N} = \frac{\sum_{i=1}^{N} x_{1,i} x_{2,i} }{}

M{X_1} - это математическое ожидание X_1, т.е. M{X_1}= \frac{ \sum_{i=1}^{N} {x_1,i}}{N} N в нашем случае равно 50.


Если вдруг окажется, что x_1 и x_2 линейно зависимы - то нужно или учесть это в формулах (они станут сложнее) или выкинуть часть исходных опытов (попробовать удалить один опыт, посмотреть что станет с коэффициентом корреляции и добиться того что они или станет незначимым, либо придём к выводу что x_1 и x_2 линейно зависимы и нужно дальше это просто учитывать.

С практической точки зрения, в этом задании - просто посчитать коэффициент взаимной корреляции между x_1 и x_2 и сделать вывод что он мал (он по идее меньше 0,1).

Персональные инструменты
Пространства имён

Варианты
Действия
Навигация
Инструменты