Планирование эксперимента

Материал из Wiki
Перейти к: навигация, поиск

Параметрическая идентификация


201-541 201-542


Введение

Постановка оптимизационной задачи. Виды оптимизационных задач. Аналитические и численные методы решения оптимизационных задач.

Численные методы одномерного поиска: метод сканирования, метод дихотомии, одномерного градиента, квадратичной интерполяции. всё ДО условной оптимизации



'1. Понятие случайной величине, дискретные и непрерывные случайные величины. Законы распределения случайных величин. Интегральная и дифференциальная форма закона распределения случайной величины. Основные статистические характеристики - мода, медиана, математическое ожидание, дисперсия.
2. Законы распределения случайных величин. Нормальный закон распределения, "Хи-квадрат", Вейбулла, Стьюдента и Фишера. Примеры их использования.
3. Понятие о статистических гипотезах и методах их проверки. Основная и конкурирующая гипотезы, ошибка первого рода, ошибка второго рода. Р-значение. Примеры статистических гипотез.
4. Оценки случайных величин, требования к оценкам случайных величин. Примеры выборочных оценок.
5. Значимость статистических оценок (параметров моделей). Проверка значимости.
6. Определение доверительных интервалов по экспериментальным данным (при помощи распределения Стьюдента).
7. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.
8. Коэффициент корреляции, частный коэффициент корреляции. Определение его значимости. Использование коэффициентов корреляции.
9. Критерий Фишера, его использование.
10. Проверка гипотезы о виде закона распределения случайной величины.
11. Регрессионный анализ, основные допущения. Проверка значимости параметров и адекватности уравнения.
12. Таблица дисперсионного анализа. Определение наличия регрессионной зависимости с использованием F - отношения. Множественный коэффициент корреляции.
13. Дисперсия воспроизводимости, дисперсия аппроксимации, полная дисперсия, объяснённая дисперсия, остаточная дисперсия. Понятия, использование.
14. Методы последовательного уточнения структуры регрессионного уравнения: метод включений, метод исключений, метод пошаговой регрессии.
15. Переход от криволинейных уравнений регрессии к линейным уравнениям.
'16. Понятие случайной величине, дискретные и непрерывные случайные величины. Законы распределения случайных величин. Интегральная и дифференциальная форма закона распределения случайной величины. Основные статистические характеристики - мода, медиана, математическое ожидание, дисперсия.
17. Законы распределения случайных величин. Нормальный закон распределения, "Хи-квадрат", Вейбулла, Стьюдента и Фишера. Примеры их использования.
18. Понятие о статистических гипотезах и методах их проверки. Основная и конкурирующая гипотезы, ошибка первого рода, ошибка второго рода. Р-значение. Примеры статистических гипотез.
19. Оценки случайных величин, требования к оценкам случайных величин. Примеры выборочных оценок.
20. Значимость статистических оценок (параметров моделей). Проверка значимости.
21. Определение доверительных интервалов по экспериментальным данным (при помощи распределения Стьюдента).
22. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.

1. Структурная идентификация модели. Метод группового учёта аргументов.
2. Параметрическая идентификация модели МНК
3. Определение параметров линейного уравнения регрессии методом наименьших квадратов.
4. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.
5. Определение параметров линейного уравнения регрессии в матричной форме.
6. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.
7. Реплики ПФЭ, их достоинства и недостатки.
8.. Звёздные планы.
9. Метод Бокса-Уилкоса
10. Методы одномерной оптимизации
11. Методы многомерной оптимизации
12. Проверка адекватности математической модели.
13. Построение экспериментальных моделей с помощью нейронных сетей.
14. Особенности планирования эксперимента в биотехнологии
15. Оценка адекватности модели, полученной на основе метода Бокса-Уилкоса

16. Структурная идентификация модели. Метод группового учёта аргументов.
17. Параметрическая идентификация модели МНК
18 Определение параметров линейного уравнения регрессии методом наименьших квадратов.
19. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.
20. Определение параметров линейного уравнения регрессии в матричной форме.
21. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.
22. Реплики ПФЭ, их достоинства и недостатки.

Персональные инструменты
Пространства имён

Варианты
Действия
Навигация
Инструменты