Планирование эксперимента 2022 осень

Материал из Wiki
(Различия между версиями)
Перейти к: навигация, поиск
(Новая страница: «1. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный …»)
 
 
(не показаны 3 промежуточные версии 1 участника)
Строка 1: Строка 1:
1. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.<br>
+
''''''1. Понятие случайной величине, дискретные и непрерывные случайные величины. Законы распределения случайных величин. Интегральная и дифференциальная форма закона распределения случайной величины. Основные статистические характеристики - мода, медиана, математическое ожидание, дисперсия. <br>
2. Регрессионный анализ, основные допущения. Проверка значимости параметров и адекватности уравнения.<br>
+
2. Законы распределения случайных величин. Нормальный закон распределения, "Хи-квадрат", Вейбулла, Стьюдента и Фишера. Примеры их использования.<br>
3. Проверка адекватности математической модели.<br>
+
3. Понятие о статистических гипотезах и методах их проверки. Основная и конкурирующая гипотезы, ошибка первого рода, ошибка второго рода.  Р-значение. Примеры статистических гипотез.<br>
4. Структурная идентификация модели. Метод группового учёта аргументов. <br>
+
4. Оценки случайных величин, требования к оценкам случайных величин. Примеры выборочных оценок. <br>
5. Определение параметров линейного уравнения регрессии методом наименьших квадратов.<br>
+
5. Значимость статистических оценок (параметров моделей). Проверка значимости.<br>
6. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.<br>
+
6. Определение доверительных интервалов по экспериментальным данным (при помощи распределения Стьюдента).<br>
7. Понятие о законах распределения "Хи-квадрат", Стьюдента и Фишера. Примеры их использования. Понятие о статистических гипотезах и методах их проверки. Р- значение.<br>
+
7. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.<br>
8. Определение параметров линейного уравнения регрессии в матричной форме.<br>
+
8. Коэффициент корреляции, частный коэффициент корреляции. Определение его значимости. Использование коэффициентов корреляции.<br>
9. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.<br>
+
9. Критерий Фишера, его использование.<br>
10. Таблица дисперсионного анализа. Определение наличия регрессионной зависимости с использованием F - отношения. Множественный коэффициент корреляции.<br>
+
10. Проверка гипотезы о виде закона распределения случайной величины.<br>
11. Понятие о частном коэффициенте корреляции. Определение его значимости. Пример использования.<br>
+
11. Регрессионный анализ, основные допущения. Проверка значимости параметров и адекватности уравнения.<br>
12. Методы последовательного уточнения структуры регрессионного уравнения: метод включений, метод исключений, метод пошаговой регрессии.<br>
+
12. Таблица дисперсионного анализа. Определение наличия регрессионной зависимости с использованием F - отношения. Множественный коэффициент корреляции.<br>
13. Метод Бокса-Уилкоса;<br>
+
13. Дисперсия воспроизводимости, дисперсия аппроксимации, полная дисперсия, объяснённая дисперсия, остаточная дисперсия. Понятия, использование.<br>
14. Методы многомерной оптимизации
+
14. Методы последовательного уточнения структуры регрессионного уравнения: метод включений, метод исключений, метод пошаговой регрессии.<br>
 +
15. Переход от криволинейных уравнений регрессии к линейным уравнениям. <br>
 +
''''''16. Понятие случайной величине, дискретные и непрерывные случайные величины. Законы распределения случайных величин. Интегральная и дифференциальная форма закона распределения случайной величины. Основные статистические характеристики - мода, медиана, математическое ожидание, дисперсия. <br>
 +
17. Законы распределения случайных величин. Нормальный закон распределения, "Хи-квадрат", Вейбулла, Стьюдента и Фишера. Примеры их использования.<br>
 +
18. Понятие о статистических гипотезах и методах их проверки. Основная и конкурирующая гипотезы, ошибка первого рода, ошибка второго рода.  Р-значение. Примеры статистических гипотез.<br>
 +
19. Оценки случайных величин, требования к оценкам случайных величин. Примеры выборочных оценок. <br>
 +
20. Значимость статистических оценок (параметров моделей). Проверка значимости.<br>
 +
21. Определение доверительных интервалов по экспериментальным данным (при помощи распределения Стьюдента).<br>
 +
22. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.<br>
 +
 
 +
1. Структурная идентификация модели. Метод группового учёта аргументов. <br>
 +
2. Параметрическая идентификация модели МНК<br>
 +
3. Определение параметров линейного уравнения регрессии методом наименьших квадратов.<br>
 +
4. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.<br>
 +
5. Определение параметров линейного уравнения регрессии в матричной форме.<br>
 +
6. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.<br>
 +
7. Реплики ПФЭ, их достоинства и недостатки.<br>
 +
8.. Звёздные планы.<br>
 +
9. Метод Бокса-Уилкоса<br>
 +
10. Методы одномерной оптимизации<br>
 +
11. Методы многомерной оптимизации<br>
 +
12. Проверка адекватности математической модели.<br>
 +
13. Построение экспериментальных моделей с помощью нейронных сетей.<br>
 +
14. Особенности планирования эксперимента в биотехнологии<br>
 +
15. Оценка адекватности модели, полученной на основе метода Бокса-Уилкоса<br>
 +
 
 +
16. Структурная идентификация модели. Метод группового учёта аргументов. <br>
 +
17. Параметрическая идентификация модели МНК<br>
 +
18 Определение параметров линейного уравнения регрессии методом наименьших квадратов.<br>
 +
19. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.<br>
 +
20. Определение параметров линейного уравнения регрессии в матричной форме.<br>
 +
21. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.<br>
 +
22. Реплики ПФЭ, их достоинства и недостатки.<br>

Текущая версия на 10:59, 13 января 2023

'1. Понятие случайной величине, дискретные и непрерывные случайные величины. Законы распределения случайных величин. Интегральная и дифференциальная форма закона распределения случайной величины. Основные статистические характеристики - мода, медиана, математическое ожидание, дисперсия.
2. Законы распределения случайных величин. Нормальный закон распределения, "Хи-квадрат", Вейбулла, Стьюдента и Фишера. Примеры их использования.
3. Понятие о статистических гипотезах и методах их проверки. Основная и конкурирующая гипотезы, ошибка первого рода, ошибка второго рода. Р-значение. Примеры статистических гипотез.
4. Оценки случайных величин, требования к оценкам случайных величин. Примеры выборочных оценок.
5. Значимость статистических оценок (параметров моделей). Проверка значимости.
6. Определение доверительных интервалов по экспериментальным данным (при помощи распределения Стьюдента).
7. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.
8. Коэффициент корреляции, частный коэффициент корреляции. Определение его значимости. Использование коэффициентов корреляции.
9. Критерий Фишера, его использование.
10. Проверка гипотезы о виде закона распределения случайной величины.
11. Регрессионный анализ, основные допущения. Проверка значимости параметров и адекватности уравнения.
12. Таблица дисперсионного анализа. Определение наличия регрессионной зависимости с использованием F - отношения. Множественный коэффициент корреляции.
13. Дисперсия воспроизводимости, дисперсия аппроксимации, полная дисперсия, объяснённая дисперсия, остаточная дисперсия. Понятия, использование.
14. Методы последовательного уточнения структуры регрессионного уравнения: метод включений, метод исключений, метод пошаговой регрессии.
15. Переход от криволинейных уравнений регрессии к линейным уравнениям.
'16. Понятие случайной величине, дискретные и непрерывные случайные величины. Законы распределения случайных величин. Интегральная и дифференциальная форма закона распределения случайной величины. Основные статистические характеристики - мода, медиана, математическое ожидание, дисперсия.
17. Законы распределения случайных величин. Нормальный закон распределения, "Хи-квадрат", Вейбулла, Стьюдента и Фишера. Примеры их использования.
18. Понятие о статистических гипотезах и методах их проверки. Основная и конкурирующая гипотезы, ошибка первого рода, ошибка второго рода. Р-значение. Примеры статистических гипотез.
19. Оценки случайных величин, требования к оценкам случайных величин. Примеры выборочных оценок.
20. Значимость статистических оценок (параметров моделей). Проверка значимости.
21. Определение доверительных интервалов по экспериментальным данным (при помощи распределения Стьюдента).
22. Фильтрация экспериментальных данных. Алгоритм плавающего среднего, экспоненциальный фильтр. Рекуррентные алгоритмы. Оценка качества фильтрации. Выбор между качеством фильтрации и скоростью.

1. Структурная идентификация модели. Метод группового учёта аргументов.
2. Параметрическая идентификация модели МНК
3. Определение параметров линейного уравнения регрессии методом наименьших квадратов.
4. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.
5. Определение параметров линейного уравнения регрессии в матричной форме.
6. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.
7. Реплики ПФЭ, их достоинства и недостатки.
8.. Звёздные планы.
9. Метод Бокса-Уилкоса
10. Методы одномерной оптимизации
11. Методы многомерной оптимизации
12. Проверка адекватности математической модели.
13. Построение экспериментальных моделей с помощью нейронных сетей.
14. Особенности планирования эксперимента в биотехнологии
15. Оценка адекватности модели, полученной на основе метода Бокса-Уилкоса

16. Структурная идентификация модели. Метод группового учёта аргументов.
17. Параметрическая идентификация модели МНК
18 Определение параметров линейного уравнения регрессии методом наименьших квадратов.
19. Определение параметров линейного уравнения регрессии (простой и множественной) с использованием статистических характеристик.
20. Определение параметров линейного уравнения регрессии в матричной форме.
21. Понятие о полном факторном эксперименте (ПФЭ). Построение планов ПФЭ, его свойства. Достоинства и недостатки. Определение параметров модели по данным полного факторного эксперимента, проверка их значимости, проверка адекватности модели.
22. Реплики ПФЭ, их достоинства и недостатки.

Персональные инструменты
Пространства имён

Варианты
Действия
Навигация
Инструменты