Лекция 14. Регрессионный анализ. Градуировка.

Проведение количественного анализа, как правило, включает в себя построение градуировки, т.е. находждение градуировочной функции экспериментальным путем. Для этого измеряется аналитический сигнал для серии образцов сравнения, в результате получается массив данных: {xi,yi}, где x - содержание определяемого компонента, y - аналитический сигнал. На плоскости каждое измерение можно представить точкой:

исходные данные для построения градуировки

Градуировочная функция y = f(x) определяется методами регрессионного анализа. Прямо через точки проводить ломаную и считать ее градуировочной функцией нельзя, т.к. измеряемый сигнал содержит погрешность.

Т.о. необходимо:
1) доопределить функцию (между точками)
2) минимизировать погрешность и
3) выбрать вид зависимости.

Вид функции зависимости выбирается исходя из внешней информации (расположения точек на плоскости) и из общих соображений относительно физических и химических законов, связывающих аналитический сигнал с содержанием определяемого компонента (например, построение градуировки в спектрофотометрии опирается на закон Бугера-Ламберта-Бера). Наиболее часто используется линейная зависимость.

Обозначим k - число параметров градуировочной функции, n - число измерений. Мы получаем систему уравнений:

система уравнений

Рассмотрим различные варианты соотношений n и k:

1) n < k - данных недостаточно. Необходимо провести больше измерений или упростить модель - уменьшить число параметров.

2) n = k - у системы единственное точное решение. Однако в этом случае нельзя оценить погрешность измерения

3) n > k - система уравнений несовместна и не имеет точного решения. Существует бесконечное множество приближенных решений, возникает задача аппроксимации.

На практике наиболее распространен 3-й случай. Рассмотрим его более подробно на примере линейного регрессионного анализа (т.е. градуировочная зависимость имеет линейный вид y = ax + b, определяется двумя параметрами a и b, k = 2).

Необходимо найти a и b такие, чтобы погрешность была минимальной.

Один из наиболее распространенных методов нахождения параметров линейной зависимости - метод наименьших квадратов, МНК

Предпосылки МНК:
1) Погрешность аргумента (x) пренебрежимо мала по сравнению с погрешностью y
2) Погрешность y постоянна (не зависит от x) - постулат равноточности (в условиях реального эксперимента погрешность обычно растет с ростом y)
3) Данные подчиняются нормальному закону распределения
4) Данные независимы, коэффициент корреляции r(yi,yj) = 0
5) Отклонение градуировочной функции от экспериментальных данных минимально. В рамках метода наименьших квадратов минимизируется величина квадрат разности рассчетной и экспериментальной величины, где Yi - величина аналитического сигнала, рассчитанная по уравнению Y = ax + b, yi - экспериментальная величина аналитического сигнала

С учетом всех предпосылок получаются следующие выражения для a и b:

выражение для углового коэффициента a

выражение для свободного члена b

О том, как оценивается погрешность градуировки, а также погрешность связанных с ней вычислений, читайте в следующих лекциях.

лекции читает А.В.Гармаш, химический факультет МГУ

Ошибка в формуле для расчета b

По-моему, в формуле для расчета коэффициента b ошибка. В числителе в качестве 1го члена разности должна быть не сумма произведения квадрата x на у, а произведение суммы квадрата x на сумму y.

Огромное

Огромное спасибо! Обалденная информация! Как раз то, что я искала!

Дата: 20 марта 2013



 

Добавить комментарий

Имя

E-mail

Комментарий

Контрольный вопрос:
Сколько будет: 3*3-8