Лекции "Основы хемометрики и химической метрологии"

Лекция 14. Регрессионный анализ. Градуировка.

Проведение количественного анализа, как правило, включает в себя построение градуировки, т.е. находждение градуировочной функции экспериментальным путем. Для этого измеряется аналитический сигнал для серии образцов сравнения, в результате получается массив данных: {xi,yi}, где x - содержание определяемого компонента, y - аналитический сигнал. На плоскости каждое измерение можно представить точкой:

исходные данные для построения градуировки

Градуировочная функция y = f(x) определяется методами регрессионного анализа. Прямо через точки проводить ломаную и считать ее градуировочной функцией нельзя, т.к. измеряемый сигнал содержит погрешность.

Т.о. необходимо:
1) доопределить функцию (между точками)
2) минимизировать погрешность и
3) выбрать вид зависимости.

Вид функции зависимости выбирается исходя из внешней информации (расположения точек на плоскости) и из общих соображений относительно физических и химических законов, связывающих аналитический сигнал с содержанием определяемого компонента (например, построение градуировки в спектрофотометрии опирается на закон Бугера-Ламберта-Бера). Наиболее часто используется линейная зависимость.

Обозначим k - число параметров градуировочной функции, n - число измерений. Мы получаем систему уравнений:

система уравнений

Рассмотрим различные варианты соотношений n и k:

1) n < k - данных недостаточно. Необходимо провести больше измерений или упростить модель - уменьшить число параметров.

2) n = k - у системы единственное точное решение. Однако в этом случае нельзя оценить погрешность измерения

3) n > k - система уравнений несовместна и не имеет точного решения. Существует бесконечное множество приближенных решений, возникает задача аппроксимации.

На практике наиболее распространен 3-й случай. Рассмотрим его более подробно на примере линейного регрессионного анализа (т.е. градуировочная зависимость имеет линейный вид y = ax + b, определяется двумя параметрами a и b, k = 2).

Необходимо найти a и b такие, чтобы погрешность была минимальной.

Один из наиболее распространенных методов нахождения параметров линейной зависимости - метод наименьших квадратов, МНК

Предпосылки МНК:
1) Погрешность аргумента (x) пренебрежимо мала по сравнению с погрешностью y
2) Погрешность y постоянна (не зависит от x) - постулат равноточности (в условиях реального эксперимента погрешность обычно растет с ростом y)
3) Данные подчиняются нормальному закону распределения
4) Данные независимы, коэффициент корреляции r(yi,yj) = 0
5) Отклонение градуировочной функции от экспериментальных данных минимально. В рамках метода наименьших квадратов минимизируется величина квадрат разности рассчетной и экспериментальной величины, где Yi - величина аналитического сигнала, рассчитанная по уравнению Y = ax + b, yi - экспериментальная величина аналитического сигнала

С учетом всех предпосылок получаются следующие выражения для a и b:

выражение для углового коэффициента a

выражение для свободного члена b

О том, как оценивается погрешность градуировки, а также погрешность связанных с ней вычислений, читайте в следующих лекциях.

лекции читает А.В.Гармаш, химический факультет МГУ

<< Предыдущая лекция Следующая лекция >>

Содержание

20 марта 2006

Если у Вас есть комментарии или вопросы по этой лекции, Вы можете оставить свое сообщение:

всего сообщений: 1

сообщение оставлено Аня, 31 января 2007 19:03:53)

Спасибо за кратко и четко изложенный материал!

Ваше имя:

Текст сообщения:

Использование материалов сайта разрешается только при наличии текстовой гиперссылки на этот сайт.
Статистика в аналитической химии copyright © 2005-2006

Разделы

главная
архив
словарь
рассылка
таблицы
карта сайта
наша кнопка
обратная связь

Поиск



Реклама




статистика в аналитической химии
добавить в закладки