Ковариационная матрица вектора оценок

Ковариационная матрица и ее выборочная оценка

Вариации оценок параметров будут в конечном счете определять точность уравнения множественной регрессии. Для их измерения в многомерном регрессионном анализе рассматривают так называемую ковариационную матрицу вектора оценок параметров У , являющуюся матричным аналогом дисперсии од-

Ковариационная матрица вектора оценок

где элементы а,, — ковариации (или корреляционные моменты) оценок параметров р, и р;. Ковариация двух переменных определяется как математическое ожидание произведения отклонений этих переменных от их математических ожиданий (см. § 2.4). Поэтому

Ковариационная матрица вектора оценок

Ковариация характеризует как степень рассеяния значений двух переменных относительно их математических ожиданий, так и взаимосвязь этих переменных.

В силу того, что оценки bj, полученные методом наименьших квадратов, являются несмещенными оценками параметров ру-, т. е. МЬЛ= р , выражение (4.13) примет вид:

Ковариационная матрица вектора оценок

Рассматривая ковариационную матрицу У , легко заме-

тить, что на ее главной диагонали находятся дисперсии оценок параметров регресии, ибо

Ковариационная матрица вектора оценок

В сокращенном виде ковариационная матрица вектора оценок параметров У имеет вид:

Ковариационная матрица вектора оценок

(в этом легко убедиться, перемножив векторы (б-(3) и (б-р)). Учитывая (4.12), преобразуем это выражение:

Ковариационная матрица вектора оценок

ибо элементы матрицы X — неслучайные величины.

Матрица Мгг’) представляет собой ковариационную матрицу вектора возмущений

Ковариационная матрица вектора оценок

в которой все элементы, не лежащие на главной диагонали, равны нулю в силу предпосылки 4 о некоррелированности возмущений 8, и вj между собой (см. (3.25)), а все элементы, лежащие на главной диагонали, в силу предпосылок 2 и 3 регрессионного анализа (см. (3.23) и (3.24)) равны одной и той же дисперсии а 2 :

Ковариационная матрица вектора оценок

Ковариационная матрица вектора оценок

где Еп — единичная матрица /?-го порядка. Следовательно, в силу (4.15) ковариационная матрица вектора оценок параметров:

Ковариационная матрица вектора оценок

или Ковариационная матрица вектора оценок

Итак, с помощью обратной матрицы определяется не

только сам вектор b оценок параметров (4.8), но и дисперсии и ковариации его компонент.

Видео:Ковариационная матрицаСкачать

Ковариационная матрица

Машинное обучение для факультета математики Записки лекций

Илья Щуров (НИУ ВШЭ)

Видео:Теория вероятностей #19: ковариация, корреляция, зависимость двух случайных величинСкачать

Теория вероятностей #19: ковариация, корреляция, зависимость двух случайных величин

5 Ещё о линейной регрессии

Видео:Оценка ковариационной матрицыСкачать

Оценка ковариационной матрицы

5.1 Напоминание: постановка задачи и метод наименьших квадратов

Обозначим через X матрицу, в которой по строкам записаны векторы x i . Это матрица с n строками и d столбцами. Пусть y = ( y 1 , … , y n ) — вектор правильных ответов и ε = ( ε 1 , … , ε n ) — вектор ошибок. Уравнение (5.1) можно записать в матричной форме:

5.1.1 Геометрическая интерпретация

Эта интерпретация часто бывает полезна, но про некоторые вещи с её помощью невозможно думать: например, невозможно себе представить, что значит «найти предсказание для нового x (отличного от тех, что есть в обучающей выборке)».

Видео:Корреляция и ковариация двумерной случайной величиныСкачать

Корреляция и ковариация двумерной случайной величины

5.2 Несмещённость МНК-оценки

Вернёмся к доказательству утверждения. Имеем: E [ ^ w ] = E [ ( X T X ) − 1 X T y ] = E [ ( X T X ) − 1 X T ( X w + ε ) ] = = E [ ( X T X ) − 1 ( X T X ) w ] + E [ ( X T X ) − 1 X T ε ] = = E [ w ] + ( X T X ) − 1 X T E [ ε ] = E [ w ] . В предпоследнем переходе мы воспользовались леммой 2 , в последнем — предположением о том, что матожидание ε равно нулю. ∎

Видео:Теория вероятностей #25: Ковариация и корреляция / ковариационная матрицаСкачать

Теория вероятностей #25: Ковариация и корреляция / ковариационная матрица

5.3 Дисперсии и ковариации МНК-оценки

5.3.1 Ковариационная матрица

Гм-гм, симметричная матрица? Наверняка она задаёт какую-нибудь симметричную билинейную или квадратичную форму! И правда.

5.3.2 Пример и геометрическая интерпретация

Ковариационная матрица вектора оценок

Для правой картинки матрица ковариации равна

Следствие 1 имеет следующую геометрическую интерпретацию. Зафиксируем какой-нибудь вектор u , имеющий единичную длину. Тогда u T V a r ( z ) u показывает, какова дисперсия скалярного произведения ⟨ u , z ⟩ . Для единичного вектора u указанное скалярное произведение — это длина проекции z на u . То есть мы измеряем разброс проекции случайного вектора на заданное направление. Например, на правой картинке колебания вдоль направления вектора ( √ 2 / 2 , √ 2 / 2 ) будет гораздо больше, чем вдоль направления вектора ( − √ 2 / 2 , √ 2 / 2 ) . На левой картинке колебания в любом направлении одинаковы.

5.3.3 Ковариационная матрица и линейные операторы

5.3.4 Ковариационная матрица МНК-оценки

5.3.5 Теорема Гаусса — Маркова

Иными словами, теорема Гаусса — Маркова говорит, что дисперсия (разброс) любого предсказания для любой линейной несмещённой оценки w будет не меньше, чем дисперсия того же предсказания для МНК-оценки.

Заключение теоремы можно также переформулировать таким образом: матрица

Доказывать эту теорему мы сейчас не будем.

5.3.6 Когда смещённая оценка лучше

Теорема Гаусса — Маркова рассматривает только довольно узкий класс альтернатив — исключительно линейные несмещённые оценки, и показывает, что МНК-оценка оптимальна именно в этом классе. Но это не означает, что она оптимальна с практической точки зрения.

Напомним (второй раз за сегодня), что ожидаемая ошибка на новом наблюдении (то, что мы хотим сделать как можно менше) складывается из шума, смещения и разброса. Мы показали, что МНК-оценка имеет нулевое смещение и минимальный разброс среди оценок с нулевым смещением. Однако, может быть, есть оценка с ненулевым смещением, которая имеет существенно более низкий разброс, и таким образом по сумме выигрывает у МНК-оценки? Оказывается, что так как раз часто и бывает (более того, почти всегда).

Давайте покажем, как это возможно, на простом примере.

Пусть также истинный вектор весов w = ( 1 , 1 ) , то есть истинная зависимость имеет вид:

Как мы видим, если σ 2 очень большое, разброс предсказаний МНК-модели может быть также очень большим.

Давайте вместе с МНК-оценкой для исходной модели рассмотрим также МНК-оцеки для упрощённых моделей, которые игнорируют один из или оба признака. Иными словами, мы рассматриваем четыре модели.

  1. Наша исходная модель.
  2. Модель построена по матрице X , из которой убрали первый столбец и оставили только второй, зависимость предсказания от первого признака в модели отсутствует. Иными словами, в формуле

Давайте посчитаем ожидаемую ошибку для всех четырёх моделей. Для этого нужно найти смещение и разброс для каждой модели.

У исходной (первой) модели нулевой смещение предсказаний, а разброс в каждой из четырёх точек равен σ 2 2 . Общий разброс равен 2 σ 2 .

У второй модели в точках ( 0 , ± 1 ) смещение остаётся нулевым, а в точках ( ± 10 , 0 ) модель предсказывает значение 0 (поскольку мы обнулили ^ w 1 ), в то время как правильное значение равно ± 10 . Значит, смещение (вернее, его квадрат, именно он входит в формулу для ожидаемой ошибки) в каждой из этих точек равно ( 0 ∓ 10 ) 2 = 100 , общее смещение модели 200 . Разброс в точках ( 0 , ± 1 ) остаётся равен σ 2 2 , а в точках ( ± 10 , 0 ) разброс равен нулю, поскольку в этих точках модель предсказывает постоянное число (0). Общий разброс равен σ 2 .

У третьей модели всё наоборот — в точках ( 0 , ± 1 ) смещение равно по 1 (там истинное значение равно 1, а предсказание будет 0), общее смещение равно 2. Общий разброс, как и второй модели, оказывается равен σ 2 .

Наконец, у четвертой модели смещение равно 202 , а разброс нулевой.

Сведём наши результаты в табличку.

Итак, на нашем примере мы видим, что бывают ситуации, когда лучше выбрать смещённую модель, которая даёт меньший разброс предсказаний, чем несмещённую модель. Это ещё один пример так называемого bias-variance tradeoff.

Заметим, что в данном случае оптимальной могла стать третья модель, но никак не вторая: её ожидаемая ошибка при любом σ 2 больше ожидаемой ошибки третьей. Это можно интерпретир��вать так. В нашей истинной зависимости коэффициенты при обоих признаках были равны между собой. В то же время дисперсии самих признаков существенно различались — дисперсия первого признака была гораздо больше дисперсии второго. При равных дисперсиях шумов в каждой точке, это привело к тому, что дисперсия второй компоненты вектора признаков оказалась гораздо выше дисперсии первой. Поэтому именно ей нам пришлось «пожертвовать», чтобы уменьшить разброс предсказаний. На этой идее основан один из методов отбора признаков — удаление незначимых признаков, то есть таких, у которых слишком большое значение разброса по сравнению со значением самого признака.

Если предполагать, что веса в истинной зависимости примерно одинаковые и остальные предположения выполняются, большую дисперсию будут иметь веса, соответствующие признакам, которые сами имеют маленькую дисперсию (как второй признак в нашем примере). Это ещё один механизм отбора признаков.

На семинаре мы также обсудим регуляризацию — ещё один механизм уменьшения разброса в предсказаниях, который автоматически уменьшает веса, соответствующие признакам с маленькой дисперсией.

Заметим также, что проблемы, связанные со слишком большим разбросом предсказаний могут возникать не только в том случае, когда какой-то из признаков имеет маленькую дисперсию, но и когда какие-то признаки слишком сильно скоррелированы друг с другом. Механизмы, которые здесь работают, полностью аналогичны разобранным в нашем примере. Регуляризация позволяет справиться и с этой проблемой тоже.

Видео:Матрицы и векторыСкачать

Матрицы и векторы

Ковариационная и корреляционная матрицы случайного вектора

В случае многомерной случайной величины (случайного вектора) характеристикой разброса ее составляющих и связей между ними является ковариационная матрица.

Ковариационная матрица определяется как математическое ожидание произведения центрированного случайного вектора на тот же, но транспонированный вектор:

Ковариационная матрица вектора оценок

где Ковариационная матрица вектора оценок

Ковариационная матрица имеет вид

Ковариационная матрица вектора оценок

где по диагонали стоят дисперсии координат случайного вектора on=DXi, o22=DX2, окк = DXk, а остальные элементы представляют собой ковариации между координатами

Ковариационная матрица является симметрической матрицей, т.е. Ковариационная матрица вектора оценок

Для примера рассмотрим ковариационную матрицу двумерного вектора

Ковариационная матрица вектора оценок

Аналогично получается ковариационная матрица для любого /^-мерного вектора.

Дисперсии координат можно представить в виде

Ковариационная матрица вектора оценок

где Gi,C2. 0? — средние квадратичные отклонения координат случайного вектора.

Коэффициентом корреляции называется, как известно, отношение ковариации к произведению средних квадратичных отклонений:

Ковариационная матрица вектора оценок

После нормирования по последнему соотношению членов ковариационной матрицы получают корреляционную матрицу

Ковариационная матрица вектора оценок

которая является симметрической и неотрицательно определенной.

Многомерным аналогом дисперсии случайной величины является обобщенная дисперсия, под которой понимается величина определителя ковариационной матрицы

Ковариационная матрица вектора оценок

Другой общей характеристикой степени разброса многомерной случайной величины является след ковариационной матрицы

Ковариационная матрица вектора оценок

где т — вектор-столбец математических ожиданий;

|Х| — определитель ковариационной матрицы X;

? -1 — обратная ковариационная матрица.

Матрица X -1 , обратная к матрице X размерности пх п, может быть получена различными способами. Одним из них является метод Жордана—Гаусса. В этом случае составляется матричное уравнение Ковариационная матрица вектора оценок

где х — вектор-столбец переменных, число которых равно я; b — я-мерный вектор-столбец правых частей.

Умножим слева уравнение (6.21) на обратную матрицу ХГ 1 :

Ковариационная матрица вектора оценок

Так как произведение обратной матрицы на данную дает единичную матрицу Е, то

Ковариационная матрица вектора оценок

Если вместо b взять единичный вектор

Ковариационная матрица вектора оценок

то произведение X -1 х дает первый столбец обратной матрицы. Если же взять второй единичный вектор

Ковариационная матрица вектора оценок

то произведение Е 1 е2 дает первый столбец обратной матрицы и т.д. Таким образом, последовательно решая уравнения

Ковариационная матрица вектора оценок

методом Жордана—Гаусса, получаем все столбцы обратной матрицы.

Другой метод получения матрицы, обратной к матрице Е, связан с вычислением алгебраических дополнений AtJ.= (/= 1, 2. п; j = 1, 2, . п) к элементам данной матрицы Е, подстановкой их вместо элементов матрицы Е и транспортированием такой матрицы:

Ковариационная матрица вектора оценок

Обратная матрица получается после деления элементов В на определитель матрицы Е:

Ковариационная матрица вектора оценок

Важной особенностью получения обратной матрицы в данном случае является то, что ковариационная матрица Е является слабо обусловленной. Это приводит к тому, что при обращении таких матриц могут возникать достаточно серьезные ошибки. Все это требует обеспечения необходимой точности вычислительного процесса или использования специальных методов при вычислении таких матриц.

Пример. Написать выражение плотности вероятности для нормально распределенной двумерной случайной величины <Xv Х2)

при условии, что математические ожидания, дисперсии и ковариации этих величин имеют следующие значения:

Ковариационная матрица вектора оценок

Решение. Обратную ковариационную матрицу для матрицы (6.19) можно получить, используя следующее выражение обратной матрицы к матрице X:

Ковариационная матрица вектора оценок

где А — определитель матрицы X.

Аи, Л12, А21, А22 — алгебраические дополнения к соответствующим элементам матрицы X.

Тогда для матрицы ]г- ! получаем выражение

Ковариационная матрица вектора оценок

Так как а12 = 01О2Р и °2i =a 2 a iP> а a i2 a 2i = cyfст|р, то Ковариационная матрица вектора оценок Значит,

Ковариационная матрица вектора оценок

Ковариационная матрица вектора оценок Ковариационная матрица вектора оценок

Функция плотности вероятности запишется в виде

Ковариационная матрица вектора оценок

Подставив исходные данные, получим следующее выражение для функции плотности вероятности

🔍 Видео

Доказательство формулы для ковариационной матрицы у доски, линалСкачать

Доказательство формулы для ковариационной матрицы у доски, линал

Условная дисперсия МНК оценокСкачать

Условная дисперсия МНК оценок

Случайный вектор двумерной случайной величиныСкачать

Случайный вектор двумерной случайной величины

Собственные векторы и собственные значения матрицыСкачать

Собственные векторы и собственные значения матрицы

Дисперсия оценок коэффициентов в общем видеСкачать

Дисперсия оценок коэффициентов в общем виде

Что такое векторы и матрицы? Душкин объяснитСкачать

Что такое векторы и матрицы? Душкин объяснит

Урок 1. Матрицы, определитель матрицы и ранг матрицы | Высшая математика | TutorOnlineСкачать

Урок 1. Матрицы, определитель матрицы и ранг матрицы | Высшая математика | TutorOnline

Статистические свойства оценок коэффициентов. Подробный урокСкачать

Статистические свойства оценок коэффициентов. Подробный урок

part6 матрица ковариацийСкачать

part6 матрица ковариаций

А.7.35 Собственные вектора и собственные значения матрицыСкачать

А.7.35 Собственные вектора и собственные значения матрицы

Линал 2.6. Умножение матрицы на векторСкачать

Линал 2.6. Умножение матрицы на вектор

Собственные значения и собственные векторы матрицы (4)Скачать

Собственные значения и собственные векторы матрицы (4)

Математика без Ху!ни. Ряд распределения дискретной случайной величины. Мат ожидание и дисперсия.Скачать

Математика без Ху!ни. Ряд распределения дискретной случайной величины. Мат ожидание и дисперсия.

Теория вероятностей. Подготовка к контрольной. Ковариационные матрицыСкачать

Теория вероятностей. Подготовка к контрольной. Ковариационные матрицы
Поделиться или сохранить к себе: