Реферат: Многомерный статистический анализ

--PAGE_BREAK--Основы линейного регрессионного анализа
В предыдущем пункте метод наименьших квадратов описан в простейшем случае. Он допускает различные обобщения. Например, метод наименьших квадратов дает алгоритм расчетов в случае, если исходные данные – по-прежнему набор n пар чисел (tk, xk), k = 1,2,…,n, где tk – независимая переменная (например, время), а xk – зависимая (например, индекс инфляции — см. главу 7), а восстанавливать надо не линейную зависимость, а квадратическую:
<img width=«121» height=«24» src=«ref-1_1404185811-240.coolpic» v:shapes="_x0000_i1084">
Следует рассмотреть функцию трех переменных
<img width=«229» height=«45» src=«ref-1_1404186051-588.coolpic» v:shapes="_x0000_i1085">
Оценки метода наименьших квадратов — это такие значения параметров a*, b* и с*, при которых функция  f(a,b, с) достигает минимума по всем значениям аргументов. Чтобы найти эти оценки, надо вычислить частные производные от функции f(a,b, с) по аргументам a, b и с, приравнять их 0, затем из полученных уравнений найти оценки: Имеем:
<img width=«464» height=«45» src=«ref-1_1404186639-1069.coolpic» v:shapes="_x0000_i1086">
Приравнивая частную производную к 0, получаем линейное уравнение относительно трех неизвестных параметров a,b,c:
<img width=«223» height=«45» src=«ref-1_1404187708-793.coolpic» v:shapes="_x0000_i1087">
Приравнивая частную производную по параметру b к 0, аналогичным образом получаем уравнение
<img width=«220» height=«45» src=«ref-1_1404188501-773.coolpic» v:shapes="_x0000_i1088">
Наконец, приравнивая частную производную по параметру с к 0, получаем уравнение
<img width=«185» height=«45» src=«ref-1_1404189274-643.coolpic» v:shapes="_x0000_i1089">
Решая систему трех уравнений с тремя неизвестными, находим оценки метода наименьших квадратов.

Другие задачи, рассмотренные в предыдущем пункте (доверительные границы для параметров и прогностической функции и др.), также могут быть решены. Соответствующие алгоритмы более громоздки. Для их записи полезен аппарат матричной алгебры (см., например, одну из лучших в этой области монографий [2]). Для реальных расчетов используют соответствующие компьютерные программы.

Раздел многомерного статистического анализа, посвященный восстановлению зависимостей, называется регрессионным анализом. Термин «линейный регрессионный анализ» используют, когда рассматриваемая функция линейно зависит от оцениваемых параметров (от независимых переменных зависимость может быть произвольной). Теория оценивания неизвестных параметров хорошо развита именно в случае линейного регрессионного анализа. Если же линейности нет и нельзя перейти к линейной задаче, то, как правило, хороших свойств от оценок ожидать не приходится.

Продемонстрируем подходы в случае зависимостей различного вида. Если зависимость имеет вид многочлена (полинома)
<img width=«256» height=«25» src=«ref-1_1404189917-414.coolpic» v:shapes="_x0000_i1090">
то коэффициенты многочлена могут быть найдены путем минимизации функции
<img width=«445» height=«45» src=«ref-1_1404190331-874.coolpic» v:shapes="_x0000_i1091">
Функция от tне обязательно должна быть многочленом. Можно, например, добавить периодическую составляющую, соответствующую сезонным колебаниям. Хорошо известно, например, что инфляция (рост потребительских цен) имеет четко выраженный годовой цикл — в среднем цены быстрее всего растут зимой, в декабре — январе, а медленнее всего (иногда в среднем даже падают) летом, в июле — августе. Пусть для определенности
<img width=«321» height=«25» src=«ref-1_1404191205-502.coolpic» v:shapes="_x0000_i1092">
тогда неизвестные параметры могут быть найдены путем минимизации функции
<img width=«551» height=«45» src=«ref-1_1404191707-1029.coolpic» v:shapes="_x0000_i1093">
Пусть I(t) -индекс инфляции в момент t. Принцип стабильности условий приводит к гипотезе о постоянстве темпов роста средних цен, т.е. индекса инфляции. Таким образом, естественная модель для индекса инфляции – это
<img width=«79» height=«24» src=«ref-1_1404192736-192.coolpic» v:shapes="_x0000_i1094">
Эта модель не является линейной, метод наименьших квадратов непосредственно применять нельзя. Однако если прологарифмировать обе части предыдущего равенства:
<img width=«121» height=«21» src=«ref-1_1404192928-240.coolpic» v:shapes="_x0000_i1095">
то получим линейную зависимость, рассмотренную в первом пункте настоящей главы.

Независимых переменных может быть не одна, а несколько. Пусть, например, по исходным данным <img width=«157» height=«24» src=«ref-1_1404193168-272.coolpic» v:shapes="_x0000_i1096">требуется оценить неизвестные параметры a и bв зависимости
<img width=«103» height=«21» src=«ref-1_1404193440-201.coolpic» v:shapes="_x0000_i1097">
где <img width=«13» height=«15» src=«ref-1_1404193641-85.coolpic» v:shapes="_x0000_i1098">  — погрешность. Это можно сделать, минимизировав функцию

<img width=«199» height=«45» src=«ref-1_1404193726-550.coolpic» v:shapes="_x0000_i1099">
Зависимость от х и у не обязательно должна быть линейной. Предположим, что из каких-то соображений известно, что зависимость должна иметь вид
<img width=«224» height=«24» src=«ref-1_1404194276-372.coolpic» v:shapes="_x0000_i1100">
тогда для оценки пяти параметров необходимо минимизировать функцию
<img width=«383» height=«45» src=«ref-1_1404194648-833.coolpic» v:shapes="_x0000_i1101">
Более подробно рассмотрим пример из микроэкономики. В одной из оптимизационных моделей поведения фирмы используется т.н. производственная функция f(K,L), задающая объем выпуска в зависимости от затрат капитала Kи труда L. В качестве конкретного вида производственной функции часто используется так называемая функция Кобба-Дугласа
<img width=«115» height=«24» src=«ref-1_1404195481-235.coolpic» v:shapes="_x0000_i1102">
Однако откуда взять значения параметров <img width=«15» height=«15» src=«ref-1_1404195716-88.coolpic» v:shapes="_x0000_i1103"> и <img width=«16» height=«21» src=«ref-1_1404195804-96.coolpic» v:shapes="_x0000_i1104">? Естественно предположить, что они — одни и те же для предприятий отрасли. Поэтому целесообразно собрать информацию <img width=«163» height=«24» src=«ref-1_1404195900-286.coolpic» v:shapes="_x0000_i1105">где fk — объем выпуска на k-ом предприятии, Kk — объем затрат капитала на k-ом предприятии, Lk — объем затрат труда на k-ом предприятии (в кратком изложении здесь не пытаемся дать точных определений используемым понятиям из экономики предприятия). По собранной информации естественно попытаться оценить параметры <img width=«15» height=«15» src=«ref-1_1404195716-88.coolpic» v:shapes="_x0000_i1106"> и <img width=«16» height=«21» src=«ref-1_1404195804-96.coolpic» v:shapes="_x0000_i1107">. Но они входят в зависимость нелинейно, поэтому сразу применить метод наименьших квадратов нельзя. Помогает логарифмирование:
<img width=«184» height=«21» src=«ref-1_1404196370-322.coolpic» v:shapes="_x0000_i1108">
Следовательно, целесообразно сделать замену переменных
<img width=«305» height=«24» src=«ref-1_1404196692-444.coolpic» v:shapes="_x0000_i1109">
а затем находить оценки параметров <img width=«15» height=«15» src=«ref-1_1404195716-88.coolpic» v:shapes="_x0000_i1110"> и <img width=«16» height=«21» src=«ref-1_1404195804-96.coolpic» v:shapes="_x0000_i1111">, минимизируя функцию
<img width=«267» height=«45» src=«ref-1_1404197320-606.coolpic» v:shapes="_x0000_i1112">
Найдем частные производные:
<img width=«252» height=«45» src=«ref-1_1404197926-680.coolpic» v:shapes="_x0000_i1113">
<img width=«252» height=«45» src=«ref-1_1404198606-691.coolpic» v:shapes="_x0000_i1114">
Приравняем частные производные к 0, сократим на 2, раскроем скобки, перенесем свободные члены вправо. Получим систему двух линейных уравнений с двумя неизвестными:

<img width=«208» height=«45» src=«ref-1_1404199297-685.coolpic» v:shapes="_x0000_s1031">
<img width=«199» height=«45» src=«ref-1_1404199982-668.coolpic» v:shapes="_x0000_i1115">

Таким образом, для вычисления оценок метода наименьших квадратов необходимо найти пять сумм
<img width=«316» height=«45» src=«ref-1_1404200650-909.coolpic» v:shapes="_x0000_i1116">
Для упорядочения расчета этих сумм может быть использована таблица типа той, что применялась в первом пункте настоящей главы. Отметим, что рассмотренная там постановка переходит в разбираемую сейчас при <img width=«141» height=«33» src=«ref-1_1404201559-228.coolpic» v:shapes="_x0000_i1117">

Подходящая замена переменных во многих случаях позволяет перейти к линейной зависимости. Например, если
<img width=«79» height=«41» src=«ref-1_1404201787-214.coolpic» v:shapes="_x0000_i1118">
то замена z=1/yприводит к линейной зависимости z= a+ bx. Если y=(a+bx)2, то замена <img width=«51» height=«27» src=«ref-1_1404202001-152.coolpic» v:shapes="_x0000_i1119"> приводит к линейной зависимости z= a+ bx.

Основной показатель качества регрессионной модели. Одни и те же данные можно обрабатывать различными способами. Показателем отклонений данных от модели служит остаточная сумма квадратов SS. Чем этот показатель меньше, тем приближение лучше, значит, и модель лучше описывает реальные данные. Однако это рассуждение годится только для моделей с одинаковым числом параметров. Ведь если добавляется новый параметр, по которому можно минимизировать, то и минимум, как правило, оказывается меньше.

В качестве основного показателя качества регрессионной модели используют оценку остаточной дисперсии
<img width=«107» height=«41» src=«ref-1_1404202153-288.coolpic» v:shapes="_x0000_i1120">
скорректированную на число mпараметров, оцениваемых по наблюдаемым данным. В случае линейной прогностической модели, рассмотренной в первом пункте настоящей главы, оценка остаточной дисперсии имеет вид
<img width=«80» height=«41» src=«ref-1_1404202441-229.coolpic» v:shapes="_x0000_i1121">
поскольку число оцениваемых параметров m=2.

Почему эта формула отличается от приведенной в первом пункте? Там в знаменателе n, а здесь — (n-2). Дело в том, что в первом пункте рассмотрена непараметрическая теория при большом объеме данных (при <img width=«53» height=«21» src=«ref-1_1404202670-143.coolpic» v:shapes="_x0000_i1122">, а при безграничном возрастании n разница между n и (n-2) сходит на нет.

А вот при подборе вида модели знаменатель дроби, оценивающей остаточную дисперсию, приходится корректировать на число параметров. Если этого не делать, то придется заключить, что многочлен второй степени лучше соответствует данным, чем линейная функция, многочлен третьей степени лучше приближает исходные данные, чем многочлен второй степени, и т.д. В конце концов доходим до многочлена степени (n-1) с n коэффициентами, который проходит через все заданные точки. Но его прогностические возможности, скорее всего, существенно меньше, чем у линейной функции. Излишнее усложнение эконометрических моделей вредно.

Типовое поведение скорректированной оценки остаточной дисперсии
<img width=«95» height=«24» src=«ref-1_1404202813-221.coolpic» v:shapes="_x0000_i1123">
в зависимости от параметра m в случае расширяющейся системы эконометрических моделей выглядит так. Сначала наблюдаем заметное убывание. Затем оценка остаточной дисперсии колеблется около некоторой константы (теоретического значения дисперсии погрешности).

Поясним ситуацию на примере эконометрической модели в виде многочлена
<img width=«256» height=«25» src=«ref-1_1404203034-414.coolpic» v:shapes="_x0000_i1124">
Пусть эта модель справедлива при <img width=«55» height=«24» src=«ref-1_1404203448-139.coolpic» v:shapes="_x0000_i1125"> При <img width=«51» height=«24» src=«ref-1_1404203587-142.coolpic» v:shapes="_x0000_i1126"> в скорректированной оценке остаточной дисперсии учитываются не только погрешности измерений, но и соответствующие (старшие) члены многочлена (предполагаем, что коэффициенты при них отличны от 0). При <img width=«51» height=«24» src=«ref-1_1404203729-147.coolpic» v:shapes="_x0000_i1127"> имеем
<img width=«97» height=«31» src=«ref-1_1404203876-252.coolpic» v:shapes="_x0000_i1128">
Следовательно, скорректированная оценка остаточной дисперсии будет колебаться около указанного предела. Поэтому в качестве оценки неизвестной эконометрику степени многочлена (полинома) можно использовать первый локальный минимум скорректированной оценки остаточной дисперсии, т.е.
<img width=«323» height=«33» src=«ref-1_1404204128-485.coolpic» v:shapes="_x0000_i1129">
В работе [3] найдено предельное распределение этой оценки степени многочлена.

Теорема. При справедливости некоторых условий регулярности
<img width=«443» height=«33» src=«ref-1_1404204613-702.coolpic» v:shapes="_x0000_i1130">
где

<img width=«335» height=«51» src=«ref-1_1404205315-863.coolpic» v:shapes="_x0000_i1131">

Таким образом, предельное распределение оценки m* степени многочлена (полинома) является геометрическим. Это означает, в частности, что оценка не является состоятельной. При этом вероятность получить меньшее значение, чем истинное, исчезающе мала. Далее имеем:
<img width=«504» height=«33» src=«ref-1_1404206178-749.coolpic» v:shapes="_x0000_i1132">
<img width=«367» height=«33» src=«ref-1_1404206927-577.coolpic» v:shapes="_x0000_i1133">
<img width=«356» height=«25» src=«ref-1_1404207504-577.coolpic» v:shapes="_x0000_i1134">
Разработаны и иные методы оценивания неизвестной степени многочлена, например, с помощью многократного применения процедуры проверки адекватности регрессионной зависимости с помощью статистики Фишера (см. работу [3]). Предельное поведение оценок — таково же, как в приведенной выше теореме, только значение параметра <img width=«15» height=«19» src=«ref-1_1404208081-90.coolpic» v:shapes="_x0000_i1135"> иное.

Линейный и непараметрические парные коэффициенты корреляции. Термин «корреляция» означает «связь». В эконометрике этот термин обычно используется в сочетании «коэффициенты корреляции».

Рассмотрим способы измерения связи между двумя случайными переменными. Пусть исходными данными является набор случайных векторов <img width=«233» height=«25» src=«ref-1_1404208171-386.coolpic» v:shapes="_x0000_i1136"> Коэффициентом корреляции, более подробно, линейным парным коэффициентом корреляции К. Пирсона называется (см. приложение 1 в конце настоящей книги)

<img width=«219» height=«93» src=«ref-1_1404208557-1014.coolpic» v:shapes="_x0000_i1137">
Если rn= 1, то <img width=«84» height=«24» src=«ref-1_1404209571-178.coolpic» v:shapes="_x0000_i1138"> причем a>0. Если же rn= -1, то <img width=«84» height=«24» src=«ref-1_1404209571-178.coolpic» v:shapes="_x0000_i1139"> причем a<0. Таким образом, близость коэффициента корреляции к 1 (по абсолютной величине) говорит о достаточно тесной линейной связи.

Коэффициенты корреляции типа rn используются во многих алгоритмах многомерного статистического анализа эконометрических данных. В теоретических рассмотрениях часто считают, что случайный вектор имеет многомерное нормальное распределение. Распределения реальных данных, как правило, отличны от нормальных (см. главу 4). Почему же распространено представление о многомерном нормальном распределении? Дело в том, что теория в этом случае проще. В частности, равенство 0 теоретического коэффициента корреляции (см. приложение 1) эквивалентно независимости случайных величин. Поэтому проверка независимости сводится к проверке статистической гипотезы о равенстве 0 теоретического коэффициента корреляции. Эта гипотеза принимается, если <img width=«89» height=«24» src=«ref-1_1404209927-206.coolpic» v:shapes="_x0000_i1140">, где<img width=«52» height=«21» src=«ref-1_1404210133-153.coolpic» v:shapes="_x0000_i1141">— некоторое граничное значение, зависящее от объема выборки nи уровня значимости <img width=«15» height=«15» src=«ref-1_1404195716-88.coolpic» v:shapes="_x0000_i1142">.

Если случайные вектора <img width=«235» height=«25» src=«ref-1_1404210374-387.coolpic» v:shapes="_x0000_i1143"> независимы и одинаково распределены, то выборочный коэффициент корреляции сходится к теоретическому при безграничном возрастании объема выборки:
<img width=«252» height=«49» src=«ref-1_1404210761-692.coolpic» v:shapes="_x0000_i1144">
(сходимость по вероятности).

Более того, выборочный коэффициент корреляции является асимптотически нормальным. Это означает, что
<img width=«191» height=«56» src=«ref-1_1404211453-579.coolpic» v:shapes="_x0000_i1145">
где <img width=«37» height=«21» src=«ref-1_1404212032-128.coolpic» v:shapes="_x0000_i1146">— функция стандартного нормального распределения с математическим ожиданием 0 и дисперсией 1, а <img width=«48» height=«24» src=«ref-1_1404212160-149.coolpic» v:shapes="_x0000_i1147">— асимптотическая дисперсия выборочного коэффициента корреляции. Она имеет довольно сложное выражение, приведенное в монографии [4, с.393]:
<img width=«401» height=«51» src=«ref-1_1404212309-1083.coolpic» v:shapes="_x0000_i1148">
Здесь под <img width=«27» height=«24» src=«ref-1_1404213392-111.coolpic» v:shapes="_x0000_i1149"> понимаются теоретические центральные моменты порядка kи m, а именно,
<img width=«243» height=«25» src=«ref-1_1404213503-434.coolpic» v:shapes="_x0000_i1150">
(см. приложение 1 в конце книги).

Для расчета непараметрического коэффициента ранговой корреляции Спирмена необходимо сделать следующее. Для каждого xiрассчитать его ранг riв вариационном ряду, построенном по выборке <img width=«77» height=«24» src=«ref-1_1404213937-153.coolpic» v:shapes="_x0000_i1151">Для каждого yiрассчитать его ранг qiв вариационном ряду, построенном по выборке <img width=«80» height=«24» src=«ref-1_1404214090-161.coolpic» v:shapes="_x0000_i1152"> Для набора из nпар <img width=«131» height=«25» src=«ref-1_1404214251-237.coolpic» v:shapes="_x0000_i1153">вычислить (линейный) коэффициент корреляции. Он называется коэффициентом ранговой корреляции, поскольку определяется через ранги. В качестве примера рассмотрим данные из табл.2 (см. монографию [5]).
Табл.2. Данные для расчета коэффициентов корреляции

i

1

2

3

4

5

xi

5

10

15

20

25

yi

6

7

30

81

300

ri

1

2

3

4

5

qi

1

2

3

4

5



Для данных табл.2 коэффициент линейной корреляции равен 0,83, непосредственной линейной связи нет. А вот коэффициент ранговой корреляции равен 1, поскольку увеличение одной переменной однозначно соответствует увеличению другой переменной. Во многих экономических задачах, например, при выборе инвестиционных проектов для осуществления, достаточно именно монотонной зависимости одной переменной от другой.

Поскольку суммы рангов и их квадратов нетрудно подсчитать, то коэффициент ранговой корреляции Спирмена равен
<img width=«152» height=«64» src=«ref-1_1404214488-533.coolpic» v:shapes="_x0000_i1154">
Отметим, что коэффициент ранговой корреляции Спирмена остается постоянным при любом строго возрастающем преобразовании шкалы измерения результатов наблюдений. Другими словами, он является адекватным в порядковой шкале (см. главу 3), как и другие ранговые статистики (см. статистики Вилкоксона, Смирнова, типа омега-квадрат для проверки однородности независимых выборок в главе 4 и общее обсуждение в главе 8).

Широко используется также коэффициент ранговой корреляции <img width=«13» height=«15» src=«ref-1_1404215021-85.coolpic» v:shapes="_x0000_i1155">Кендалла, коэффициент ранговой конкордации Кендалла и Б. Смита и др. Наиболее подробное обсуждение этой тематики содержится в монографии [6], необходимые для практических расчетов таблицы имеются в справочнике [1]. Дискуссия о выборе вида коэффициентов корреляции продолжается до настоящего времени [5].

Непараметрическая регрессия. Рассмотрим общее понятие регрессии как условного математического ожидания. Пусть случайный вектор <img width=«84» height=«21» src=«ref-1_1404215106-204.coolpic» v:shapes="_x0000_i1156">имеет плотность p(x,y). Как известно из любого курса теории вероятностей, плотность условного распределения <img width=«37» height=«21» src=«ref-1_1404215310-131.coolpic» v:shapes="_x0000_i1157"> при условии <img width=«65» height=«24» src=«ref-1_1404215441-168.coolpic» v:shapes="_x0000_i1158"> имеет вид
<img width=«272» height=«69» src=«ref-1_1404215609-795.coolpic» v:shapes="_x0000_i1159">
Условное математическое ожидание, т.е. регрессионная зависимость, имеет вид
<img width=«240» height=«96» src=«ref-1_1404216404-949.coolpic» v:shapes="_x0000_i1160">
Таким образом, для нахождения оценок регрессионной зависимости достаточно найти оценки совместной плотности распределения вероятности <img width=«57» height=«24» src=«ref-1_1404217353-161.coolpic» v:shapes="_x0000_i1161"> такие, что
<img width=«125» height=«24» src=«ref-1_1404217514-247.coolpic» v:shapes="_x0000_i1162">
при <img width=«51» height=«15» src=«ref-1_1404217761-128.coolpic» v:shapes="_x0000_i1163"> Тогда непараметрическая оценка регрессионной зависимости

<img width=«147» height=«96» src=«ref-1_1404217889-725.coolpic» v:shapes="_x0000_i1164">
при <img width=«48» height=«15» src=«ref-1_1404174119-125.coolpic» v:shapes="_x0000_i1165"> будет состоятельной оценкой регрессии как условного математического ожидания
<img width=«97» height=«24» src=«ref-1_1404218739-211.coolpic» v:shapes="_x0000_i1166">
Общий подход к построению непараметрических оценок плотности распределения вероятностей развит в главе 8 ниже.
    продолжение
--PAGE_BREAK-- 
Основные понятия теории классификации

При внедрении современных эконометрических и статистических методов в практику технико-экономических исследований, при разработке соответствующих программных продуктов невозможно обойтись без классификации этих методов. Естественно исходить из вида обрабатываемых данных. В соответствии с современными воззрениями делим эконометрику и прикладную статистику на четыре области:

— статистика случайных величин (одномерная статистика);

— многомерный статистический анализ;

— статистика временных рядов и случайных величин;

— статистика объектов нечисловой природы.

В первой области элемент выборки — число, во второй — вектор, в третьей — функция, в четвертой — объект нечисловой природы. Термин «объект нечисловой природы» относится к элементам математического пространства, не являющегося векторным (линейным). Их нельзя складывать, умножать на числа, в отличие от чисел, векторов и функций. Примерами являются бинарные отношения (упорядочения, разбиения на классы, толерантности); множества, нечеткие множества; результаты измерений в номинальной и порядковой шкалах (т.е. по качественным признакам), в частности булевы вектора; вектора разнотипных признаков; тексты и т.д. (подробнее см., например, главу 8).

В настоящем пункте рассматривается важное направление эконометрики и прикладной статистики – математические методы классификации. Основная их часть относится к статистике объектов нечисловой природы, а именно, методы классификации, основанные на расстояниях между объектами.

Основные направления в математической теории классификации. Какие научные исследования относить к этой теории? Исходя из потребностей специалиста, применяющего математические методы классификации, целесообразно принять, что сюда входят исследования, во-первых, отнесенные самими авторами к этой теории; во вторых, связанные с ней общностью тематики, хотя бы их авторы и не упоминали термин «классификация». Это предполагает ее сложную внутреннюю структуру.

В литературных источниках наряду с термином «классификация» в близких смыслах используются термины «группировка», «распознавание образов», «диагностика», «дискриминация», «сортировка» и др. Терминологический  разнобой связан, прежде всего, с традициями научных кланов, к которым относятся авторы публикаций, а также с внутренним делением самой теории классификации.

В научных исследованиях по современной теории классификации можно выделить два относительно самостоятельных направления. Одно из них опирается на опыт таких наук, как биология, география, геология, и таких прикладных областей, как ведение классификаторов продукции и библиотечное дело. Типичные объекты рассмотрения — классификация химических элементов (таблица Д.И. Менделеева), биологическая систематика, универсальная десятичная классификация публикаций (УДК), классификатор товаров на основе штрих-кодов.

Другое направление опирается на опыт технических исследований, экономики, маркетинговых исследований, социологии, медицины. Типичные задачи — техническая и медицинская диагностика, а также, например, разбиение на группы отраслей промышленности, тесно связанных между собой, выделение групп однородной продукции. Обычно используются такие термины, как «распознавание образов» или «дискриминантный анализ». Это направление обычно опирается на математические модели; для проведения расчетов интенсивно используется ЭВМ. Однако относить его к математике столь же нецелесообразно, как астрономию или квантовую механику. Рассматриваемые математические модели можно и нужно изучать на формальном уровне, и такие исследования проводятся. Но направление в целом сконцентрировано на решении конкретных задач прикладных областей и вносит вклад в технические или экономические науки, медицину, социологию, но, как правило, не в математику. Использование математических методов как инструмента исследования нельзя относить к чистой математике.

В 60-х годах XX века внутри прикладной статистики достаточно четко оформилась область, посвященная методам классификации. Несколько модифицируя формулировки М. Дж. Кендалла и А. Стьюарта 1966 г. (см. русский перевод [7, с.437]), в теории классификации выделим три подобласти: дискриминация (дискриминантный анализ), кластеризация (кластер-анализ), группировка. Опишем эти подобласти.

В дискриминантном анализе классы предполагаются заданными — плотностями вероятностей или обучающими выборками. Задача состоит в том, чтобы вновь поступающий объект отнести в один из этих классов. У понятия «дискриминация» имеется много синонимов: диагностика, распознавание образов с учителем, автоматическая классификация с учителем, статистическая классификация и т.д.

При кластеризации и группировке целью является выявление и выделение классов. Синонимы: построение классификации, распознавание образов без учителя, автоматическая классификация без учителя, таксономия и др. Задача кластер-анализа состоит в выяснении по эмпирическим данным, насколько элементы «группируются» или распадаются на изолированные «скопления», «кластеры»(от cluster(англ.) — гроздь, скопление). Иными словами, задача — выявление естественного разбиения на классы, свободного от субъективизма исследователя, а цель — выделение групп однородных объектов, сходных между собой, при резком отличии этих групп друг от друга.

При группировке, наоборот, «мы хотим разбить элементы на группы независимо от того, естественны ли границы разбиения или нет» [7, с.437]. Цель по-прежнему состоит в выявлении групп однородных объектов, сходных между собой (как в кластер-анализе), однако «соседние» группы могут не иметь резких различий (в отличие от кластер-анализа). Границы между группами условны, не являются естественными, зависят от субъективизма исследователя. Аналогично при лесоустройстве проведение просек (границ участков) зависит от специалистов лесного ведомства, а не от свойств леса.

Задачи кластеризации и группировки принципиально различны, хотя для их решения могут применяться одни и те же алгоритмы. Важная для практической деятельности проблема состоит в том, чтобы понять, разрешима ли задача кластер-анализа для конкретных данных или возможна только их группировка, поскольку они достаточно однородны и не разбиваются на резко разделяющиеся между собой кластеры.

Как правило, в математических задачах кластеризации и группировки основное — выбор метрики, расстояния между объектами, меры близости, сходства, различия. Хорошо известно, что для любого заданного разбиения объектов на группы и любого e> 0 можно указать метрику такую, что расстояния между объектами из одной группы будут меньше e, а между объектами из разных групп — больше 1/e. Тогда любой разумный алгоритм кластеризации даст именно заданное разбиение. 

Ситуация осложняется использованием одного и того же термина в разных смыслах. Термином «классификация» (и термином «диагностика») обозначают, по крайней мере, три разные вещи: процедуру построения классификации (и выделение классов, используемых при диагностике), построенную классификацию (систему выделенных классов) и процедуру ее использования (правила отнесения вновь поступающего объекта к одному из ранее выделенных классов). Другими словами, имеем естественную триаду: построение – изучение – использование классификации.

Как уже отмечалось, для построения системы диагностических классов используют разнообразные методы кластерного анализа и группировки объектов. Наименее известен второй член триады – изучение отношений эквивалентности, полученных в результате построения системы диагностических классов. Статистический анализ полученных, в частности экспертами, отношений эквивалентности — часть статистики бинарных отношений и тем самым — статистики объектов нечисловой природы. Помимо общих результатов этой области эконометрики и прикладной статистики, представляют интерес частные результаты, полученные специально для отношений эквивалентности (см. главу 8)).

Диагностика в узком смысле слова (процедура использования классификации, т.е. отнесения вновь поступающего объекта к одному из выделенных ранее классов) — предмет дискриминантного анализа. Отметим, что с точки зрения статистики объектов нечисловой природы дискриминантный анализ является частным случаем общей схемы регрессионного анализа, соответствующим ситуации, когда зависимая переменная принимает конечное число значений, а именно — номера классов, а вместо квадрата разности стоит функция потерь от неправильной классификации. Однако есть ряд специфических постановок, выделяющих задачи диагностики среди всех регрессионных задач.

О построении диагностических правил. Начнем с обсуждения одного распространенного заблуждения. Иногда рекомендуют сначала построить систему диагностических классов, а потом в каждом диагностическом классе отдельно проводить регрессионный анализ (в классическом смысле) или применять иные методы многомерного статистического анализа. Однако обычно забывают, что при этом нельзя опираться на вероятностную модель многомерного нормального распределения, так как распределение результатов наблюдений, попавших в определенный кластер, будет отнюдь не нормальным, а усеченным нормальным (усечение определяется границами кластера).

Процедуры построения диагностических правил делятся на вероятностные и детерминированные. К первым относятся так называемые задачи расщепления смесей. В них предполагается, что распределение вновь поступающего случайного элемента является смесью вероятностных законов, соответствующих диагностическим классам. Как и при выборе степени полинома в регрессии (см. предыдущий пункт настоящей главы), при анализе реальных социально-экономических данных встает вопрос об оценке числа элементов смеси, т.е. числа диагностических классов. Были изучены результаты применения обычно рекомендуемого критерия Уилкса для оценки числа элементов смеси. Оказалось (см. статью [8]), что оценка с помощью критерия Уилкса не является состоятельной, асимптотическое распределение этой оценки – геометрическое, как и в случае задачи восстановления зависимости в регрессионном анализе (см. выше). Итак, продемонстрирована несостоятельность обычно используемых оценок. Для получения состоятельных оценок достаточно связать уровень значимости в критерии Уилкса с объемом выборки, как это было предложено и для задач регрессии.

Как уже отмечалось, задачи построения системы диагностических классов целесообразно разбить на два типа: с четко разделенными кластерами (задачи кластер-анализа) и с условными границами, непрерывно переходящими друг в друга классами (задачи группировки). Такое деление полезно, хотя в обоих случаях могут применяться одинаковые алгоритмы. Сколько же существует алгоритмов построения системы диагностических правил? Иногда называют то или иное число. На самом же деле их бесконечно много, в чем нетрудно убедиться.

Действительно, рассмотрим один определенный алгоритм — алгоритм средней связи. Он основан на использовании некоторой меры близости d(x,y) между объектами xи у. Как он работает? На первом шаге каждый объект рассматривается как отдельный кластер. На каждом следующем шаге объединяются две ближайших кластера. Расстояние между объектами рассчитывается как средняя связь (отсюда и название алгоритма), т.е. как среднее арифметическое расстояний между парами объектов, один из которых входит в первый кластер, а другой — во второй. В конце концов все объекты объединяются вместе, и результат работы алгоритма представляет собой дерево последовательных объединений (в терминах теории графов), или «Дендрограмму». Из нее можно выделить кластеры разными способами. Один подход — исходя из заданного числа кластеров. Другой — из соображений предметной области. Третий — исходя из устойчивости (если разбиение долго не менялось при возрастании порога объединения — значит оно отражает реальность). И т.д.

К алгоритму средней связи естественно сразу добавить алгоритм ближайшего соседа (когда расстоянием между кластерами называется минимальное из расстояний между парами объектов, один из которых входит в первый кластер, а другой — во второй) и алгоритм дальнего соседа (когда расстоянием между кластерами называется максимальное из расстояний между парами объектов, один из которых входит в первый кластер, а другой — во второй).

Каждый из трех описанных алгоритмов (средней связи, ближайшего соседа, дальнего соседа), как легко проверить, порождает бесконечное (континуальное) семейство алгоритмов кластер-анализа. Дело в том, что величина d a(x,y), a>0, также является мерой близости между xи у и порождает новый алгоритм. Если параметр а пробегает отрезок, то получается бесконечно много алгоритмов классификации.

Каким из них пользоваться при обработке данных? Дело осложняется тем, что практически в любом пространстве данных мер близости различных видов существует весьма много. Именно в связи с обсуждаемой проблемой следует указать на принципиальное различие между кластер-анализом и задачами группировки.

Если классы реальны, естественны, существуют на самом деле, четко отделены друг от друга, то любой алгоритм кластер-анализа их выделит. Следовательно, в качестве критерия естественности классификации следует рассматривать устойчивость относительно выбора алгоритма кластер-анализа.

Проверить устойчивость можно, применив к данным несколько подходов, например, столь непохожие алгоритмы, как «ближнего соседа» и «дальнего соседа». Если полученные результаты содержательно близки, то они адекватны действительности. В противном случае следует предположить, что естественной классификации не существует, задача кластер-анализа не имеет решения, и можно проводить только группировку.

Как уже отмечалось, часто применяется т.н. агломеративный иерархический алгоритм «Дендрограмма», в котором вначале все элементы рассматриваются как отдельные кластеры, а затем на каждом шагу объединяются два наиболее близких кластера. Для работы «Дендрограммы» необходимо задать правило вычисления расстояния между кластерами. Оно вычисляется через расстояние d(x, у) между элементами х и у. Поскольку d a(x,y) при 0<a<1 также расстояние, то, как правило, существует бесконечно много различных вариантов этого алгоритма. Представим себе, что они применяются для обработки одних и тех же реальных данных. Если при всех а получается одинаковое разбиение элементов на кластеры, т.е. результат работы алгоритма устойчив по отношению к изменению а (в смысле общей схемы устойчивости, рассмотренной в главе 10 ниже), то имеем «естественную» классификацию. В противном случае результат зависит от субъективно выбранного исследователем параметра а, т.е. задача кластер-анализа неразрешима (предполагаем, что выбор а нельзя специально обосновать). Задача группировки в этой ситуации имеет много решений. Из них можно выбрать одно по дополнительным критериям.

Следовательно, получаем эвристический критерий: если решение задачи кластер-анализа существует, то оно находится с помощью любого алгоритма. Целесообразно использовать наиболее простой. 

Проблема поиска естественной классификации. Существуют различные точки зрения на эту проблему. На Всесоюзной школе-семинаре «Использование математических методов в задачах классификации» (г. Пущино, 1986 г.), в частности, были высказаны мнения, что естественная классификация:

— закон природы;

— основана на глубоких закономерностях, тогда как искусственная классификация — на неглубоких;

— для конкретного индивида та, которая наиболее быстро вытекает из его тезауруса;

  — удовлетворяет многим целям; цель искусственной классификации задает человек;

— классификация с точки зрения потребителя продукции;

— классификация, позволяющая делать прогнозы;

— имеет критерием устойчивость.

Приведенные высказывания уже дают представление о больших расхождениях в понимании «естественной классификации». Этот термин следует признать нечетким, как, впрочем, и многие другие термины, как социально-экономические, научно-технические, так и используемые в обыденном языке. Нетрудно подробно обоснована нечеткость естественного языка и тот факт, что «мы мыслим нечетко», что однако не слишком мешает нам решать производственные и жизненные проблемы. Кажущееся рациональным требование выработать сначала строгие определения, а потом развивать науку — невыполнимо. Следовать ему — значит отвлекать силы от реальных задач. При системном подходе   к теории классификации становится ясно, что строгие определения можно надеяться получить на последних этапах построения теории. Мы же сейчас находимся чаще всего на первых этапах. Поэтому, не давая определения понятиям «естественная классификация»и «естественная диагностика», обсудим, как проверить на «естественность» классификацию (набор диагностических классов), полученную расчетным путем.

Можно выделить два критерия «естественности», по поводу которых имеется относительное согласие:

А. Естественная классификация должна быть реальной, соответствующей действительному миру, лишенной внесенного исследователем субъективизма;

Б. Естественная классификация должна быть важной или с научной точки зрения (давать возможность прогноза, предсказания новых свойств, сжатия информации и т.д.), или с практической.

Пусть классификация проводится на основе информации об объектах, представленной в виде матрицы «объект-признак» или матрицы попарных расстояний (мер близости). Пусть алгоритм классификации дал разбиение на кластеры. Как можно получить доводы в пользу естественности этой классификации? Например, уверенность в том, что она — закон природы, может появиться только в результате длительного ее изучения и практического применения. Это соображение относится и к другим из перечисленных выше критериев, в частности к Б (важности). Сосредоточимся на критерии А (реальности).

Понятие «реальности» кластера требует специального обсуждения. (оно начато в работе [8]). Рассмотрим существо различий между понятиями «классификация» и «группировка». Пусть, к примеру, необходимо деревья, растущие в определенной местности, разбить на группы находящихся рядом друг с другом. Ясна интуитивная разница между несколькими отдельными рощами, далеко отстоящими друг от друга и разделенными полями, и сплошным лесом, разбитым просеками на квадраты с целью лесоустройства. Однако формально определить эту разницу столь же сложно, как определить понятие «куча зерен», чем занимались еще в Древней Греции (одно зерно не составляет кучи, два зерна не составляют кучи,…, если к тому, что не составляет кучи, добавить еще одно зерно, то куча не получится; значит — по принципу математической индукции — никакое количество зерен не составляет кучи; но ясно, что миллиард зерен — большая куча зерен — подсчитайте объем!).

Переформулируем сказанное в терминах «кластер-анализа» и «методов группировки». Выделенные с помощью первого подхода кластеры реальны, а потому могут рассматриваться как кандидаты в «естественные». Группировка дает «искусственные» классы, которые не могут быть «естественными».

Выборку из унимодального распределения можно, видимо, рассматривать как «естественный», «реальный» кластер. Применим к ней какой-либо алгоритм классификации («средней связи», «ближайшего соседа» и т.п.). Он даст какое-то разбиение на классы, которые, разумеется, не являются «реальными», поскольку отражают прежде всего свойства алгоритма, а не исходных данных. Как отличить такую ситуацию от противоположной, когда имеются реальные кластеры и алгоритм классификации более или менее точно их выделяет? Как известно, «критерий истины – практика», но слишком много времени необходимо для применения подобного критерия. Поэтому представляет интерес критерий, оценивающий «реальность» выделяемых с помощью алгоритма классификации кластеров одновременно с его применением.

Такой показатель существует — это критерий устойчивости. Устойчивость — понятие широкое. Общая схема формулирования и изучения проблем устойчивости рассмотрена в главе 10. В частности, поскольку значения признаков всегда измеряются с погрешностями, то «реальное» разбиение должно быть устойчиво (т.е. не меняться или меняться слабо) при малых отклонениях исходных данных. Алгоритмов классификации существует бесконечно много, и «реальное» разбиение должно быть устойчиво по отношению к переходу к другому алгоритму. Другими словами, если «реальное» разбиение на диагностические классы возможно, то оно находится с помощью любого алгоритма автоматической классификация. Следовательно, критерием естественности классификации может служить совпадение результатов работы двух достаточно различающихся алгоритмов, например «ближайшего соседа» и «дальнего соседа».

Выше рассмотрены два типа «глобальных» критериев «естественности классификации», касающихся разбиения в целом. «Локальны»» критерии относятся к отдельным кластерам. Простейшая постановка такова: достаточно ли однородны два кластера (две совокупности) для их объединения:? Если объединение возможно, то кластеры не являются «естественными». Преимущество этой постановки в том, что она допускает применение статистических критериев однородности двух выборок. В одномерном случае (классификация по одному признаку) разработано большое число подобных критериев — Крамера-Уэлча, Смирнова, омега-квадрат (Лемана-Розенблатта), Вилкоксона, Ван-дер-Вардена, Лорда, Стьюдента и др. (см. главу 4 и справочник [1]). Имеются критерии и для многомерных данных. Для одного из видов объектов нечисловой природы — люсианов — статистические методы выделения «реальных» кластеров развиты в работе [9].

Что касается глобальных критериев, то для изучения устойчивости по отношению к малым отклонениям исходных данных естественно использовать метод статистических испытаний и проводить расчеты по «возмущенным» данным. Некоторые теоретические утверждения, касающиеся влияния «возмущений» на кластеры различных типов, получены в работе [8].

Опишем практический опыт реализации анализа устойчивости. Несколько алгоритмов классификации были применены к данным, полученным при проведении маркетинга образовательных услуг и приведенным в работе [10]. Для анализа данных были использованы широко известные алгоритмы «ближайшего соседа», «дальнего соседа» и алгоритм кластер-анализа из работы [11]. С содержательной точки зрения полученные разбиения отличались мало. Поэтому есть основания считать, что с помощью этих алгоритмов действительно выявлена «реальная» структура данных.

Идея устойчивости как критерия «реальности» иногда реализуется неадекватно. Так, для однопараметрических алгоритмов один из специалистов предлагал выделять разбиения, которым соответствуют наибольшие интервалы устойчивости по параметру, т.е. наибольшие приращения параметра между очередными объединениями кластеров. Для данных работы [10] это предложение не дало полезных результатов — были получены различные разбиения: три алгоритма — три разбиения. И с теоретической точки зрения предложение этого специалиста несостоятельно. Покажем это.

Действительно, рассмотрим алгоритм «ближайшего соседа», использующий меру близости d(x, у), и однопараметрическое семейство алгоритмов с мерой близости da(x,y), а>0, также являющихся алгоритмами «ближайшего соседа». Тогда дендрограммы, полученные с помощью этих алгоритмов, совпадают при всех a, поскольку при их реализации происходит лишь сравнение мер близости между объектами. Другими словами, дендрограмма, полученная с помощью алгоритма «ближайшего соседа», является адекватной в порядковой шкале (измерения меры близости d(x, у)), т.е. сохраняется при любом строго возрастающем преобразовании этой меры (см. главу 3). Однако выделенные по обсуждаемому методу «устойчивые разбиения» меняются. В частности, при достаточно большом а «наиболее объективным» в соответствии с предложением этого специалиста будет, как нетрудно показать, разбиение на два кластера! Таким образом, разбиение, выдвинутое им как «устойчивое», на самом деле оказывается весьма неустойчивым.

    продолжение
--PAGE_BREAK--
еще рефераты
Еще работы по математике