Теория организации и системный анализ
Хотелось бы решить эту задачу так: выбирать случайно как группы магазинов, так и дни недели, но иметь гарантию (уже не случайно!) представительности выходных данных испытания стратегии.
Теория планирования эксперимента предлагает особый метод решения этой проблемы, метод обеспечения случайности или рандомизации плана эксперимента. Этот метод основан на построении
специальной таблицы, которую принято называть латинским квадратом, если число факторов равно двум.
Для нашего примера, с числом стратегий 4, латинский квадрат может иметь вид табл. 3.10 или табл. 3.11.
Таблица 3.10 Таблица 3.11
1 | 2 | 3 | 4 | |
Ср |
А |
Б |
В |
Г |
Пт |
В |
Г |
А |
Б |
Сб |
Б |
А |
Г |
В |
Вс |
Г |
В |
Б |
А |
Ср |
Пт |
Сб |
Вс |
|
А |
1 | 2 | 3 | 4 |
Б |
3 | 4 | 1 | 2 |
В |
2 | 1 | 4 | 3 |
Г |
4 | 3 | 2 | 1 |
В ячейках первой таблицы указаны номера стратегий для дней недели и магазинов данного профиля, причем такой план эксперимента гарантирует проверку каждой из стратегий в каждом профиле торговли и в каждый день работы магазина.
Конечно же, таких таблиц (квадратов) можно построить не одну — правила комбинаторики позволяют найти полное число латинских квадратов типа "4·4" и это число составляет 576. Для квадрата "3·3" имеется всего 12 вариантов, для квадрата "5·5" — уже 161 280 вариантов.
В общем случае, при наличии t стратегий и двух факторах, определяющих эффективность, потребуется N=a·t2 элементов для реализации плана эксперимента, где a в простейшем случае равно 1.
Это означает, что для нашего примера необходимо использовать 16 "управляемых" магазинов, так как данные, скажем второй строки и третьего столбца, нашего латинского квадрата означают, что по субботам в одном из выбранных наугад бакалейных магазинов будет применяться стратегия номер 1.
Отметим, что латинский квадрат для нашего примера может быть помтроен совершенно иначе — в виде таблицы 3.11, но по-прежнему будет определять все тот же, рандомизированный план эксперимента.
Пусть мы провели эксперимент и получили его результаты в виде следующей таблицы, в ячейках которой указаны стратегии и результаты их применения в виде сумм дневной выручки:
Таблица 3.12
-
Дни
Магазины
А Б В Г
Сумма
Вс
2: 47 1: 90 3: 79 4: 50 266
Ср
4: 46 3: 74 2: 63 1: 69 252
Пт
1: 62 2: 61 4: 58 3: 66 247
Сб
3: 76 4: 63 1: 87 2: 59 285
Сумма
231
288
287
244
1050
Итого по
стратегиям
1
308
2
230
3
295
4
217
1050/4=
262.5
Если вычислить, как и положено, средние значения, дисперсии и среднеквадратичные отклонения для четверок значений дневной выручки (по дням, магазинам и стратегиям), то мы будем иметь следующие данные:
Таблица 3.12А
Дни недели |
Магазины |
Стратегии |
|
Среднее |
262.5 |
262.5 |
262.5 |
Дисперсия |
217.3 |
646.3 |
1563.3 |
СКО |
14.74 |
25.42 |
39.5 |
Коэф.вариации |
0.056 |
0.097 |
0.151 |
Уже такая примитивная статистическая обработка данных эксперимента позволяет сделать ряд важных выводов:
· сравнительно малые значения рассеяния данных по дням недели и по категориям магазинов в какой то мере вселяют надежду на правильный выбор плана эксперимента;
· разброс значений по стратегиям на этом фоне, скорее всего свидетельствует о большей зависимости дневной выручки от стратегии, чем от дней недели или категории магазина;
· заметное отличие средних по 1-й и 3-й стратегиям от средних по 2-й и 4-й, может быть основой для принятия решения — искать наилучшую стратегию, выбирая между 1-й и 3-й.
В этом — прямой практический результат использования рандомизированного плана, построения латинского квадрата.
Но это далеко не все. Теория планирования эксперимента дает, кроме способов построения планов с учетом возможных влияний на интересующую нас величину других факторов, еще и особые методы обработки полученных экспериментальных данных.
Самая суть этих методов может быть представлена так.
Пусть Wis есть выручка в i-м магазине при применении к нему s-й стратегии управления. Предполагается рассматривать эту выручку в виде суммы составляющих
Wis = W0 + Ds + ei; {3-25}
где:
· W0 определяет среднюю выручку для всех магазинов при условии применения к каждому из них всех стратегий по очереди с соблюдением постоянными всех других условий, влияющих на выручку;
· W0 + Ds есть средняя выручка при применении ко всем магазинам s-й стратегии;
· ei рассматривается как "ошибка измерения" — случайная величина с нулевым математическим ожиданием и нормальным законом распределения.
Несмотря на явную нереальность соблюдения постоянными внешних влияющих факторов, мы можем получить оценку каждого из слагаемых Wis и искать оптимальную стратегию через прибавку от ее применения Ds с учетом ошибки наблюдения. Можно считать доказанной "нормальность" распределения величины ei и использовать "правило трех сигм" при принятии решений по итогам эксперимента.
Методы анализа больших систем, факторный анализ
Данный параграф является заключительным и более не будет возможности осветить еще одну особенность методов системного анализа, показать вам еще один путь к достижению профессионального уровня в области управления экономическими системами.
Уже ясно, что ТССА большей частью основывает свои практические методы на платформе математической статистики. Несколько упреждая ваш рабочий учебный план (курс математической статистики — предмет нашего сотрудничества в следующем семестре), обратимся к современным постулатам этой науки.
Общепризнанно, что в наши дни можно выделить три подхода к решению задач, в которых используются статистические данные.
· Алгоритмический подход, при котором мы имеем статистические данные о некотором процессе и по причине слабой изученности процесса его основная характеристика (например, эффективность экономической системы) мы вынуждены сами строить “разумные” правила обработки данных, базируясь на своих собственных представлениях об интересующем нас показателе.
· Аппроксимационный подход, когда у нас есть полное представление о связи данного показателя с имеющимися у нас данными, но неясна природа возникающих ошибок — отклонений от этих представлений.
· Теоретико-вероятностный подход, когда требуется глубокое проникновение в суть процесса для выяснения связи показателя со статистическими данными.
В настоящее время все эти подходы достаточно строго обоснованы научно и “снабжены” апробированными методами практических действий.
Но существуют ситуации, когда нас интересует не один, а несколько показателей процесса и, кроме того, мы подозреваем наличие нескольких, влияющих на процесс, воздействий — факторов, которые являются не наблюдаемыми, скрытыми или латентными.
Наиболее интересным и полезным в плане понимания сущности факторного анализа — метода решения задач в этих ситуациях, является пример использования наблюдений при эксперименте, который ведет природа, Ни о каком планировании здесь не может идти речи — нам приходится довольствоваться пассивным экспериментом.
Удивительно, но и в этих “тяжелых” условиях ТССА предлагает методы выявления таких факторов, отсеивания слабо проявляющих себя, оценки значимости полученных зависимостей показателей работы системы от этих факторов.
Пусть мы провели по n наблюдений за каждым из k измеряемых показателей эффективности некоторой экономической системы и данные этих наблюдений представили в виде матрицы (таблицы).
Матрица исходных данных E[n·k] {3-26}
E 11 |
E12 |
… |
E1i |
… |
E1k |
E 21 |
E22 |
… |
E2i |
… |
E2k |
… | … | … | … | … | … |
E j1 |
Ej2 |
… |
Eji |
… |
Ejk |
… | … | … | … | … | … |
E n1 |
En2 |
… |
Eni |
… |
Enk |
Пусть мы предполагаем, что на эффективность системы влияют и другие — ненаблюдаемые, но легко интерпретируемые (объяснимые по смыслу, причине и механизму влияния) величины — факторы.
Сразу же сообразим, что чем больше n и чем меньше таких число факторов m (а может их и нет вообще!), тем больше надежда оценить их влияние на интересующий нас показатель E.
Столь же легко понять необходимость условия m < k, объяснимого на простом примере аналогии — если мы исследуем некоторые предметы с использованием всех 5 человеческих чувств, то наивно надеяться на обнаружение более пяти “новых”, легко объяснимых, но неизмеряемых признаков у таких предметов, даже если мы “испытаем” очень большое их количество.
Вернемся к исходной матрице наблюдений E[n·k] и отметим, что перед нами, по сути дела, совокупности по n наблюдений над каждой из k случайными величинами E1, E2, … E k. Именно эти величины “подозреваются” в связях друг с другом — или во взаимной коррелированности.
Из рассмотренного ранее метода оценок таких связей следует, что мерой разброса случайной величины E i служит ее дисперсия, определяемая суммой квадратов всех зарегистрированных значений этой величины S(Eij)2 и ее средним значением (суммирование ведется по столбцу).
Если мы применим замену переменных в исходной матрице наблюдений, т.е. вместо Ei j будем использовать случайные величины
Xij = , {3-27}
то мы преобразуем исходную матрицу в новую
X[n·k] {3-28}
X 11 |
X12 |
… |
X1i |
… |
X1k |
X 21 |
X22 |
… |
X2i |
… |
X2k |
… | … | … | … | … | … |
X j1 |
Xj2 |
… |
Xji |
… |
Xjk |
… | … | … | … | … | … |
X n1 |
Xn2 |
… |
Xni |
… |
Xnk |
Отметим, что все элементы новой матрицы X[n·k] окажутся безразмерными, нормированными величинами и, если некоторое значение Xij составит, к примеру, +2, то это будет означать только одно - в строке j наблюдается отклонение от среднего по столбцу i на два среднеквадратичных отклонения (в большую сторону).
Выполним теперь следующие операции.
· Просуммируем квадраты всех значений столбца 1 и разделим результат на (n - 1) — мы получим дисперсию (меру разброса) случайной величины X1 , т.е. D1. Повторяя эту операцию, мы найдем таким же образом дисперсии всех наблюдаемых (но уже нормированных) величин.
· Просуммируем произведения соответствующих строк (от j =1 до j = n) для столбцов 1,2 и также разделим на (n -1). То, что мы теперь получим, называется ковариацией C12 случайных величин X1 , X2 и служит мерой их статистической связи.
· Если мы повторим предыдущую процедуру для всех пар столбцов, то в результате получим еще одну, квадратную матрицу C[k·k], которую принято называть ковариационной.
Эта матрица имеет на главной диагонали дисперсии случайных величин Xi, а в качестве остальных элементов — ковариации этих величин ( i =1…k).
Ковариационная матрица C[k·k] {3-29}
D1 |
C12 |
C13 |
… | … |
C1k |
C21 |
D2 |
C23 |
… | … |
C2k |
… | … | … | … | … | … |
Cj1 |
Cj2 |
… |
Cji |
… |
Cjk |
… | … | … | … | … | … |
Cn1 |
Cn2 |
… |
Cni |
… |
Dk |
Если вспомнить, что связи случайных величин можно описывать не только ковариациями, но и коэффициентами корреляции, то в соответствие матрице {3-29} можно поставить матрицу парных коэффициентов корреляции или корреляционную матрицу
R [k·k] {3-30}
1 |
R12 |
R13 |
… | … |
R1k |
R21 |
1 |
R23 |
… | … |
R2k |
… | … | … | … | … | … |
Rj1 |
Rj2 |
… |
Rji |
… |
Rjk |
… | … | … | … | … | … |
Rn1 |
Rn2 |
… |
Rni |
… | 1 |
Так вот, пусть мы полагали наблюдаемые переменные Ei независящими друг от друга, т.е. ожидали увидеть матрицу R[k·k] диагональной, с единицами в главной диагонали и нулями в остальных местах. Если теперь это не так, то наши догадки о наличии латентных факторов в какой-то мере получили подтверждение.
Но как убедиться в своей правоте, оценить достоверность нашей гипотезы — о наличии хотя бы одного латентного фактора, как оценить степень его влияния на основные (наблюдаемые) переменные? А если, тем более, таких факторов несколько — то как их проранжировать по степени влияния?
Ответы на такие практические вопросы призван давать факторный анализ. В его основе лежит все тот же “вездесущий” метод статистического моделирования (по образному выражению В.В.Налимова — модель вместо теории).
Дальнейший ход анализа при выяснению таких вопросов зависит от того, какой из матриц мы будем пользоваться. Если матрицей ковариаций C[k·k], то мы имеем дело с методом главных компонент, если же мы пользуемся только матрицей R[k·k], то мы используем метод факторного анализа в его “чистом” виде.
Остается разобраться в главном — что позволяют оба эти метода, в чем их различие и как ими пользоваться. Назначение обоих методов одно и то же — установить сам факт наличия латентных переменных (факторов), и если они обнаружены, то получить количественное описание их влияния на основные переменные Ei.
Ход рассуждений при выполнении поиска главных компонент заключается в следующем. Мы предполагаем наличие некоррели-рованных переменных Zj ( j=1…k), каждая из которых представляется нам комбинацией основных переменных (суммирование по i =1…k):
Zj = S Aj i ·X i {3-31}
и, кроме того, обладает дисперсией, такой что
D(Z1) і D(Z2) і … і D(Zk).
Поиск коэффициентов Aj i (их называют весом j-й компонеты в содержании i-й переменной) сводится к решению матричных уравнений и не представляет особой сложности при использовании компьютерных программ. Но суть метода весьма интересна и на ней стоит задержаться.
Как известно из векторной алгебры, диагональная матрица [2·2] может рассматриваться как описание 2-х точек (точнее — вектора) в двумерном пространстве, а такая же матрица размером [k·k]— как описание k точек k-мерного пространства.
Так вот, замена реальных, хотя и нормированных переменных Xi на точно такое же количество переменных Z j означает не что иное, как поворот k осей многомерного пространства.
“Перебирая” поочередно оси, мы находим вначале ту из них, где дисперсия вдоль оси наибольшая. Затем делаем пересчет дисперсий для оставшихся k-1 осей и снова находим “ось-чемпион” по дисперсии и т.д.
Образно говоря, мы заглядываем в куб (3-х мерное пространство) по очереди по трем осям и вначале ищем то направление, где видим наибольший “туман” (наибольшая дисперсия говорит о наибольшем влиянии чего-то постороннего); затем “усредняем” картинку по оставшимся двум осям и сравниваем разброс данных по каждой из них — находим “середнячка” и “аутсайдера”. Теперь остается решить систему уравнений — в нашем примере для 9 переменных, чтобы отыскать матрицу коэффициентов (весов) A[k·k].
Если коэффициенты Aj i найдены, то можно вернуться к основным переменным, поскольку доказано, что они однозначно выражаются в виде (суммирование по j=1…k)
X i = S Aji·Z j . {3-32}
Отыскание матрицы весов A[k·k] требует использования ковариационной матрицы и корреляционной матрицы.
Таким образом, метод главных компонент отличается прежде все тем, что дает всегда единственное решение задачи. Правда, трактовка этого решения своеобразна.
· Мы решаем задачу о наличии