МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ




 

В отличие от всех ранее разработанных методов анализа многомерных наблюдений, таких как факторный анализ, кластер-анализ и т.д., обсуждавшихся подробно в отечественной психофизической литературе, модель многомерного шкалирования (МШ) известна значительно меньше. Это обстоятельство требует детального изложения общих принципов МШ и тех вычислительных алгоритмов, которые будут использованы в учебных заданиях.

 

§ 1. Основные положения

 

В основе модели МШ лежит целый ряд предположений о структуре процессов различения объектов-стимулов. Физически каждый объект-стимул характеризуется множеством признаков, например, “объем”, “форма”, “пространственное положение”, “высота”, “длина” и т.п. Сами признаки могут быть простыми и сложными, многомерными. Например, “высота” и “длина” — одномерные признаки, а “форма” и “положение” — многомерные. Отдельный одномерный признак может служить какой-либо одной размерностью более сложного признака. Так, “высота” геометрической фигуры есть одна из размерностей признака “форма”. Каждый стимул характеризуется определенными значениями или степенью выраженности признака.

Точно так же, как стимул характеризуется набором некоторых физических признаков, перцептивный образ стимула (иногда говорят просто — образ) можно характеризовать набором субъективных признаков. Психофизикам известно, что такому, например, физическому признаку стимула, как интенсивность светового излучения, субъективно соответствует яркость; такому, как вес — тяжесть и т.п. Субъективные признаки, также как и физические, могут быть простыми (одномерными) и сложными (многомерными). Однако физическая размерность стимула и субъективная размерность образа в общем случае не совпадают. МШ основывается на положении, что различение стимулов определяется расхождением по ограниченному числу простых субъективных признаков, которые явно или неявно учитываются при суждениях о различии или сходстве стимулов. Исходя из этого положения и ставится главная задача многомерного шкалирования — найти минимальное число субъективных признаков, определяющих различение стимулов человеком, и вычислить значение признаков, которыми характеризуются данные стимулы.

Такая постановка задачи — выявление системы базисных субъективных признаков стимула независимо от их физических коррелятов — позволяет подойти по-новому и к решению основной психофизической задачи — построению функции, связывающей субъективную шкалу стимулов. В отличие от традиционного подхода, когда для заданного физического признака стимулов строится соответствующая субъективная шкала и определяется связывающая их психофизическая функция, МШ дает возможность для заданного субъективного признака стимула определять его физический коррелят, т.е. брать за основу не физическую, а психологическую характеристику стимула. Такой подход к построению психофизической функции может быть полезным для случаев, когда один субъективный признак определяется системой нескольких физических признаков, или когда изменение одного физического признака ведет к изменению сразу нескольких субъективных признаков.

Решение задачи МШ основано на использовании понятия психологического пространства, точки которого представляют исходные стимулы. Аналогично геометрическим представлениям вводится система координат, число которых определяется числом простых субъективных признаков. Это число задает размерность психологического пространства. Оси координат представляют собой шкалы соответствующих субъективных признаков, и положение точек-стимулов в пространстве задано шкальными значениями признаков. Число субъективных шкал и шкальные значения стимулов характеризуют пространственную модель МШ.

Следующее положение, которое также лежит в основании МШ, касается суждений о сходстве или различии между стимулами. Эти суждения предполагаются связанными с положением точек-стимулов в пространстве, поскольку чем более сходны между собой стимулы, тем ближе друг к другу в пространстве представляющие их точки, и наоборот, увеличение воспринимаемого различия между стимулами означает большее пространственное разделение соответствующих точек.

Иначе говоря, предполагается, что расстояние между точками в пространстве есть некоторая функция от субъективного сходства или различия. Метрическая задача МШ заключается в том, чтобы через получаемые суждения о сходстве или различии между стимулами определить расстояния между точками. Решение задачи состоит в построении модели субъективного расстояния в психологическом пространстве.

Формально общая задача МШ выражается следующим образом. По заданной симметричной матрице различий между стимулами

 
 


(1)

 

 

нужно построить метрическую и пространственную модели стимулов, т.е. определить размерность пространства и координаты точек-стимулов в этом пространстве

 

 
 


(2)

 

 

таким образом, чтобы матрица расстояний, вычисленных между точками на основании метрической модели расстояния

 

 
 


(3)

 

 

была бы в смысле некоторого критерия возможно более близка к исходной матрице различий D (Терехина, 1986).

В МШ существуют два подхода к решению общей задачи — метрический и неметрический. В метрическом МШ на первом этапе строится модель субъективного расстояния. Исходные оценки сходств или различий преобразуются таким образом, чтобы числовые значения удовлетворяли аксиомам геометрического расстояния. На втором этапе по матрице абсолютных расстояний рассчитываются координаты точек и определяется размерность пространства. Для неметрического шкалирования существенными являются не абсолютные числовые значения оценок сходства, а только их порядок. Пространственная модель строится прямо по исходным данным о сходствах или различиях, при этом предполагается, что исходные оценки и межточечные расстояния связаны некоторой неизвестной и монотонной зависимостью, т.е. порядок межточечных расстояний должен соответствовать порядку исходных оценок.

Очевидно, что если исходные данные представлены в виде действительной симметричной матрицы порядка n с элементами не равными нулю, то всегда можно получить конфигурацию точек в пространстве размерности (n-1), удовлетворяющую этому условию. Однако если учитывать главную задачу МШ — определение минимальной размерности пространства, то задача построения пространственной модели сразу становится нетривиальной. Это наглядно иллюстрируется теоремой Гуттмана, которая гласит, что элементы действительной симметричной матрицы порядка n могут быть строго монотонны с расстояниями между n точками в действительном евклидовом пространстве размерностью не более, чем (n-2), только в том случае, если элементы матрицы не равны нулю и не совпадают друг с другом.

Иначе говоря, возможность уменьшения размерности при условии сохранения монотонности связана с дополнительными ограничениями, которым должно удовлетворять искомое решение. Последнее, в свою очередь, означает, что исходные данные должны обладать значительной избыточностью, по сравнению с искомым решением. В каком случае это возможно? Конфигурация точек в пространстве определяется nr степенями свободы (где n — число точек-стимулов, r — размерность пространства). Исходная матрица различий имеет c2степеней свободы. Следовательно, избыточность исходных данных будет зависеть от того, насколько число стимулов n больше, чем размерность r. Чем больше число стимулов по сравнению с размерностью, тем больше избыточность исходной матрицы и тем более определенной оказывается пространственная и метрическая структура данных, вплоть до нахождения единственного решения, если, конечно, такое решение возможно в принципе. Шепард (1966) показал, что при размерности 2 или 3 для метрического решения практически достаточно 10—15 точек-стимулов.

Таким образом, два неметрических условия, на которые ориентируется решение — монотонности и минимальной размерности — могут дать полную метрическую информацию об исходных данных.

Рассмотрим вкратце принципы достижения монотонности и понижения размерности, которые лежат в основе неметрических алгоритмов.

Достижение монотонности. Условие монотонности означает, что порядок межточечных расстояний dijдолжен соответствовать порядку межстимульных различий Dij. Для того, чтобы сделать возможным последовательное сравнение двух порядков, различия и расстояния ранжируются в два отдельных ряда от нуля (минимальная величина) до 1 (максимальная величина). Достижение монотонности есть приведение к нулю всех проранжированных разностей (Dij- dij), т.е.:

(4)

 

Положительное значение (Dij- dij) означает, что порядок расстояния меньше порядка различия, а отрицательное — что больше. Если данная конфигурация точек (полученная каким-либо произвольным способом) не удовлетворяет условию (4), то конфигурация меняется путем сжатия расстояний с большим рангом и растяжения расстояний с меньшим рангом, чем соответствующий ранг различия. С этой целью для каждой i-й точки по линии, соединяющей ее с j-ой точкой, формируется вектор. Направление вектора определяется знаком разности (Dij- dij).

Если ранг различия больше ранга расстояния, то вектор направлен от точки i к точке j, а при отрицательной разности вектор направлен обратным образом. Длина вектора зависит от величины различия (Dij- dij). Для каждой точки i формируется (n-1) подобных векторов. Их общее действие можно представить как действие (n-1)-мерного вектора, приложенного к данной точке i. Перемещение всех точек таким образом приводит к новой конфигурации. Понятно, что новая конфигурация не сразу же после первого шага будет удовлетворять условию монотонности, поскольку каждая точка сдвигается по компромиссному направлению. Процедура достижения монотонности носит итеративный характер и может состоять из значительного числа шагов (Шепард, 1962).

 

§ 2. Исходные данные. Матрица сходств и различий

 

Для МШ существенным является определенная организация исходного экспериментального материала в так называемую матрицу сходств. Элементом матрицы (Sij) является некоторая мера сходства между парой стимулов i и j или обратная ей величина Dij— мера различия.

Оценки различий можно получить от испытуемого разными методами. В каждом случае выбор метода шкалирования различий зависит от конкретных экспериментальных условий. Но существует разделение этих методов на два больших класса, которое зависит только от того, какая модель МШ используется для анализа матрицы различий — метрическая или неметрическая.

Условия, налагаемые на элементы матрицы различий в метрическом МШ, строго соответствуют аксиомам расстояния в геометрическом пространстве:

1. Рефлексивность различия:

Dij= 0 (5)

подразумевает, что различие между двумя идентичными стимулами (диагональные элементы матрицы различий) должно равняться нулю.

2. Симметричность различий:

Dij = Dji (6)

означает, что оценка различия не должна зависеть от временных и пространственных перестановок стимулов относительно друг друга при оценивании (элементы матрицы различий, симметричные относительно главной диагонали).

3. Аксиома треугольника:

Dij+ Djk ³ Dik (7)

требует, чтобы суммарное различие между любыми двумя парами из трех данных стимулов было не меньше, чем различие между оставшейся парой стимулов.

В терминах теории измерений это означает, что субъективные оценки различий должны представлять собой величины на шкале отношений. Только в этом случае их можно рассматривать непосредственно как расстояния между точками в психологическом пространстве или субъективные расстояния.

Методы для шкалирования психологического расстояния между сложными стимулами в большей части прямо аналогичны методам одномерного шкалирования. Большинство методов вполне могут быть расширены до шкалирования многомерных различий. Однако в каждом случае от испытуемого требуется более сложное суждение. Прямое расширение моделей требует некоторой модификации (Торгерсон, 1958). Эти изменения определяются, во-первых, усложнением стимулов, и, во-вторых, сменой содержания оценочных суждений. В одномерном случае оценка представляет величину стимула на шкале, тогда как в МШ оценивается психологическое расстояние между парами стимулов. Если в ситуации одномерного шкалирования шкала отношений или интервалов строилась для самих оценок стимулов, то теперь эти шкалы строятся для межстимульных различий.

Несколько более слабые ограничения налагает на элементы матрицы различий модель неметрического МШ. В общем случае достаточно, чтобы оценки различий удовлетворяли отношениям, установленным для шкалы порядка. Методы порядкового шкалирования основываются на ясных и простых принципах, которые легко реализуются в большинстве экспериментальных ситуаций.

Например, испытуемому могут быть предъявлены все пары стимулов одновременно и он должен упорядочить их по степени сходства. Иногда порядок различия оценивается в баллах.

В некоторых случаях информацию о сходствах можно получить из данных о смешении стимулов. Информацию о смешениях можно получить на основе идентификации испытуемым предъявляемых стимулов. Тогда в клетку ij матрицы заносится число, равное числу случаев, когда испытуемый идентифицировал стимул i как j. Частота случаев идентификации стимула i как j может служить мерой их сходства. Испытуемому можно предложить упорядочить все стимулы в один ряд. Такое упорядочивание производится по отношению к каждому стимулу. Сходство двух стимулов оценивается по частоте их попадания в соседние участки ряда.

Пристального внимания заслуживает вариант, в котором предлагается упростить работу испытуемого, заменив задачу оценивания попарных различий более простой задачей классификации стимулов. Пусть имеется множество многомерных стимулов (цвета, шрифты, вкусовые качества пищевых продуктов, геометрические фигуры и т.п.). Для данного множества стимулов < N> выбирается произвольный набор классов <k > (категорий, наименований) так, чтобы каждый стимул всегда можно было бы отнести по крайней мере к какому-нибудь одному классу. Набор классов должен исчерпывать классификацию стимулов. Например, для множества вкусовых качеств пищевых продуктов можно предложить набор из четырех основных классов (кислый, сладкий, горький, соленый). Классификация заключается в отнесении каждого данного стимула к одному или нескольким классам. Причем, если стимул относится к одному классу, например, “кислый” для вкуса, то класс заполняется полным весом стимула, или единицей, если же стимул относится сразу к двум классам, например, “кисло-сладкий”, то каждому классу приписывается по половине веса стимула. Если имеет значение место класса в названии, то тому классу, который ставится на первое место, надо приписывать больше веса. Процедура распределения весов стимулов при классификации может быть самой различной, необходимо лишь, чтобы сохранялось порядковое соответствие между распределением весов по классам и предпочтением при классификации стимулов.

В результате классификации стимулов по данному набору классов строится матрица Eij, в которой строка определяется номером стимула Si- Sn, а столбец указывает класс (Ai+ Aj). Элементом матрицы Eijявляется число, показывающее вес стимула Siпо классу Aj, просуммированный по числу предъявлений. Каждая строка матрицы представляет собой вектор, компонентами которого служат элементы строки. Все строки образуют векторное пространство реакций размерности k (по числу классов). В этом пространстве вводится некоторая мера различия между векторами, и тогда попарные различия всех векторов дадут матрицу субъективных различий между стимулами. Полученная таким образом матрица различий вводит данные в систему МШ.

Такая процедура успешно применялась Шепардом и Кэрролом (1966) и Измайловым (1979) к данным называния цветов Бойтона и Гордона (1965) для построения пространства цветоразличения.

 

§ 3. Построение пространственной модели стимулов

 

Как уже было сказано, построение психологического пространства предполагает решение двух самостоятельных задач: определения минимального числа осей, необходимых и достаточных для описания структуры межстимульных различий, и вычисления числовых значений, определяющих положение каждого стимула относительно базисных осей координат.

1. Определение базисной размерности.

Определение достаточного числа измерений основано на выборе некоторого критерия, по которому оценивается расхождение между исходной матрицей данных и вычисленными межточечными расстояниями. В идеальном случае это расхождение должно равняться нулю, но в эмпирических данных всегда присутствуют случайные ошибки — шум, величина которого чаще всего неизвестна, поэтому на практике критерий выбирается не нулевой, но достаточно небольшой.

Например, Торгерсон (1958) предлагает следующий метод для определения минимальной размерности. Вычисляется центрированная матрица скалярных произведений между стимулами. Характеристические корни этой матрицы упорядочиваются по величине. Размерность определяется по числу собственных векторов, соответствующих наибольшим характеристическим корням, так, чтобы разброс полученных координат вносил достаточно большой вклад в дисперсию (75—96%). Остальная часть дисперсии рассматривается как следствие случайных ошибок.

Метод определения минимального числа измерений в ходе построения пространственной модели впервые был предложен Шепардом (1962). Он основан на общем принципе понижения размерности, который представляет собой растяжение больших и сжатие маленьких расстояний. Действительно, чтобы поместить, например, треугольник в одномерном пространстве, не нарушая условия монотонности, необходимо сжать его меньшие стороны и растянуть большую. Процедура понижения размерности, так же как и достижение монотонности, основана на формировании множества векторов для каждой точки i, которые должны сжимать маленькие расстояния и растягивать большие. Критерием разделения расстояний на маленькие и большие служит среднее арифметическое расстояний. Поскольку процедура понижения размерности ориентирована на выполнение условия полной монотонности по отношению к различиям, то вместо рангов расстояний, которые на данном шаге итерации не обязательно удовлетворяют условию монотонности, лучше брать ранг самих различий. Тогда вектор, формирующийся для точки i по отношению к точке j, будет определять направление вектора (от точки i к точке j или наоборот), а величина разности (Dij-D) будет определять длину вектора. Сформированные таким образом (n-1) векторы для данной точки i также рассматриваются как действующие аналогично (n-1)-мерному вектору. Как и в ходе достижения монотонности, на каждом шаге итерации меняется положение всех n точек.

При использовании подобных формальных критериев полезно учитывать, что качество аппроксимации исходных данных построенным пространством тем выше, чем больше выбранное число измерений (Спенс, 1972). При увеличении размерности величина ошибки монотонно убывает (рис. 1), поэтому предпочтительнее такое число осей r, при котором эта функция становится достаточно пологой.

 
 

 

 


Рис. 1. Примерный вид функции, связывающей величину ошибки с числом измерений пространства

 

Формальные критерии определения размерности имеют довольно приблизительную ценность, поскольку в каждом случае выбор критерия оказывается достаточно произвольным. Более важными являются другие критерии, которые основаны на хорошей содержательной интерпретации полученного решения. Содержательная интерпретация есть конечный результат производимого анализа, и в любом случае именно она определяет и значимость построенного пространства, и правильность выбора размерности.

Поэтому некоторые авторы (Крускал, 1964) предлагают производить отображения отдельно в одно-, двух-, трех- и т.д. -мерные пространства, строить там оптимальные конфигурации точек и затем выбрать из них такую, которая с точки зрения содержательной интерпретации даст наилучшее решение. Для хорошей интерпретации существенно правильное направление осей координат. В некоторых случаях (Виш и Кэррол, 1974) направление осей координат выбирается в ходе самого алгоритма построения пространственной модели, но в большинстве алгоритмов МШ оси координат имеют произвольное направление, поэтому для облегчения содержательной интерпретации используют вращение пространства с тем, чтобы получить оси, связанные с определенными группами стимулов. Аналогичным вспомогательным средством является и метод приведения к главным осям (Терехина, 1974).

Обычно только небольшое число осей получает удовлетворительную интерпретацию, остальные измерения чаще всего являются следствием экспериментального шума. Некоторые измерения могут быть связаны с отдельным подмножеством стимулов, или с данным типом испытуемых, поэтому большой разброс, полученный по данной размерности, еще не означает ее общей важности. Из этого следует очень важный вывод, что окончательное решение не может быть основано на результатах отдельных экспериментов, а необходимо исследование независимых групп данных с привлечением различных методов МШ.

2. Вычисление координат.

К настоящему времени для вычисления координат точек в психологическом пространстве различными авторами разработано большое количество разнообразных алгоритмов. В данной работе рассматриваются только три из них, которые непосредственно использовались для анализа экспериментальных данных.

Метод ортогональных проекций. Одним из наиболее простых метрических методов МШ является метод ортогональных проекций (Орлочи, 1967; Соколов и др., 1975). Суть его заключается в следующем.

Если есть множество точек, заданных расстояниями между ними, то мы можем максимальное из этих расстояний принять за первую ось (Х 1). Точки, заданные этим максимальным расстоянием, обозначим как 1 и 2, затем точку 1 на этой оси примем за начало оси Х 1и спроектируем ортогонально все остальные точки на ось Х 1. Тогда точка 1 имеет координату Х 11= 0, а точка 2 — координату Х 12= d12.

Величина проекции для каждой точки i (кроме первых двух точек) вычисляется по известной геометрической формуле:

 
 

 


(7)

 

Далее легко вычисляются расстояния от каждой точки до оси Х1по формуле:

 
 


(8)

 

Если все hi=0, то очевидно, что все точки лежат на оси Х 1, т.е. пространство данных точек одномерно. Если некоторые hi>0, то из них выбирается максимальное (hmax) и принимается за ось Х 2, то есть hmax= Х 23, а точка пересечения hmaxс осью Х 1есть начало оси Х2(рис.2).

Затем все остальные точки ортогонально проецируются на ось Х 2и величина проекции вычисляется по формулам:

(9)

где (10)

 

 

Объединив эти формулы, получим:

 

(11)

 

Расстояние от каждой точки до плоскости Х1Х2определится теперь как

 
 


(12)

 

 
 

 

 


И в этом случае, если все qi=0, то, следовательно, все точки лежат на плоскости Х1Х2 и выделение следующей оси пространства не имеет смысла.

Далее, если qi отличны он нуля, то выбирается точка с максимальным значением — qmaxи принимается за четвертую точку, и тогда через эту точку 4 будет проходить ось Х3. Далее вычисляются проекции всех остальных точек на эту ось:

(13)

 

Точка, наиболее удаленная от гиперплоскости в пространстве размерности r, ищется из условия:

(14)

 

Процедура продолжается до тех пор, пока сумма всех проекций на k-ю ось не окажется меньше некоторого наперед заданного критерия. Например, эффективность решения можно определять отношением:

 
 


(15)

 

Обычно ограничиваются таким количеством осей, которое дает разброс, исчерпывающий до 70-90% дисперсии.

Число полученных осей рассматривается как минимальная размерность субъективного пространства, необходимая, чтобы удовлетворялась совместимость всех межточечных расстояний. Простота этого метода делает его удобным для применения к данным, структура которых имеет линейный характер. Однако получающаяся картина существенно зависит от первоначально взятых расстояний, т.е. решение оказывается зависимым от зашумленности исходных данных. Необходимо также отметить, что результирующее пространство определяется всего по нескольким точкам, и поэтому отдельные изолированные точки могут полностью определить решение задачи (Аустин, Орлочи, 1966). Очевидно, что метод, в котором пространство определяется разбросом всех точек, будет иметь более общий характер. Именно такой метод был предложен Торгерсоном (1952, 1958).

Метод Торгерсона. Метод метрического МШ, описанный в работах Торгерсона (1952, 1958), свободен от большинства недостатков метода ортогональных проекций и дает решение, независимое от начального этапа вычислений. Он основан на процедурах аппроксимации исходной матрицы матрицей меньшего ранга (Янг, Хаусхольдер, 1938).

Пусть dij, dikи djk— симметричные расстояния между тремя точками i, j и k. Рассмотрим симметричную матрицу Bi*с элементами b*ijи размерностью (n-1)(n-1), где:

(16)

 

Элемент b*ijпредставляет собой скалярное произведение векторов от точки i к точкам j и k. Это легко показать с помощью закона косинуса, где для любых трех точек

(17) откуда

(18)

 

 

Из уравнений (16) и (18) следует, что b*ij= dijdikcos, т.е. скалярному произведению векторов из точки i к точкам j и k. Любая из n точек может быть взята как точка i. Таким образом существуют n матриц B*, из которых каждая может быть взята как данная матрица скалярных произведений.

Теоремы Янга и Хаусхольдера показывают, как из матрицы скалярных произведений векторов, начинающихся в точке i, получить информацию о том, возможно ли разместить исходную совокупность точек в вещественном евклидовом пространстве, и если возможно, то какова его минимальная размерность и чему равны координаты точек на этих осях.

Теоремы Янга и Хаусхольдера относятся к любой Bi* матрице:

1. Если матрица Bi* положительно полуопределена, расстояния между стимулами могут рассматриваться как расстояния между точками, лежащими в действительном евклидовом пространстве. В терминах характеристических корней или собственных значений матрицы Bi* это означает, что точки могут рассматриваться лежащими в действительном евклидовом пространстве, если все корни или положительны, или равны 0. Отрицательные характеристические корни предполагают мнимые пространства.

2. Ранг любой положительной полуопределенной матрицы равняется размерности множества точек. Количество положительных значений равняется числу осей, необходимых для описания взаимных межточечных расстояний. Для данного набора стимулов матрица Bi*будет иметь один и тот же ранг, независимо от того, какой стимул выбран как начало.

3. Любая положительная полуопределенная матрица Bi* может быть факторизована для получения матрицы Х, где:

Bi* = X·X'. (19)

Если ранг матрицы Bi* равен r, где r  (n-1), тогда матрица Х является прямоугольной матрицей (n-1)´r, элементы которой есть проекция точек на r-ортогональные оси с началом в i-ой точке r-мерного евклидова пространства. Допуская, что для выбора стимулов даны межточечные расстояния (не содержащие случайных ошибок), а матрица Bi* была построена в заданном начале, различные методики для факторизации матрицы Bi* дадут различные матрицы Х, которые, однако, будут связаны ортогональным вращением осей. Матрицы Bi*, построенные посредством использования различных точек как начала расчета, дадут соответствующие матрицы Х, которые не отличаются друг от друга с точностью до переноса и вращения осей.

Три теоремы, приведенные выше, определяют решение проблемы пространственной модели стимулов, когда заданы правильные межточечные расстояния. Первая теорема определяет, могут ли стимулы быть представлены точками действительного евклидова пространства. Вторая теорема дает критерии для определения минимальной размерности пространства. Третья теорема дает метод для получения проекций (шкальных оценок) на произвольном наборе осей пространства.

Однако на практике межточечные расстояния всегда даны нам с ошибками. Когда используются ошибочные оценки, то каждая точка будет отчасти ошибочной. Следовательно, в случае допущения, что истинная размерность значительно меньше, чем число стимулов, каждая матрица Bi* после факторизации даст результаты, которые более или менее различаются из-за ориентации осей и положения начала. При установлении начала в определенной точке возникает неявное предположение, что эта определенная точка является безошибочной. Таким образом мы сталкиваемся с проблемой выбора между n различными факторными матрицами, которые могут быть получены из данных. Одно из решений этой проблемы состоит в том, чтобы поместить начало координат не в какой-либо точке, а в центре тяжести всех точек-стимулов (Торгерсон, 1952, 1958, 1972). Эта процедура дает единственное решение и стремится взаимно компенсировать случайные ошибки для каждой отдельной точки. Опыт показывает, что помещение начала координат в центре тяжести всех точек приводит к меньшим ошибкам, чем помещение его в какую-либо произвольную точку. Рассмотрим процедуру для получения матрицы скалярных произведений векторов с началом в центре тяжести всех точек.

Пусть Bi* — матрица скалярных произведений размерностью (n-1)(n-1) с центром в точке i. Ее элемент:

(20)

 

Мы будем рассматривать Bi* как матрицу размерностью (n·n) с i-й строкой и j-м столбцом, составленными из нулевых элементов. Таким же образом матрицу Х можно рассматривать как матрицу размерностью (n·r) с i-й строкой, составленной из нулевых элементов.

Наша задача — перенести оси координат из начала в точке i в начало, которое будет центром тяжести для всех точек.

Пусть X0 — есть искомая матрица проекций точек j на ось e0нескольких координатных систем с началом в центре тяжести n точек. Тогда:

(21)

где (22)

 

и равно средней проекции точек на ось e (т.е. проекции центроида на ось е),

 

B * = X0X0 ' (23)

 

и

 
 


И (24)

 

Подставляя уравнение (21) в уравнение (24), получим:

(25)

 

Из определения ce видно, что

(26)

 

но

(27)

 

и

(28)

 

После подстановок получим:

(29)

 

Подстановка bjkиз уравнения (16) в уравнение (29) дает:

 
 


(30)

Суммирование каждого выражения в отдельности и упрощение приводит к:

 

(31)

 

Уравнение (31) дает стандартный прямой метод, чтобы из межточечных расстояний вычислить матрицу B*скалярных произведений с началом координат в центре тяжести всех точек. Получив оценки субъективных расстояний между всеми парами стимулов, уравнением (31) пользуются для вычисления матрицы B*. Затем эта матрица факторизуется посредством любого из обычных методов факторизации для получения проекций стимулов на r ортогональных осей пространства, проходящих через центр тяжести всех объектов. Ориентация осей зависит как от конфигурации, так и от выбранного способа факторизации (Торгерсон, 1958). Матрица B*факторизуется в общем аналогично корреляционной или ковариационной матрице в методе главных компонент (Айвазян и др., 1974). По сравнению с другими ортогональными преобразованиями, преобразование к главным компонентам искажает структуру исходных данных наименьшим образом, поскольку всякий набор из данного числа главных компонент характеризует максимальный разброс точек, спроектированных в пространство этих главных компонент. Выбор числа главных компонент определяется величиной суммарной дисперсии, которую необходимо исчерпать в том или ином решении. На практике ограничиваются теми главными компонентами, которым соответствуют наибольшие характеристические корни, а все остальные компоненты отвергаются как незначительные.

Таким образом, метод Торгерсона дает возможность построить оптимальную пространственную модель стимулов в том смысле, что полученное решение не зависит от случайных экспериментальных ошибок, поскольку оно определяется структурой сразу всех стимулов. Однако необходимо учитывать, что пространственное представление стимулов, определенное по нескольким максимальным характеристическим корням матрицы скалярных произведений, может оказаться непригодным, если, например, истинная структура стимулов имеет локальные нелинейные цикличности (Терехина, 1977).

Алгоритм Янга-Торгерсона. Построение пространственной модели производится в два последовательных этапа. На первом этапе исходная матрица различий анализируется метрическим методом Торгерсона. По числу наибольших характеристических корней определяется размерность пространства, и таким образом формируется исходная конфигурация для n точек, между которыми вычисляются n(n-1)/2 расстояний.

На втором этапе данная конфигурация проверяется на выполнение условия монотонности. Для этого строится диаграмма монотонности. Она представляет собой график, осью абсцисс которого служат межточечные расстояния, а осью ординат — исходные различия. Каждой паре точек-стимулов (i,j) на этой диаграмме будет соответствовать точка с абсциссой dijи ординатой Dij. Условие монотонности означает, что от начальной точки графика каждая последующая точка должна располагаться только правее или выше предыдущей, и никогда не может быть ниже или левее. Если, следуя этому правилу, соединить последовательно все точки отрезками, то получится график, характеризующий монотонность связи между межточечными расстояниями и исходными различиями. Очевидно, что если для каких-либо пар точек-стимулов (i,j) монотонность не выполняе



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2017-12-12 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: