АкушерствоАнатомияАнестезиологияВакцинопрофилактикаВалеологияВетеринарияГигиенаЗаболеванияИммунологияКардиологияНеврологияНефрологияОнкологияОториноларингологияОфтальмологияПаразитологияПедиатрияПервая помощьПсихиатрияПульмонологияРеанимацияРевматологияСтоматологияТерапияТоксикологияТравматологияУрологияФармакологияФармацевтикаФизиотерапияФтизиатрияХирургияЭндокринологияЭпидемиология

Показатели претендентов на вакантные рабочие места

Прочитайте:
  1. IV. Показатели физического развития населения.
  2. Анализируемые показатели
  3. Анатомия мышц живота. Их функции. Влагалище прямой мышцы живота. Белая линия живота. Слабые места передней стенки брюшной полости.
  4. Антропометрические показатели физического развития
  5. Антропометрические показатели, их определение.
  6. Б) подкожно, меняя места введения
  7. Б. Биохимические показатели мочи
  8. Б. Тромботических наложений в местах повреждения эндотелия
  9. Бактериологические показатели молока
  10. Биохимические показатели в сыворотке крови у детей различного возраста
ТП УГР УМД ЛК ВР П
К С Р СВ РД
1 ЧЗ СР               Ж
2 ЧЗ СР               Ж
3 ЧЗ СУ               М
4 ЧП СО               Ж
5 ЧХО СУ               М
6 ЧТ СР               М
7 ЧЧ СР               Ж
8 ЧЗ СУ               М
9 ЧЧ СР               Ж
10 ЧЧ СУ               Ж
11 ЧЗ СР               М
12 ЧЧ СУ               Ж
13 ЧЧ СР               М
14 ЧХО СУ               Ж
15 ЧЧ СУ               М
16 ЧХО СР               М
17 ЧЧ СУ               М
18 ЧТ СР               Ж
19 ЧЧ СР               М
20 ЧЗ СУ               Ж
21 ЧТ СУ               Ж
22 ЧХО СР               М
23 ЧЧ СР               Ж
24 ЧЗ СО               Ж
25 ЧЧ СУ               М
26 ЧЧ СР               Ж
27 ЧЗ СУ               Ж
28 ЧЧ СО               М
29 ЧЗ СР               М
30 ЧЗ СУ               Ж

Решение:

Действуя по алгоритму, предложенному в начале раздела 11.5, заметим, что данная задача является менее стандартной, чем рассмотренные до этого задачи 11.5-1 – 11.5-3. Главная ее особенность – наличие разнотипных (смешанных) измерительных шкал: действительно, здесь встречаются шкалы интервальные (показатели УМД и ВР), ранговые (показатель УГР), номинальные (показатель ТП) и их частный случай – дихотомические (показатель П). Особый вопрос – к какому типу шкалы отнести показатели локуса контроля К, С, Р, СВ и РД. На первый взгляд, они относятся к ранговой шкале, так как представляют собой ранговые предпочтения, указанные респондентами. Однако такое решение будет ошибочным: ведь ранжирование в данном случае выполняется внутри ответов одного респондента, а не по всей выборке эмпирических данных. Поэтому на самом деле эти показатели представляют собой своеобразные «сырые баллы», но их характер по отношению к различным испытуемым действительно позволяет построить из них ранговую шкалу, только для этого необходимо выполнить стандартную процедуру ранжирования (по столбцу, то есть – по всем испытуемым выборки).

Наличие разнотипных измерительных шкал подсказывает нам, что для корректного решения данной задачи не подходят меры сходства или различия, предназначенные для работы с однородными шкалами (причем любых типов – и интервальными, и порядковыми, и дихотомическими). Как уже отмечалось, из этой ситуации есть два корректных выхода:

· Воспользоваться мерами различия или сходства, специально предназначенными для работы со смешанными шкалами (см. раздел 11.2). Однако, к сожалению, такие меры не реализованы в большинстве стандартных статистических пакетов программ и, в частности, в пакетах, рассматриваемых в данном пособии. Поэтому пользователю, выбравшему данный путь, придется самостоятельно вычислять матрицу попарных расстояний, что для больших массивов данных весьма трудоемко (или требует определенных навыков программирования, использования макроязыков статистических пакетов и т.п.).

· Перевести все данные в одну и ту же шкалу, имеющую самый низкий статус из всех представленных (то есть, в данном случае, в дихотомическую). Разумеется, такой путь тоже достаточно трудоемкий, однако зато он позволяет использовать распространенные меры различия или сходства, представленные в стандартных статистических пакетах. Другими словами, «ручная» работа исследователя здесь ограничивается этапом кодирования и ввода исходных данных, а все остальные этапы процедуры кластеризации «возьмет на себя» статистический пакет.

В силу приведенных соображений, мы выберем второй путь, но при этом заметим, что исследователь должен хорошо представлять себе размер «платы» за подобное понижение статуса шкал, которая заключается в неизбежном огрублении исходных эмпирических данных и, соответственно, в потере некоторой части содержащейся в них информации. Однако это все же – меньшее «зло» по сравнению с некорректным использованием для смешанных шкал мер различия или сходства, предназначенных для шкал однородных.

Итак, нам надо переписать исходные данные в дихотомических шкалах, выполнив необходимые для этого преобразования. В качестве предполагаемой меры сходства наметим, например, коэффициент Jaccard (Жаккара), реализованный в пакете SPSS, хотя, конечно, можно было бы взять и любую другую меру, предназначенную для использования с дихотомическими признаками (см. табл. 11.2-3).

Преобразование шкал более высокого порядка в дихотомические шкалы называется дихотомизацией. Проиллюстрируем дихотомизацию на примере наших эмпирических данных (см. табл.11.5-3). При этом совершенно необязательно (и даже нецелесообразно) выполнять перекодировку вручную, на бумаге: лучше воспользоваться для этого возможностями по преобразованию данных, встроенными в статистические пакеты. Поскольку мы наметили в качестве меры сходства коэффициент Жаккара, а он реализован в пакете SPSS, применим для решения задачи именно этот пакет.

1. Запускаем пакет SPSS и выбираем возможность Type in data (Ввести данные). Сам ввод исходных данных целесообразно выполнять пошагово, совместно с их дихотомизацией.

Признак ТП – номинальный и имеет пять категорий; для его дихотомизации надо представить каждую из этих категорий в виде отдельного дихотомического признака: тогда значение «единица» будет означать наличие данной категории у рассматриваемого испытуемого, а «нуль», соответственно, ее отсутствие. Но сначала вводим в первый столбец данные по признаку ТП из табл. 11.5-3, закодировав их следующим образом: 1 – ЧЗ, 2 – ЧП, 3 – ЧТ, 4 – ЧЧ, 5 – ЧХО (если имеется русифицированная версия пакета SPSS, то можно было бы ввести исходные символьные обозначения категорий, но в с случае англоязычной версии при этом возникают проблемы с русскими буквами, поэтому мы предлагаем выполнить числовую кодировку). После этого копируем данный столбец в последующие четыре переменные: тем самым мы зарезервировали место под все новые дихотомические переменные, соответствующие категориям признака ТП.

Далее воспользуемся возможностями пакета SPSS по перекодированию данных. Для этого в пункте меню Transform (Преобразовать) выбираем команду Recode (Перекодировать) и, далее, Into Some Variables (В те же самые переменные). В открывшемся диалоговом окне указываем перекодируемую переменную var1, которая будет соответствовать дихотомическому признаку ЧЗ, и нажимаем кнопку Old and New Values (Старые и новые значения). После этого указываем в поле Old Value (Старое значение) «1», а в поле New Value (Новое значение) – «1» и нажимаем кнопку Add (Добавить), после чего это преобразование вносится в список преобразований (заметим, что необходимости «менять» значение 1 на значение 1 не было – мы сделали это для общности, чтобы показать, как затем работать с остальными переменными, относящимися к признаку ТП). Далее флажком выбираем поле All other values (Все остальные значения), в поле New Value (Новое значение) указываем «0» и нажимаем кнопку Add (Добавить).

Нажав кнопку Continue (Продолжить), а в следующем окне - кнопку OK, выполняем само перекодирование, результаты которого автоматически вносятся в столбец переменной var1, которая теперь является уже дихотомической.

Аналогично перекодируем значения переменной var2, которая будет соответствовать дихотомическому признаку ЧП. Выполнив команды Transform (Преобразовать) - Recode (Перекодировать) - Into Some Variables (В те же самые переменные), меняем в списке перекодируемых переменных var1 на var2. Затем, нажав кнопку Old and New Values (Старые и новые значения), указываем в поле Old Value (Старое значение) «2», а в поле New Value (Новое значение) – «1» и нажимаем кнопку Add (Добавить), а старый вариант (1®1) удаляем из списка преобразований с помощью кнопки Remove (Переместить). Далее выполняем само перекодирование.

После перекодирования всех переменных, соответствующих категориям признака ТП, данные по признаку ТП перепишутся следующим образом (на примере испытуемых с номерами 1 и 4):

 

ЧЗ ЧП ЧТ ЧЧ ЧХО
1          
4          

 

Следующий признак УГР – псевдоранговый. Для дихотомизации введем, аналогично предыдущему признаку, отдельные дихотомические признаки для каждой из его градаций (ниже приведен пример для испытуемых 1 и 4):

 

СР СУ СО
1      
4      

 

Признак УМД – псевдоинтервальный. Для дихотомизации разделим всю область принимаемых им значений на три градации, в соответствии с рекомендациями теста Т.Элерса [31. С.105-106]: от 0 до 10 – НУМД (низкий УМД), от 11 до 21 – СУМД (средний УМД), 22 и более - ВУМД (высокий УМД). Анализ исходных данных (табл. 11.5-2) показывает, что в выборке не оказалось ни одного испытуемого с высоким УМД, следовательно, можно ограничиться двумя градациями – средним и низким уровнями. Введем дихотомические признаки для каждой из этих градаций (пример приведен для испытуемых 1 и 4):

СУМД НУМД
1    
4    

 

Признаки из следующей группы, относящейся к локусу контроля ЛК, являются по характеру псевдоранговыми, как и признак УГР, однако, количество градаций у каждого из них равно пяти, а не трем. Соответственно, можно было бы ввести отдельный дихотомический признак для каждой из этих градаций, но из содержательных соображений количество градаций можно сократить следующим образом:

· для признаков К, Р и РД к первой отнесем ранг 1 в выборе испытуемого, ко второй – ранги 2 и 3, а к третьей – ранги 4 и 5 (так как для этих признаках в выборах фигурируют все 5 исходных градаций); (пример приведен для переменной К и испытуемых 1 и 2):

К = 1 К = 2, 3 К = 4, 5
1      
2      

 

· для признака С к первой отнесем ранг 1 в выборе испытуемого, ко второй – ранг 2, а к третьей – ранг 3 (так как для этого признака ранги 4 и 5 в выборах не фигурируют); (пример приведен для испытуемых 1 и 4):

С = 1 С = 2 С = 3
1      
4      

 

· для признака СВ к первой отнесем ранг 3 в выборе испытуемого, ко второй – ранг 4, а к третьей – ранг 5 (так как для этого признака ранги 1 и 2 в выборах не фигурируют); (пример приведен для испытуемых 1 и 4):

СВ = 3 СВ = 4 СВ = 5
1      
4      

Теперь каждая из переменных К, С, Р, СВ, РД представлена тремя дихотомическими признаками.

Признак ВР – интервальный; выполним его дихотомизацию аналогично признаку УМД, выбрав (из содержательных соображений) три градации: 18-20, 21-23 и 24-25. Затем введем отдельные дихотомические признаки для каждой из этих градаций (пример приведен для испытуемых 1 и 4):

 

ВР = 18, 19, 20 ВР = 21, 22, 23 ВР = 24, 25
1      
4      

 

Наконец, признак П (пол) – дихотомический. Закодируем его значения нулями и единицами: М – 1, Ж – 0 (пример приведен для испытуемых 1 и 3):

 

П
1  
3  

 

На этом дихотомизация исходных признаков закончена; заметим, что она привела к существенному увеличению количества рассматриваемых переменных (всего их стало 29), но зато теперь каждая модифицированная в результате дихотомизации переменная введена в отдельный столбец.

Далее, вызвав двойным щелчком по названию переменной диалоговое окно Define Variable (Определение переменной), задаем следующие параметры используемых переменных: Variable name (Имя переменной) - var1 – var29; Measurement (Тип шкалы) – Nominal (Номинальная); в блоке Data type (Тип данных) задаем параметры Type (Тип) – Numeric (Числовой), Width (Ширина) – 1 и Decimal places (Количество знаков после запятой) - 0; в блоке Column Format (Формат столбца) задаем параметры Column width (Ширина столбца) – 5 и Text alignment (Выравнивание) – Center (По центру).

2. Выполняем агломеративную кластеризацию случаев (см. решение задачи 11.5-3), указав Method (Метод) - Furthest neighbor (Дальнего соседа), Measure (Мера) – Binary (Дихотомическая шкала), Jaccard (Коэффициент Жаккара), Rang of solutions (Диапазон решений) – от 2 до 7 кластеров (этот диапазон мы наметили, предварительно посмотрев результаты объединения на дендрограмме).

3. В окне SPSS viewer (Просмотр результатов) видны результаты кластеризации: в частности, Agglomeration Schedule (Порядок объединения), а также показанные ниже Dendrogram (Дендрограмма) (рис. 11.5-9) и Cluster Membership (Принадлежность к кластерам).

 

Dendrogram using Complete Linkage

 

Rescaled Distance Cluster Combine

 

C A S E 0 5 10 15 20 25

Label Num +---------+---------+---------+---------+---------+

 

23 -+

30 -+

10 -+-------+

19 -+ +---------------+

1 -+-------+ I

25 -+ I I

12 ---------+ I

27 -------------------------+---------------+

7 -+-------+ I I

26 -+ +---------------+ I

2 ---------+ +-------+

9 ---------+ I I

8 -------------+---+ I I

20 -------------+ +-----------+ I I

6 -----------------+ +-----------+ I

11 -----------------------------+ I

4 -------------------+-+ I

24 -------------------+ +-----------+ I

29 ---------------------+ +-------------+ I

28 ---------------------------------+ I I

18 ---------+-----------------------+ I I

21 ---------+ I +-+

15 -+---------------+ +-------+ I

17 -+ I I I I

3 -----------------+---------------+ I I

13 -----------------+ +-----+

16 -+---------------+ I

22 -+ +---------------+ I

5 -----------------+ +-------+

14 ---------------------------------+

Рис.11.5-9. Дендрограмма агломеративной кластеризации
методом полной связи (пакет SPSS)

Cluster Membership

Case 7 Clusters 6 Clusters 5 Clusters 4 Clusters 3 Clusters 2 Clusters
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             

 

 

Из анализа полученных результатов агломеративной клластеризации можно сделать вывод, что наиболее песпективным выглядит разделение всех случаев на пять кластеров.

3. Выполняем дивизивную кластеризацию методом k -средних (см. решение задачи 11.5-3), указывая Number of Clusters (Количество кластеров), последовательно (для каждой новой кластеризации) равным двум, трем, четырем, пяти, шести и семи (остальные параметры оставляем, как в задаче 11.5-3).

4. В окне SPSS viewer (Просмотр результатов) видим итоги разделения на соответствующее количество кластеров, включающие таблицы Final Cluster Centers (Окончательные центры кластеров), Cluster Membership (Принадлежность к кластерам), Number of Cases in each Cluster (Количество случаев в каждом кластере) и ANOVA (Результаты проверки качества разбиения с помощью ANOVA), выборочно представленные ниже.

Для двух кластеров:

Number of Cases in each Cluster

Cluster   17,000
  13,000

Для трех кластеров:

Number of Cases in each Cluster

Cluster   9,000
  9,000
  12,000

 

Для четырех кластеров:

Number of Cases in each Cluster

Cluster   6,000
  16,000
  4,000
  4,000

Для пяти кластеров:

Cluster Membership

Case Number (Номер случая) Cluster (Кластер) Distance (Расстояние до центра кластера)
1   1,060
2   1,484
3   1,483
4   1,414
5   1,299
6   1,392
7   1,535
8   ,968
9   1,678
10   ,985
11   1,714
12   1,259
13   1,483
14   2,046
15   ,775
16   1,090
17   ,775
18   1,549
19   ,985
20   1,199
21   1,678
22   1,090
23   ,985
24   1,225
25   1,060
26   1,535
27   1,768
28   2,000
29   1,581
30   ,985

 

ANOVA

  Cluster   Error   F Sig.
Mean Square df Mean Square df
var1 ,604   7,000E-02   8,631 ,000
var2 0,005   3,000E-02   1,806 ,159
var3 ,923   6,692E-02   13,798 ,000
var4 1,423   6,692E-02   21,269 ,000
var5 ,867   ,000   , ,
var6 1,013   3,000E-02   33,750 ,000
var7 1,200   6,000E-02   20,000 ,000
var8 ,488   3,000E-02   16,250 ,000
var9 1,267   3,200E-02   39,583 ,000
var10 1,600   3,200E-02   50,000 ,000
var11 ,867   ,000   , ,
var12 0,005   3,000E-02   1,806 ,159
var13 ,183   ,259   ,706 ,595
var14 ,187   ,249   ,751 ,567
var15 ,950   4,000E-02   23,750 ,000
var16 ,217   4,000E-02   5,417 ,003
var17 ,867   ,000   , ,
var18 ,854   3,000E-02   28,472 ,000
var19 ,697   ,155   4,497 ,007
var20 ,718   ,185   3,881 ,014
var21 4,167E-02   3,200E-02   1,302 ,296
var22 ,854   3,000E-02   28,472 ,000
var23 ,813   6,200E-02   13,105 ,000
var24 ,000   ,000   , ,
var25 ,811   3,692E-02   21,962 ,000
var26 ,811   3,692E-02   21,962 ,000
var27 ,785   ,153   5,128 ,004
var28 ,346   ,239   1,448 ,248
var29 ,277   ,148   1,875 ,146
var30 ,975   ,132   7,386 ,000

 

Number of Cases in each Cluster

Cluster   13,000
  4,000
  5,000
  4,000
  4,000

 

 

Для шести кластеров:

Number of Cases in each Cluster

Cluster   4,000
  15,000
  5,000
   
   
   

 

 

Для семи кластеров:

Number of Cases in each Cluster

Cluster   10,000
  2,000
  5,000
  3,000
  7,000
  2,000
  1,000

 

Анализ всех этих вариантов кластеризации, который читателю предлагается выполнить самостоятельно, показывает, что наиболее предпочтительным является разделение исходной выборки на пять кластеров.

Ответ: выборку целесообразно разделить на пять кластеров.

Задача 11.5-5. Пример некорректного применения кластерного
анализа к данным, измеренным в разнотипных шкалах

Определить: Изменятся ли результаты решения задачи 11.5-4, если вместо меры Жаккара использовать обычную евклидову метрику (и, соответственно, не выполнять дихотомизацию исходных признаков)?

Решение:

1. Закодировав исходные данные задачи, представленные в табл. 11.5-2, получим следующую таблицу данных 11.5-3, ориентированных на использование евклидовой метрики.

Таблица 11.5-3

Исходные данные задачи 11.5-4, закодированные
для использования евклидовой метрики

ТП УГР УМД ЛК ВР П
К С Р СВ РД
1                    
2                    
3                    
4                    
5                    
6                    
7                    
8                    
9                    
10                    
11                    
12                    
13                    
14                    
15                    
16                    
17                    
18                    

Продолжение табл. 11.5-3

ТП УГР УМД ЛК ВР П
К С Р СВ РД
19                    
20                    
21                    
22                    
23                    
24                    
25                    
26                    
27                    
28                    
29                    
30                    

 

 

2. Используем для решения пакет SPSS. Запустим его и введем данные из табл. 11.5-3.

3. Выполнив агломеративную и дивизивную кластеризацию аналогично решению задачи 11.5-4, но с использованием евклидовой метрики, убедимся, что ее результаты получаются принципиально иными, чем в задаче 11.5-4 (при использовании коэффициента Жаккара). В качестве примера на рис. 11.5-10 приведена полученная дендрограмма, остальные результаты читателю предлагается получить и проанализировать самостоятельно.

Ответ: результаты решения задачи существенно изменяются.


_

 

 

* * * * * * H I E R A R C H I C A L C L U S T E R A N A L Y S I S * * * * * *

 

 

Dendrogram using Complete Linkage

 

Rescaled Distance Cluster Combine

 

C A S E 0 5 10 15 20 25

Label Num +---------+---------+---------+---------+---------+

 

7 -+-----------+

9 -+ +---+

24 -+-------+ I I

30 -+ +---+ I

10 -+---+ I +---+

22 -+ +---+ I I

19 -----+ I I

17 -+-----+ I I

25 -+ +---------+ I

18 -+-----+ +---------------------------+

21 -+ I I I

3 -------+ I I

6 -----+---+ I I

12 -----+ +-----+ I I

20 ---------+ I I I

1 ---+-----+ +-----+ I

2 ---+ +---+ I I

13 -+-+ I I I I

26 -+ +-----+ +-+ I

16 ---+ I I

11 ---+-------+ I I

27 ---+ +-+ I

8 -----+-----+ I

28 -----+ I

14 -------+-------------+ I

15 -------+ +---------------------------+

4 -----+---+ I

29 -----+ +-----------+

5 -----+---+

23 -----+

 

Рис.11.5-10. Дендрограмма агломеративной кластеризации
данных задачи 11.5-5 методом полной связи
с использованием евклидовой метрики

 

 


Вопросы для самопроверки по теме 11

1. В каких случаях исследователь применяет многомерные статистические методы анализа данных? Какие классы таких методов Вы знаете, в чем состоит их назначение?

2. Каково назначение кластерного анализа? Как (на интуитивном уровне) определяется кластер?

3. Какими синонимами в литературе иногда называют кластерный анализ?

4. Почему кластерный анализ называется «распознаванием образов без обучения»?

5. Из каких шагов (этапов) состоит общая схема процедуры применения кластерного анализа?

6. Как методы кластерного анализа классифицируются по измерительным шкалам, направлению кластеризации и используемой метрике?

7. Какие способы целесообразно использовать для корректного применения кластерного анализа данных, измеренных в разнотипных (смешанных) шкалах?

8. Что такое матрица «объект-признак»? В чем ее отличие от таблицы «объект-признак»?

9. Какие Вам известны способы нормирования показателей, измеренных в разномасштабных шкалах?

10. Как определяется метрическое признаковое пространство? Какими свойствами обладает метрика?

11. Как определяется матрица попарных расстояний? Какими свойствами она обладает?

12. В чем отличие подходов к кластерному анализу с использованием мер различия и мер сходства?

13. Какие популярные меры сходства и различия, используемые в кластерном анализе, Вы знаете? В чем состоят их особенности?

14. Как методы кластерного анализа классифицируются по стратегиям кластеризации?

15. В чем принципиальное отличие агломеративных и дивизивных методов кластеризации?

16. Какие агломеративные методы кластеризации реализованы в статистических пакетах SPSS, Statistica for Windows и Stadia?

17. Какие дивизивные методы кластеризации реализованы в статистических пакетах SPSS, Statistica for Windows и Stadia?

18. Как методы кластерного анализа классифицируются по способам определения межкластерных расстояний?

19. Каков общий алгоритм действий исследователя при выборе и проведении процедуры кластерного анализа психологических данных?

Рекомендуемая литература по теме 11

Основная

1. Боровиков В.П. Программа STATISTICA для студентов и инженеров. – М.: КомпьютерПресс, 2001. – 301 с. – (6. Кластерный анализ автомобилей разных марок. – С.183-200).

2. Дюран Б., Оделл П. Кластерный анализ. – М.: Статистика, 1977. – 128 с.

3. Кулаичев А.П. Методы и средства анализа данных в среде Windows: STADIA 6.0. - 2-е изд., перераб. и доп. – М.: Информатика и компьютеры, 1998. – 270 с. – (Глава 9. Анализ факторных эффектов: 9.6. Многофакторный дисперсионный анализ. – С.145-146; - Глава 10. Анализ временных рядов. – С.151-186; - Глава 11. Регрессионный анализ: 11.4. Множественная линейная регрессия. – С.198-199. - Глава 12. Многомерные методы. – С.208-231).

4. Мандель И.Д. Кластерный анализ. – М.: Финансы и статистика, 1988. – 176 с.

5. Олдендерфер М.С., Блэкфилд Р.К. Кластерный анализ / Факторный, дискриминантный и кластерный анализ / Дж.О.Ким, Ч.У.Мюллер, У.Р.Клекка и др. / Под ред. Енюкова И.С.. – М.: Финансы и статистика, 1989. – 215 с. – С.

6. Тюрин Ю.Н., Макаров А.А. Анализ данных на компьютере / Изд. 3-е, перераб. и дополн. / Под ред. В.Э.Фигурнова. – М.: ИНФРА-М, 2003. – 540 с.

7. SPSS Base 8.0 для Windows: Руководство по применению. – Город??? СПСС Русь, 1998. – 397 с.

Дополнительная

8. Айвазян С.А., Бежаева З.И., Староверов О.В. Классификация многомерных наблюдений. – М.: Статистика, 1974. – 240 с.

9. Айвазян С.А., Буштабер В.М., Енюков И.С., Мешалкин Л.Д. Прикладная статистика: Классификация и снижение размерности. Справочное изд-е. – М.: Финансы и статистика, 1989.– 608 с.

10. Андерсон Т. Введение в многомерный статистический анализ. – М.: Физ.-математ. литература, 1963. – 500 с.

11. Аренс Х., Лейтер Ю. Многомерный дисперсионный анализ. – 1985. – 220 с.

12. Афифи А., Эйзен С. Статистический анализ: Подход с использованием ЭВМ. – М.: Мир, 1982. – 486 с.

13. Боровиков В.П., Боровиков И.П. STATISTICA: Статистический анализ и обработка данных в среде Windows.– М.: Филинъ, 1998. – 608 с. – (2. Вводные примеры: 2.2.2. Множественная регрессия. – С.45-54; 8. Некоторые статистические модули и особенности их работы: 8.3. Нелинейное оценивание. - С.401-430; 8.4. Анализ временных рядов и прогнозирование. – С.431-490; 8.5. Факторный анализ. – С.491-527; 8.6. Моделирование структурными уравнениями. – С.528-566).

14. Браверман Э.М. Анализ эмпирических данных. – М., 1979.

15. Бриллинджер Д. Временные ряды: Обработка данных и теория. – М., Мир, 1980.

16. Воронин Ю.А. Теория классифицирования и ее приложения. – Новосибирск: Наука, 1985. – 232 с.

17. Гайдышев И. Анализ и обработка данных: Специальный справочник. – СПб: Питер, 2001. – 752 с.

18. Гласс Дж., Стэнли Дж. Статистические методы в педагогике и психологии. – М.: Прогресс, 1976. – 495 с.

19. Дэйвисон М. Многомерное шкалирование. Методы наглядного представления данных.– М.: Финансы и статистика, 1988.– 348 с.

20. Елисеева И.И., Рукавишников В.С. Группировка, корреляция, распознавание образов. – М.: Статистика, 1977. – 144 с.

21. Енюков И.С. Методы, алгоритмы, программы многомерного статистического анализа: пакет ППСА. – М.: Финансы и статистика, 1986. – 232 с.

22. Жамбю М. Иерархический кластер-анализ и соответствия. – М.: Финансы и статистика, 1988. – 243 с.

23. Классификация и кластер / Под ред. Дж. Вэн Райзина. – М.: Мир, 1980. – 392 с.

24. Клигер С.А., Косолапов М.С., Толстова Ю.Н. Шкалирование при сборе и анализе социологической информации. – М.: Наука, 1978. – 112 с.

25. Крылов В.Ю. Методологические и теоретические проблемы математической психологии / Под ред. А.В.Брушлинского и С.С.Бубновой. – М.: Янус-К, 200. – 376 с.

26. Кулаичев А.П. Методы и средства анализа данных в среде Windows: STADIA 6.0. - 3-е изд., перераб. и доп. – М.: Информатика и компьютеры, 1999. – 340 с.

27. Макарова Н.В., Трофимец В.Я. Статистика в Excel: Учеб. пособие. – М.: Финансы и статистика, 2002. – 368 с.

28. Миркин Б.Г. Анализ качественных признаков и структур. – М.: Статистика, 1980. – 320 с.

29. Миркин Б.Г. Группировки в социально-экономических исследованиях. - М.: Финансы и статистика, 1985. – 224 с.

30. Мостелер Ф., Тьюки Дж. Анализ данных и регрессия. – М.: Финансы и статистика, 1982.

31. Практикум по психологии профессиональной деятельности и менеджмента: Учеб. пособие, 2-е изд. / Под ред. Г.С.Никифорова, М.А.Дмитриевой, В.М.Снеткова – СПб.: Изд-во С.-Петербургского ун-та, 2001. – 240 с.

32. Рабочая книга практического психолога: Пособие для специалистов, работающих с персоналом / Под ред. А.А.Бодалева, А.А.Деркача, Л.Г.Лаптева. – М.: Изд-во Института Психотерапии, 2002. – 640 с.

33. Рао С.Р. Линейные статистические методы и их применение. – М.: Наука, 1968. – 547 с.

34. Справочник по прикладной статистике: В 2-х томах / Под ред. Э.Лойда, У.Ледермана, Ю.Н.Тюрина. – М.: Финансы и статистика, 1989, 1990. – 510 с., 526 с.

35. Статистические методы для ЭВМ / Под ред. К.Энслейна, Э.Рэлстона, Г.С.Уилфа. - М.: Наука, 1986. – 236 с.

36. Суходольский Г.В. Основы математической статистики для психологов. – Л.: Изд-во ЛГУ, 1972. – 429 с.

37. Тюрин Ю.Н., Макаров А.А. Анализ данных на компьютере. – М.: ИНФРА-М; Финансы и статистика, 1995. – 384 с.

38. Тюрин Ю.Н., Макаров А.А. Статистический анализ данных на компьютере. – М.: ИНФРА-М, 1999. – 528 с.

39. Фелингер А.Ф. Статистические алгоритмы в социологических исследованиях. – Новосибирск: Наука (Сибирское отделение), 1985. – 208 с.

40. Холлендер М., Вулф Д. Непараметрические методы статистики. – М., 1983. – 518 с.

41. Hartigan G.A. Clastering algoritms. – New York: John Wiley and Sons,, 1975.


Дата добавления: 2015-01-18 | Просмотры: 835 | Нарушение авторских прав



1 | 2 | 3 | 4 | 5 | 6 | 7 |



При использовании материала ссылка на сайт medlec.org обязательна! (0.068 сек.)