Выбор и генерация признаков
Проклятие размерности
Выбор признаков
Критерии выбора признаков
Компактность
Addition
Deletion
AdDel,Grad
Метод ветвей и границ
Случайный поиск с адаптацией
639.50K

5.Выбор информативных признаков

1. Выбор и генерация признаков

Лекция №8

2. Проклятие размерности

Выбор признаков
Генерация признаков
Формирование новой системы признаков,
сохраняющей максимум информации о
выборке
Метод главных компонент
Метод независимых компонен

3. Выбор признаков

Что исключаем?
Дублирующие признаки
Шумовые признаки
Критерии выбора признаков
Внешние
OLO, CV
Внутренние
Критерий Фишера
Методы перебора признаков
Жадные алгоритмы
Ad, Del, GRAD
Поиск в глубину и в ширину
Метод ветвей и границ, МГУА
Стохастический поиск
Генетический алгоритм, СПА

4. Критерии выбора признаков

Вероятность ошибки
P(i / x)] p( x)dx
Er= [1 max
i
Расстояние между распределениям
расстояние Махаланобиса JM=( 2- 1)T -1( 2- 1)
Мера энтропии
JE=- (p1j*logp1j+p2j*logp2j)
j
Мера Фишера
JF =( 2- 1)2/(S12+S22)
Компактность в широком смысле

5. Компактность

Существует множество нечетких,
интуитивных определений.
Невычурность границ
Простота форм
Пример удачной формализации: профиль
компактности

6. Addition

x1
x2
xi
xN
Вычисление
функционала качества
F1
F2
Fi
FN

7. Deletion

x1
x2
xi
xN
Вычисление
функционала качества
F1
F2
Fi
FN

8. AdDel,Grad

Чередование этапов Add и Del дают
AdDel и DelAd
Использование вместо единичных
признаков гранул признаков небольшой
размерности
гранулы размерности 2 и 3 можно
формировать полным перебором
полезно в случае, если несколько
признаков информативны только вместе

9. Метод ветвей и границ

Наращиваются
только ветки,
перспективные
с точки зрения
критерия Q
Q*> Q
1
12
13
2
14
131 132 134
133
23
3
24
34
4

10. Случайный поиск с адаптацией

Признаки выбираются случайно
Вероятность выбора признаков попадающих
в «хорошие» системы увеличивается
Вероятность выбора признаков, попадающих
в «плохие» системы уменьшается
Процесс останавливается после
стабилизации качества систем
х1
х2
х3
х4
х5

11.

Генерация признаков. Метод
главных компонент
X={X1,X2,…,Xn} –исходная система признаков
Y={Y1,Y2,…,Yk} – сгенерированная система признаков
Yi=ai1*X1+ai2*X2+…+aij*Xj+…+ain*Xn
Y=AX, A-такое линейное ортогональное преобразование в
новую систему координат, для которого верно:
Выборочная дисперсия данных вдоль первой координаты Y1-максимальна;
Выборочная дисперсия данных вдоль второй координаты Y2- максимальна
при условии ортогональности первой координате (вторая главная
компонента);

Выборочная дисперсия данных вдоль значений k-ой координаты Yk максимальна при условии ортогональности первым k-1 координатам;
Сводится к задаче диагонализации ковариационной матрицы
Y1, Y2, …, Yk - собственные вектора эмпирической ковариационной
матрицы, расположенные в порядке убывания собственных значений.
Доля необъясненной дисперсии, показывает, какая часть информации
пропала в результате перехода.
English     Русский Rules