Неконтролируемая серия статей: Глубокая кластеризация (1): Глубокая кластеризация для неконтролируемого изучения визуальных функций

решенная проблема

Основная проблема заключается в неконтролируемом предварительном обучении функций изображения.

решение

Используйте сверточную сеть для извлечения признаков, затем сгруппируйте эти признаки, а затем сгруппируйте для создания псевдометок, используйте их для возврата потерь, чтобы сеть извлечения признаков можно было обучить, кластеризация извлечения признаков и обучение повторяются, и, наконец, эффект.

вставьте сюда описание изображения

Другие детали (для предотвращения сбоев обучения)

Пустые кластеры.

Это как поступать с пустыми кластерами, то есть при появлении пустого кластера случайным образом разделить другой непустой кластер на два.Приблизительная логика состоит в том, чтобы сделать случайное возмущение центра кластера этого кластера, чтобы сформировать новый центр кластера , а затем разделите этот непустой кластер на новое ядро ​​кластера и старое ядро ​​кластера.

Точнее, когда кластер становится пустым, мы случайным образом выбираем непустой кластер и используем его центроид с небольшим случайным возмущением в качестве нового центроида для пустого кластера. Затем мы переназначаем точки, принадлежащие непустому кластеру, двум полученным кластерам.

Тривиальная параметризация.

Это, вероятно, означает, что кластеризация слишком плотная, то есть сеть извлечения признаков плохо извлекает признаки, а последующие кластеры все собираются вместе, поэтому особого смысла в этом нет. Таким образом, должен быть план потери, который наказывает категорию.Когда потеря возвращается, вес категории с меньшим количеством образцов должен быть увеличен, а вес категории с большим количеством образцов должен быть уменьшен.Поэтому обратная величина количество образцов выбирается в качестве потери веса для возврата.

Стратегия обхода этой проблемы заключается в выборке изображений на основе равномерного распределения по классам или псевдометкам. Это эквивалентно взвешиванию вклада входа в функцию потерь в уравнении. (1) обратно пропорциональна размеру присвоенного ему кластера.

Guess you like

Origin blog.csdn.net/qq_43210957/article/details/129362223