Similar presentations:
1232312312
1. ВЛИЯНИЕ АУГМЕНТАЦИИ ДАННЫХ НА КЛАССИФИКАЦИЮ РУКОПИСНЫХ ЦИФР
Выполнил студент 16 группы 3 курсаКонякин Александр Алексеевич
2.
ПРОБЛЕМА:В реальных задачах часто недостаточно размеченных данных
Сбор и разметка данных — дорогостоящий процесс
Нейронные сети склонны к переобучению на малых выборках
АКТУАЛЬНОСТЬ:
Аугментация — эффективный способ увеличения данных
Особенно важна для медицинских изображений,
беспилотных автомобилей, промышленности
Позволяет снизить затраты на сбор данных
3.
ЦЕЛЬ ПРОЕКТА:Исследовать эффективность различных методов аугментации
данных на задаче классификации рукописных цифр
ЗАДАЧИ:
1. Реализовать три метода аугментации данных
2. Создать ограниченные выборки данных (50-1000 примеров)
3. Обучить сверточные нейронные сети на разных выборках
4. Сравнить точность классификации для каждого метода
5. Проанализировать зависимость точности от размера выборки
4. ДАННЫЕ MNIST: • 70,000 рукописных цифр 0-9 • 60,000 тренировочных, 10,000 тестовых • Размер: 28×28 пикселей, черно-белые •
Стандартный benchmark для компьютерного зренияНАШИ ВЫБОРКИ:
• 50 примеров (по 5 на цифру)
• 100 примеров (по 10 на цифру)
• 500 примеров (по 50 на цифру)
• 1000 примеров (по 100 на цифру)
5.
ТРИ МЕТОДА АУГМЕНТАЦИИ:1. БЕЗ АУГМЕНТАЦИИ (базовый)
• Только нормализация
2. ПРОСТАЯ АУГМЕНТАЦИЯ
• Случайный поворот на ±10°
3. ПРОДВИНУТАЯ АУГМЕНТАЦИЯ
• Случайный поворот на ±15°
• Случайный сдвиг на 10%
• Случайное масштабирование
6.
АРХИТЕКТУРА СВЕРТОЧНОЙ СЕТИ:• Вход: 28×28×1 (изображение цифры)
• Conv1: 16 фильтров 3×3
• MaxPool: 2×2
• Conv2: 32 фильтров 3×3
• MaxPool: 2×2
• FC1: 64 нейрона
• Dropout: 25%
• Выход: 10 нейронов (цифры 0-9)
ПАРАМЕТРЫ ОБУЧЕНИЯ:
• Оптимизатор: Adam
• Learning rate: 0.001
• Batch size: 32
• Эпохи: 15
7.
ЭКСПЕРИМЕНТАЛЬНАЯ УСТАНОВКА:12 ЭКСПЕРИМЕНТОВ:
• 4 размера выборок × 3 метода аугментации
ПРОЦЕДУРА:
1. Создание ограниченных выборок
2. Применение аугментации
3. Обучение 12 моделей (по одной на каждый эксперимент)
4. Тестирование на полном наборе (10,000 изображений)
5. Сравнение финальной точности
ТЕХНИКА:
• PyTorch 2.0, Python 3.9
• NVIDIA GPU / CPU
• Время обучения: ~30 минут
8.
ОСНОВНЫЕ РЕЗУЛЬТАТЫ:ГРАФИК 1: Зависимость точности от размера выборки
[График с тремя линиями]
ГРАФИК 2: Кривые обучения для выборки 50
[График роста точности по эпохам]
ГРАФИК 3: Улучшение от аугментации
[Столбчатая диаграмма]
9. Таблица финальной точности (%):
размерБез аугм.
простая
продвинутая
Улучшение
50
65.2
78.5
82.3
+17.1%
100
75.8
85.2
88.7
+12.9%
500
89.3
91.7
93.1
+3.8%
1000
93.5
94.2
94.8
+1.3%
10.
КЛЮЧЕВЫЕ НАБЛЮДЕНИЯ:1. АУГМЕНТАЦИЯ СПАСАЕТ НА МАЛЫХ ДАННЫХ
• +17% на 50 примерах
• Без аугментации модель почти не учится
2. ПРОДВИНУТАЯ > ПРОСТОЙ > БЕЗ АУГМЕНТАЦИИ
• Сложные преобразования дают лучший результат
• Но разница уменьшается с ростом данных
3. ПОРОГ ЭФФЕКТИВНОСТИ
• После ~500 примеров выигрыш минимален
• На больших данных важнее архитектура
4. ПЕРЕОБУЧЕНИЕ
• Без аугментации модели переобучаются
• С аугментацией — лучше обобщение
11.
ОСНОВНЫЕ ВЫВОДЫ:✅ Аугментация данных КРИТИЧНО важна при работе
с малыми выборками (улучшение до 17%)
✅ Продвинутая аугментация эффективнее простой,
особенно на очень малых данных
✅ Эффект аугментации уменьшается с ростом
количества данных (закон убывающей отдачи)
✅ Аугментация помогает бороться с переобучением
и улучшает обобщающую способность моделей
ПРАКТИЧЕСКАЯ РЕКОМЕНДАЦИЯ:
Всегда используйте аугментацию при работе
с ограниченными данными!
12.
ЗАКЛЮЧЕНИЕ:• Успешно исследовано влияние аугментации на MNIST
• Подтверждена эффективность аугментации на малых данных
• Разработан воспроизводимый экспериментальный пайплайн
ПЕРСПЕКТИВЫ РАЗВИТИЯ:
1. Исследование других методов аугментации
(ColorJitter, GaussianBlur, CutMix)
2. Применение к более сложным датасетам
(CIFAR-10, ImageNet)
3. Исследование Few-Shot Learning подходов
4. Автоматический подбор параметров аугментации