[Прямая федерация издательства] Анализ глубокого обучения: Принципы сверточной нейронной сети и визуальная практика
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
Анализ глубокого обучения: сверточные принципы нейронной сети и визуальная практика | ||
| Ценообразование | 79.00 |
Издатель | Электронная промышленная пресса | |
Версия | 1 | |
Опубликованная дата | Ноябрь 2018 года | |
формат | 16 | |
автор | Вэй Сюди | |
Украсить | Платформный порядок | |
Количество страниц | ||
Число слов | ||
Кодирование ISBN | 9787121345289 |
Глубокое обучение, особенно глубокие сверточные нейронные сети, является важной ветвью искусственного интеллекта.Как входная книга в этой области, эта книга охватывает два основных аспекта: основные знания и практическое применение глубоких сверточных нейронных сетей в содержании.В книге есть 14 глав, которые разделены на три части:*Часть - это введение; Стильные нейронные сети; И опыт.Эта книга не книга программирования, но надеется пройти“ базовые знания&rdquo“&Rdquo;Эта книга может быть использована в качестве энтузиаста глубокого обучения и энтузиастов нейронной сети.
Часть II Базовая теория / 9
1 Основное знание сверточной нейронной сети / 10
1.1 Процесс разработки / 11
1.2 Основная структура / 13
1.3 Феминг / 16
1.4 Операция обратной связи / 16
1.5 Сводка / 19
2 основные компоненты сверточных нейронных сетей/ 21
2.1“ конец до конца”
2.2 Определение символа сети/ 23
2.3 Стиночный слой/24
2.3.1 Что такое свертка/ 24
2.3.2 Роль операции свертки/27
2.4 Краткий слой/28
2.4.1 Что такое соединение/ 29
2.4.2 Роль операции сходимости/30
2.5 Функция активации/ 31
2.6 Полный слой соединения/ 33
2.7 Целевая функция/ 34
2.8 Сводка/ 34
3 Классическая структура сверточной нейронной сети/ 35
3.1 Важные концепции в структуре сети CNN/35
3.1.1 Почувствуйте себя дикой/ 35
3.1.2 Распределенное представление/ 37
3.1.3 Уровень функций глубины /39
3.2 Классический анализ сетевых случаев/42
3.2.1 Alex-Net Network Model/ 42
3.2.2 сетевая модель VGG-сети/46
3.2.3 Network-In-Network /48
3.2.4 остаточная сеть модель/49
3.3 Сводка/ 54
4 сжатие сверточной нейронной сети/ 56
4.1 Низкий ранг приблизительный/ 58
4.2 Вожди и редкие ограничения/60
4.3 Количественная оценка параметра/ 64
4.4 Двойная сеть/ 68
4.5 Знания дистилляция/ 71
4.6 Компактная сетевая структура // 74
4.7 Сводка/ 76
Часть III Практические статьи/ 77
5 Расширение данных/ 78
5.1 Простой метод расширения данных/78
5.2 Метод экспансии специального данных/80
5.2.1 Fancy PCA /80
5.2.2. Расширение данных надзора/80
5.3 Сводка/ 82
6 Предварительная обработка данных/ 83
7 Инициализация параметра сети/ 85
7.1 All -ЗЕРНАЯ ИНИЦИАЛИЗАЦИЯ/86
7.2 Случайная инициализация/86
7.3 Другие методы инициализации/89
7.4 Сводка/ 90
8 Функция активации/ 91
8.1 Сигмоидальная функция/ 92
8.2 Функция типа TANH (x)/ 93
8.3 Правильный линейный блок (RELU) /93
8.4 Leaky ReLU /94
8.5 Параметризация RELU /95
8.6 Рандомизированный RELU /97
8.7 Экспоненциальный линейный блок (ELU)/ 98
8.8 Сводка/ 99
9 Целевая функция 100
9.1 Объективная функция классифицированной задачи/100
9.1.1 Функция потерь поперечного энтропии/101
9.1.2 Функция потери гипотал/101
9.1.3 Функция потерь Lositary/101
9.1.4 Функция потерь потерь с поперечным интервалом/ 103
9.1.5 Функция потерь центра/105
9.2 Целевая функция регрессионной миссии // 107
9.2.1 1 Функция потери/ 108
9.2.2? 2 Функция потери/ 108
9.2.3 Tukey&Rsquo;
9.3 Целевая функция других задач // 109
9.4 Сводка/ 111
10 сетевой регуляризация/ 113
10.1? 2 регуляризация/ 114
10.2? 1 регуляризация/ 115
10.3 модели ограничения/ 115
10.4 случайные потери/ 116
10.5 Использование набора проверки/ 118
10.6 Сводка/ 119
11 Настройки Super Porter и сетевой обучение/ 120
11.1 Настройки/120
11.1.1 Размер пикселей входных данных/120
11.1.2 Настройки параметров сверточного слоя/121
11.1.3 Настройки параметров слоя конвергенции/122
11.2 Методы обучения/ 123
11.2.1 Обучающие данные случайные нарушения/123
11.2.2 Установка ставки обучения/123
11.2.3 партия стандартизированных операций/125
11.2.4 Выбор алгоритма оптимизации сети/ 127
11.2.5 Фильтрация нейронной сети/132
11.3 Сводка/ 133
12 Лечение неожиданного образца/ 135
12.1 Метод обработки уровня данных/136
12.1.1 Data Heavy Specting/ 136
12.1.2 Отбор выборки баланса категории/137
12.2 Метод обработки уровня алгоритма/138
12.2.1 Чувствительный метод/139
12.2.2.
12.3 Резюме / 142
13 Метод интеграции модели/ 143
13.1 Интегрированный метод на уровне данных/143
13.1.1 Расширение данных на этапе испытания/143
13.1.2“”
13.2 Интегрированный метод на уровне модели/144
13.2.1 Интеграция с одной модели/ 144
13.2.2 Multi -Model Integration/ 146
13.3 Резюме/ 149
14 Введение в Deep Learning Tools/ 151
14.1 Сравнение общей структуры/ 151
14.2 Характеристики обычно используемой структуры/153
14.2.1 Caffe /153
14.2.2 Deeplearning4j /153
14.2.3 Keras /154
14.2.4 MXNet / 155
14.2.5 MatConvNet / 155
14.2.6 TensorFlow /155
14.2.7 Thea 156
14.2.8 Torch /157
Вектор, матрица и базовые операции/ 158
B случайный градиент падение/ 162
C Цепно Закон/ 165
Ссылки/ 167
Индекс/ 181 отображать всю информацию
«Анализ глубокого обучения: принципы сверточной нейронной сети и визуальная практика» - это хорошее лекарство для лечения фобии.Автор, доктор Вэй Сюйин, окончил известный институт Ламда Университета Нанкин и в настоящее время является главой Научно -исследовательского института технологии Куапи.Эта книга конденсирует свои годы навыков, интегрирует принцип и практику и совершенствует прокрутку сверточной нейронной сети, чтобы преодолеть один за другим в практике компьютерного зрения.
Книга не имеет текста зубов, не существует жесткого термина, только правдивой правды, демонстрации от мелководной до глубокой и четкой и плавной архитектуры.При организации контента мы учитываем основные знания и трудности с обучением. упражняться.
Неудивительно, что отраслевые эксперты считают“ Эта книга может быть тем, что я знаю“ пьян””.