Сверточная нейронная сеть (CNN) — это тип искусственной нейронной сети, используемой в основном для распознавания и обработки изображений благодаря ее способности распознавать закономерности в изображениях. CNN — это мощный инструмент, но для обучения ему требуются миллионы размеченных точек данных.

За прошедшие годы были разработаны варианты архитектур CNN, что привело к удивительным достижениям в области глубокого обучения. Хорошим показателем этого прогресса является частота ошибок в соревнованиях, таких как ILSVRC ImageNet Challenge. В этом конкурсе доля ошибок при классификации изображений в первой пятерке снизилась с более чем 26% до менее чем 3%. В этой статье мы рассмотрим некоторые из популярных архитектур CNN, которые выделяются своим подходом и значительно улучшают частоту ошибок по сравнению с их предшественниками.

АлексНет - 2012

Почему

AlexNet родился из-за необходимости улучшить результаты конкурса ImageNet.

Что

Сеть состоит из 5 сверточных (CONV) слоев и 3 полносвязных (FC) слоев. Используемая активация - выпрямленная линейная единица (ReLU).

Как

Увеличение данных выполняется для уменьшения переобучения, использует локальную локализацию ответа.

ВГГНЕТ — 2014

Почему

VGGNet родился из-за необходимости уменьшить количество параметров в слоях CONV и сократить время обучения.

Что

Существует несколько вариантов VGGNet (VGG16, VGG19 и т. д.).

Как

Здесь важно отметить, что все ядра conv имеют размер 3x3, а ядра maxpool имеют размер 2x2 с шагом два.

Реснет — 2015

Почему

Нейронные сети печально известны тем, что не могут найти сопоставление .simpler, когда оно существует. ResNet решает эту проблему.

Что

Существует несколько версий архитектур ResNetXX, где «XX» обозначает количество уровней. Наиболее часто используемыми являются ResNet50 и ResNet101. Поскольку проблема исчезающего градиента была решена (подробнее о ней в разделе «Как»), CNN стала углубляться и углубляться.

Как

Архитектура ResNet использует короткие соединения, которые решают проблему исчезающего градиента. Основным строительным блоком ResNet является остаточный блок, который повторяется по всей сети.

Начало — 2014 г.

Почему

Ядра большего размера предпочтительнее для более глобальных функций, с другой стороны, ядра меньшего размера обеспечивают хорошие результаты при обнаружении особенностей, специфичных для области. Для эффективного распознавания такого признака переменного размера нам нужны ядра разных размеров. Это то, что делает Inception.

Что

Начальная сетевая архитектура состоит из нескольких начальных модулей следующей структуры. Каждый начальный модуль состоит из четырех параллельных операций: конверсионный слой 1x1, конверсионный слой 3x3, конверсионный слой 5x5, максимальный пул.

Как

Inception увеличивает сетевое пространство, из которого посредством обучения выбирается лучшая сеть. Каждый начальный модуль может фиксировать характерные черты на разных уровнях.

Сравнение

Количественное сравнение между вышеуказанными 4 CNN,

Спасибо за чтение!

Пожалуйста, оставляйте комментарии, если у вас есть какие-либо предложения или вы хотели бы добавить точку/и, или если вы заметили какую-либо ошибку/опечатку!

P.S. Если вы нашли эту статью полезной, хлопайте! 👏👏👏 [чувствует себя полезным и мотивирует продолжать писать].