Для достижения высокой производительности глубокие сети требуют чрезвычайно больших наборов данных. Чем больше у нас помеченных данных, тем лучше работает наша модель. Получение хорошо аннотированных данных может быть как дорогостоящим, так и трудоемким. Наем людей для ручного сбора изображений и маркировки их совсем неэффективен. А в эпоху глубокого обучения данные, возможно, являются вашим самым ценным ресурсом.

Сети, достигающие высоких показателей в последних исследованиях, часто обучаются на сотнях тысяч и даже миллионах образцов. Для многих приложений такие большие наборы данных недоступны, и их получение будет дорогостоящим и отнимет много времени. Для небольших наборов данных классические алгоритмы машинного обучения, такие как регрессия, случайный лес и SVM, часто превосходят глубокие сети.

(2) Глубокое обучение на практике сложно и дорого

Глубокое обучение по-прежнему остается передовым методом. Вы определенно можете получить быстрое и простое решение, как и многие люди, особенно с широко доступными API, такими как Clarifai и AutoML от Google. Но если вы хотите сделать что-то по-настоящему индивидуально, такие услуги вам не помогут. Вы немного ограничены в том, чтобы делать что-то, хотя бы немного похожее на то, что делают все остальные, если только вы не готовы тратить деньги на исследования ...

К тому же это дорогое удовольствие не только из-за ресурсов, необходимых для получения данных и вычислительной мощности, но и из-за найма исследователей. Исследования в области глубокого обучения сейчас очень популярны, поэтому все эти три расходы очень сильно завышены. Вы также получаете очень большие накладные расходы, поскольку, делая что-то настолько индивидуализированное, вы тратите много времени, просто экспериментируя и ломая что-то.

(3) Глубокие сети нелегко интерпретировать

Глубокие сети - это очень «черный ящик», поскольку даже сейчас исследователи не до конца понимают «внутреннюю часть» глубинных сетей. У них высокая предсказательная сила, но низкая интерпретируемость. Гиперпараметры и проектирование сети также представляют собой серьезную проблему из-за отсутствия теоретической основы.

В последнее время появилось множество инструментов, таких как карты значимости и различия в активации, которые отлично работают для некоторых доменов, аналогично показанному на рисунке ниже. Но, к сожалению, они полностью не переносятся на все приложения. Эти инструменты в основном хорошо разработаны для того, чтобы убедиться, что вы не переобучаете свою сеть под набор данных или не сосредотачиваетесь на определенных функциях, которые являются ложными. По-прежнему очень сложно интерпретировать важность каждой функции для общего решения глубокой сети.

С другой стороны, классические алгоритмы машинного обучения, такие как регрессия или случайные леса, довольно легко интерпретировать и понимать из-за прямого проектирования функций. Кроме того, настройка гиперпараметров и изменение конструкций моделей более просты, поскольку у нас есть более глубокое понимание данных и лежащих в их основе алгоритмов. Это особенно важно, когда результаты сети должны быть переведены и доставлены общественности или нетехнической аудитории. Мы не можем просто сказать «мы продали эти акции» или «мы применили этот препарат к этому пациенту» , потому что это сказано в нашей глубокой сети. Нам нужно знать почему. К сожалению, все доказательства, которые у нас есть в пользу глубокого обучения, носят эмпирический характер.

Любите учиться?

Следуйте за мной в твиттере, где я публикую все о новейших и величайших достижениях искусственного интеллекта, технологий и науки! Присоединяйтесь и ко мне в LinkedIn!