Глубокое обучение — это разновидность машинного обучения, в рамках которого искусственные нейронные сети (алгоритмы, которые должны работать, как человеческий мозг) обучаются на огромных объемах данных.
Работу глубокого обучения обеспечивают уровни нейронных сетей, которые представляют собой алгоритмы, действующие примерно так же, как человеческий мозг. Обучение на больших объемах данных позволяет настроить нейроны в нейронной сети. В результате образуется модель глубокого обучения, которая после окончания обучения способна обрабатывать новые данные. Модели глубокого обучения получают информацию из множества источников и анализируют эти данные в режиме реального времени без вмешательства человека. При глубоком обучении графические процессоры (GPU) оптимизируются для моделей обучения, потому что они могут одновременно обрабатывать множественные вычисления.
Глубокое обучение лежит в основе многих технологий искусственного интеллекта (ИИ), которые могут улучшить автоматизацию и аналитику. Большинство людей сталкиваются с глубоким обучением каждый день, когда ищут что-то в Интернете или пользуются своим мобильным телефоном. Глубокое обучение используется не только в многочисленных приложениях, но и для создания субтитров для видеороликов YouTube, в системах распознавания речи на телефонах и умных динамиках, для распознавания лиц на фотографиях, а также в автомобилях с автономным управлением. И по мере того, как исследователи и специалисты по изучению данных выполняют все более сложные проекты, используя возможности глубокого обучения, этот тип искусственного интеллекта будет занимать все более значимое место в нашей жизни.
Если сформулировать просто, то глубокое обучение — это название нейронных сетей с множеством уровней.
Чтобы извлечь информацию из данных наблюдений, таких как фотоснимки и аудиозаписи, нейронные сети пропускают данные через несколько взаимосвязанных уровней узлов. Когда информация проходит через уровень, каждый узел на этом уровне выполняет над ней простые операции и выборочно передает результаты другим узлам. Каждый следующий уровень занимается более сложными характеристиками, чем предыдущий, пока сеть не получит конечный результат.
Между уровнем на входе и уровнем на выходе есть скрытые уровни. Здесь и проявляется различие между нейронными сетями и глубоким обучением. В базовых нейронных сетях может существовать один-два скрытых уровня, а в глубоком обучении таких уровней десятки, а иногда и сотни. С увеличением количества разных уровней и узлов повышается точность сети. Однако при увеличении количества уровней также требуется больше параметров и вычислительных ресурсов.
Глубокое обучение классифицирует информацию, пропуская ее через уровни нейронных сетей с настроенными параметрами на входе для приема необработанных данных. Например, если нейронная сеть обучалась на изображениях птиц, она сможет распознавать птиц на новых изображениях. Чем больше в сети уровней, тем точнее результаты, например, сеть сможет отличить ворону от ворона, а не только ворону от курицы. Глубокие нейронные сети, обеспечивающие работу алгоритмов глубокого обучения, содержат несколько скрытых уровней между узлами ввода и вывода. Это значит, что они способны обеспечить более сложную классификацию данных. Алгоритм глубокого обучения необходимо обучить на больших наборах данных: чем больше данных он получит, тем точнее он будет работать. Например, алгоритму нужно обработать тысячи изображений птиц, прежде чем он сможет точно классифицировать птиц на новых изображениях.
В нейронных сетях обучение моделей глубокого обучения требует значительных ресурсов. Нейронная сеть принимает данные на входе и обрабатывает их на скрытых уровнях, используя веса (параметры, показывающие силу связи между введенными данными), которые уточняются в ходе обучения. Затем модель выдвигает предположение. Веса уточняются при обработке учебных данных, чтобы предположения были более точными. Модели глубокого обучения тратят много времени, обучаясь на больших объемах данных, поэтому такое значение имеют высокопроизводительные вычисления.
Графические процессоры оптимизируются для работы с данными и для повышения скорости и производительности масштабных матричных вычислений. Графические процессоры идеально подходят для параллельного решения масштабных задач глубокого и машинного обучения. Благодаря этому приложения машинного обучения, выполняющие сложные расчеты на больших объемах структурированных или неструктурированных данных (таких, как изображения, тексты или видео), добиваются высокой производительности.
Одно из главных преимуществ глубокого обучения состоит в том, что его нейронные сети умеют находить в данных скрытые закономерности и связи, которые ранее были неочевидны. Используя более надежные модели машинного обучения для анализа больших объемов сложных данных, компании могут быстрее и точнее выявлять случаи мошенничества, управлять цепочками поставок и кибербезопасностью, используя следующие возможности:
Алгоритмы глубокого обучения можно настроить на работу с текстовыми данными, чтобы они анализировали публикации в социальных сетях, новости и результаты опросов и выявляли закономерности, важные для компании и ее клиентов.
В ходе обучения алгоритмы глубокого обучения используют маркированные данные. Но после окончания обучения они могут самостоятельно маркировать новые данные и различать типы данных.
Алгоритмы машинного обучения позволяют экономить время, потому что людям не приходится извлекать признаки из необработанных данных вручную.
Когда алгоритм глубокого обучения хорошо обучен, он может выполнять тысячи задач снова и снова быстрее, чем люди.
Нейронные сети, которые используются в глубоком обучении, могут работать с разными типами данных и приложениями. Кроме того, модель глубокого обучения можно адаптировать, дообучив работе с новыми данными.
ИИ, машинное обучение и глубокое обучение связаны друг с другом, но между ними есть и определенные различия:
Искусственный интеллект позволяет компьютерам, машинам или роботам подражать способностям человека, таким как принятие решений, распознавание объектов и понимание языка.
Машинное обучение — это разновидность ИИ, ориентированная на создание приложений, способных обучаться на материале данных и со временем повышать точность своей работы без вмешательства человека. Алгоритмы машинного обучения можно настроить на выявление закономерностей, которые упростят принятие решений и построение прогнозов, но для этого обычно требуется участие человека.
Глубокое обучение — это разновидность машинного обучения, которая позволяет компьютерам решать более сложные задачи. Модели глубокого обучения также могут самостоятельно создавать новые функции.
Глубокое обучение можно использовать для анализа большого количества изображений. Так социальные сети смогут больше узнать о пользователях. Это позволит точнее настроить таргетинг рекламы и рекомендации.
Нейронные сети в моделях глубокого обучения можно использовать для прогнозирования стоимости ценных бумаг и разработки стратегий трейдинга. Можно также выявлять угрозы безопасности и защититься от мошенничества.
Глубокое обучение может сыграть важную роль в здравоохранении: анализировать тенденции и поведение, чтобы прогнозировать возможность заболевания у пациентов. Работники сферы здравоохранения могут использовать алгоритмы глубокого обучения, чтобы выбирать оптимальные методы осмотра и лечения для своих пациентов.
Глубокое обучение способно обнаруживать продвинутые угрозы лучше, чем традиционные решения для борьбы с вредоносными программами, потому что оно распознает новые подозрительные действия, а не реагирует на известные угрозы, перечисленные в базе данных.
Цифровые помощники — это довольно популярный пример глубокого обучения. Благодаря технологиям обработки текстов на естественных языках (NLP), Siri, Cortana, Google и Alexa могут отвечать на вопросы и адаптироваться к привычкам пользователей.
Несмотря на то, что для глубокого обучения постоянно находятся новые сферы применения, это все еще развивающееся направление, у которого есть свои ограничения.
Чтобы научиться давать более точные, значимые и абстрактные ответы, глубокое обучение должно обработать очень большой объем данных. Так же как и человеческому мозгу, алгоритму глубокого обучения нужны примеры, чтобы он мог учиться на своих ошибках и повышать точность результатов.
Машины пока еще могут учиться работать только в одном узком направлении, и эта особенность может приводить к ошибкам. Сетям глубокого обучения нужны данные для решения одной конкретной задачи. Если им придется выйти за рамки этой задачи, они, скорее всего, начнут ошибаться.
Модель обрабатывает миллионы единиц данных в поисках закономерностей, но при этом трудно понять, как именно нейронная сеть пришла к тому или иному выводу. Из-за того, что процесс обработки данных непрозрачен, трудно выявлять возможные непреднамеренные предпочтения и объяснять прогнозы.
Но, несмотря на эти ограничения, специалисты по изучению данных подходят все ближе к созданию высокоточных моделей глубокого обучения, которые смогут учиться без участия человека. Тогда глубокое обучение станет более быстрым и менее ресурсозатратным.
Объемы бизнес-данных постоянно увеличиваются, поэтому специалистам по изучению данных нужно уметь быстро создавать модели глубокого обучения и при этом обеспечивать гибкость, превосходящую возможности локального ИТ-оборудования.
Oracle Cloud Infrastructure (OCI) предлагает лучшие по соотношению цены и качества вычислительные возможности для рабочих нагрузок с большим объемом данных, быстрое облачное хранилище и сети 100 Гбит/с с поддержкой RDMA, малым временем задержки и высокой пропускной способностью. OCI также предоставляет экземпляры вычислений на GPU для глубокого обучения, предлагает простые в развертывании образы и обеспечивает гибкость: возможность использовать рабочую станцию с одним GPU или кластер с шаблонами конфигурации нескольких GPU.
Для создания, обучения и развертывания моделей машинного обучения в высокопроизводительной облачной инфрастуктуре попробуйте Oracle Cloud Infrastructure Data Science. Специалисты по изучению данных смогут создавать и обучать модели машинного обучения гораздо быстрее, если будут использовать NVIDIA GPU в сеансах блокнотов. Они также смогут выбирать объемы вычислительных ресурсов и хранилища, необходимые для выполнения проекта любого типа, не беспокоясь о том, где взять эти ресурсы и как поддерживать работу инфраструктуры. Кроме того, OCI Data Science ускоряет создание моделей за счет оптимизации задач по изучению данных, таких как доступ к данным, выбор алгоритмов и описание моделей.