Вопросы с тегом 'deep-learning'

Deep Learning - это область машинного обучения, целью которой является изучение сложных функций с использованием специальных нейронных сетевых архитектур, которые являются "глубокими" (состоят из множества слоев). Этот тег следует использовать для вопросов о внедрении глубоких архитектур обучения. Общие вопросы машинного обучения должны быть отмечены как "машинное обучение". Включение тега для соответствующей библиотеки программного обеспечения (например, "keras" или "tensorflow" ) полезно.
10 отв.

Эпоха против итерации при обучении нейронных сетей

В чем разница между эпохой и итерацией при обучении многослойного персептрона?
21 янв. '11 в 0:11
12 отв.

В чем разница между "SAME" и "VALID" дополнением в tf.nn.max_pool тензорного потока?

В чем разница между "SAME" и "VALID" дополнением в tf.nn.max_pool от tensorflow? На мой взгляд, "VALID" означает, что при максимальном пуле не будет нулевого заполнения за пределами краев. В соответствии с Руководством по арифметике свертки дл...
07 июня '16 в 11:32
3 отв.

Понимание KES LSTM

Я пытаюсь примирить свое понимание LSTM и указал здесь на этом посту Кристофера Олаха, реализованного в Keras. Я следую блогу, написанному Джейсоном Браунли для учебника Keras. Я в основном смущен, Перестройка рядов данных в [samples, time steps, f...
02 авг. '16 в 11:04
10 отв.

Зачем нужна нелинейная активационная функция в нейронной сети обратного распространения?

Я читал некоторые вещи о нейронных сетях, и я понимаю общий принцип однослойной нейронной сети. Я понимаю потребность в дополнительных слоях, но почему используются нелинейные функции активации? За этим следует следующий вопрос: Что такое производна...
20 марта '12 в 9:06
3 отв.

Лучший способ сохранить подготовленную модель в PyTorch?

Я искал альтернативные способы сохранения обученной модели в PyTorch. До сих пор я нашел две альтернативы. torch.save(), чтобы сохранить модель и torch.load() для загрузки модели. model.state_dict(), чтобы сохранить подготовленную модель и модель....
09 марта '17 в 22:06
10 отв.

Keras binary_crossentropy vs categorical_crossentropy performance?

Я пытаюсь обучить CNN классифицировать текст по теме. Когда я использую binary_crossentropy, я получаю ~ 80% acc, а categorical_crossentrop получает ~ 50% acc. Я не понимаю, почему это так. Это проблема многоклассов, значит ли это, что я должен испо...
07 февр. '17 в 6:34
2 отв.

Объяснение ввода Keras: input_shape, units, batch_size, dim и т.д.

Для любого слоя Keras (класс Layer) может кто-нибудь объяснить, как понимать разницу между input_shape, units, dim и т.д.? Например, в документе указывается, что units определяют форму вывода слоя. На изображении нейронной сети ниже hidden layer1 ...
25 июня '17 в 17:29
3 отв.

многослойная архитектура персептрона (MLP): критерии выбора количества скрытых слоев и размер скрытого слоя?

Если у нас есть 10 собственных векторов, то мы можем иметь 10 нейронных узлов во входном слое. Если у нас есть 5 выходных классов, то у нас может быть 5 узлов в выходном слое. Но каковы критерии выбора количества скрытого слоя в MLP и сколько нейронн...
12 мая '12 в 20:18
8 отв.

Как добавить регуляции в TensorFlow?

Я обнаружил во многих доступных нейронных сетевых кодах, реализованных с использованием TensorFlow, что условия регуляризации часто реализуются вручную, добавив дополнительный термин к значению потерь. Мои вопросы: Есть ли более элегантный или рек...
09 мая '16 в 6:04
4 отв.

Использование предварительно обученного вложения слов (word2vec или Glove) в TensorFlow

Недавно я рассмотрел интересную реализацию для сверточного текстового классификации. Однако все рассмотренные мной коды TensorFlow используют случайные (не предварительно подготовленные) векторы внедрения, такие как: with tf.device('/cpu:0'), tf.nam...
28 февр. '16 в 23:11
3 отв.

Как интерпретировать "потерю" и "точность" для модели машинного обучения

Когда я тренировал свою нейронную сеть с помощью Theano или Tensorflow, они будут сообщать переменную, называемую "потеря" за эпоху. Как интерпретировать эту переменную? Более высокие потери лучше или хуже, или что это означает для конечной производ...
29 дек. '16 в 23:33
3 отв.

Оценка количества нейронов и количества слоев искусственной нейронной сети

Я ищу способ вычисления количества слоев и количества нейронов на слой. В качестве ввода я только размер входного вектора, размер выходного вектора и размер набора для тренировки. Обычно лучшая сеть определяется путем использования различных сетевых...
27 июля '10 в 18:13
7 отв.

Как назначить значение переменной TensorFlow?

Я пытаюсь назначить новое значение переменной tensorflow в python. import tensorflow as tf import numpy as np x = tf.Variable(0) init = tf.initialize_all_variables() sess = tf.InteractiveSession() sess.run(init) print(x.eval()) x.assign(1) print(...
11 дек. '15 в 12:51
9 отв.

OpenCL/AMD: глубокое обучение

В то время как "googl'ing" и некоторые исследования я не смог найти любую серьезную/популярную структуру /sdk для научных GPGPU-Computing и OpenCL на оборудовании AMD. Есть ли какая-либо литература и/или программное обеспечение, которое я пропусти...
03 июня '15 в 17:20
3 отв.

Gradient Descent vs Adagrad vs Momentum в TensorFlow

Я изучаю TensorFlow и как его использовать, даже если я не эксперт по нейронным сетям и глубокому обучению (только основы). После уроков я не понимаю реальных и практических различий между тремя оптимизаторами потерь. Я смотрю на API и понимаю прин...
22 марта '16 в 21:16