Вопросы с тегом 'deep-learning'

Deep Learning - это область машинного обучения, целью которой является изучение сложных функций с использованием специальных нейронных сетевых архитектур, которые являются "глубокими" (состоят из множества слоев). Этот тег следует использовать для вопросов о внедрении глубоких архитектур обучения. Общие вопросы машинного обучения должны быть отмечены как "машинное обучение". Включение тега для соответствующей библиотеки программного обеспечения (например, "keras" или "tensorflow" ) полезно.
10

Эпоха против итерации при обучении нейронных сетей

В чем разница между эпохой и итерацией при обучении многослойного персептрона?
20 янв. '11 в 21:11
12

В чем разница между "SAME" и "VALID" дополнением в tf.nn.max_pool тензорного потока?

В чем разница между "SAME" и "VALID" дополнением в tf.nn.max_pool от tensorflow? На мой взгляд, "VALID" означает, что при максимальном пуле не будет нулевого заполнения за пределами краев. В соответствии с Руководством по арифметике свертки дл...
07 июн. '16 в 8:32
3

Понимание KES LSTM

Я пытаюсь примирить свое понимание LSTM и указал здесь на этом посту Кристофера Олаха, реализованного в Keras. Я следую блогу, написанному Джейсоном Браунли для учебника Keras. Я в основном смущен, Перестройка рядов данных в [samples, time steps, f...
02 авг. '16 в 8:04
10

В чем смысл слова logits в TensorFlow?

В следующей функции TensorFlow мы должны подавать активацию искусственных нейронов в конечном слое. Это я понимаю. Но я не понимаю, почему это называется логитами? Разве это не математическая функция? loss_function = tf.nn.softmax_cross_entropy_with...
04 янв. '17 в 2:02
3

Как интерпретировать "потерю" и "точность" для модели машинного обучения

Когда я тренировал свою нейронную сеть с помощью Theano или Tensorflow, они будут сообщать переменную, называемую "потеря" за эпоху. Как интерпретировать эту переменную? Более высокие потери лучше или хуже, или что это означает для конечной производ...
29 дек. '15 в 20:33
3

Объяснение ввода Keras: input_shape, units, batch_size, dim и т.д.

Для любого слоя Keras (класс Layer) может кто-нибудь объяснить, как понимать разницу между input_shape, units, dim и т.д.? Например, в документе указывается, что units определяют форму вывода слоя. На изображении нейронной сети ниже hidden layer1 ...
25 июн. '17 в 14:29
11

Зачем нужна нелинейная активационная функция в нейронной сети обратного распространения?

Я читал некоторые вещи о нейронных сетях, и я понимаю общий принцип однослойной нейронной сети. Я понимаю потребность в дополнительных слоях, но почему используются нелинейные функции активации? За этим следует следующий вопрос: Что такое производна...
20 мар. '12 в 6:06
4

Лучший способ сохранить подготовленную модель в PyTorch?

Я искал альтернативные способы сохранения обученной модели в PyTorch. До сих пор я нашел две альтернативы. torch.save(), чтобы сохранить модель и torch.load() для загрузки модели. model.state_dict(), чтобы сохранить подготовленную модель и модель....
09 мар. '17 в 19:06
12

Keras binary_crossentropy vs categorical_crossentropy performance?

Я пытаюсь обучить CNN классифицировать текст по теме. Когда я использую binary_crossentropy, я получаю ~ 80% acc, а categorical_crossentrop получает ~ 50% acc. Я не понимаю, почему это так. Это проблема многоклассов, значит ли это, что я должен испо...
07 февр. '17 в 3:34
2

Интуитивное понимание 1D, 2D и 3D сверток в сверточных нейронных сетях

Может ли кто-нибудь, пожалуйста, четко объяснить разницу между 1D, 2D и 3D свертками в CNN (Deep Learning) с примерами?
19 мар. '17 в 6:20
3

многослойная архитектура персептрона (MLP): критерии выбора количества скрытых слоев и размер скрытого слоя?

Если у нас есть 10 собственных векторов, то мы можем иметь 10 нейронных узлов во входном слое. Если у нас есть 5 выходных классов, то у нас может быть 5 узлов в выходном слое. Но каковы критерии выбора количества скрытого слоя в MLP и сколько нейронн...
12 мая '12 в 17:18
6

Как применить градиентное обрезание в TensorFlow?

С учетом примерного кода. Я хотел бы знать, как применить градиентное обрезание в этой сети в RNN, где есть возможность взрыва градиентов. tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) Это пример, который можно использовать, но г...
08 апр. '16 в 11:09
2

От многих до одного и от многих до многих примеров LSTM в Keras

Я пытаюсь понять LSTM и как их построить с помощью Keras. Я обнаружил, что в основном есть 4 режима для запуска RNN (4 правильных на рисунке) Источник изображения: Андрей Карпати Теперь мне интересно, как будет выглядеть минималистичный фрагмент ...
26 мар. '17 в 21:47
8

Как добавить регуляции в TensorFlow?

Я обнаружил во многих доступных нейронных сетевых кодах, реализованных с использованием TensorFlow, что условия регуляризации часто реализуются вручную, добавив дополнительный термин к значению потерь. Мои вопросы: Есть ли более элегантный или рек...
09 мая '16 в 3:04
4

Использование предварительно обученного вложения слов (word2vec или Glove) в TensorFlow

Недавно я рассмотрел интересную реализацию для сверточного текстового классификации. Однако все рассмотренные мной коды TensorFlow используют случайные (не предварительно подготовленные) векторы внедрения, такие как: with tf.device('/cpu:0'), tf.nam...
28 февр. '16 в 20:11