Вопросы с тегом 'deep-learning'

Deep Learning - это область машинного обучения, целью которой является изучение сложных функций с использованием специальных нейронных сетевых архитектур, которые являются "глубокими" (состоят из множества слоев). Этот тег следует использовать для вопросов о внедрении глубоких архитектур обучения. Общие вопросы машинного обучения должны быть отмечены как "машинное обучение". Включение тега для соответствующей библиотеки программного обеспечения (например, "keras" или "tensorflow" ) полезно.
12

Эпоха против итерации при обучении нейронных сетей

В чем разница между эпохой и итерацией при обучении многослойного персептрона?
20 янв. '11 в 21:11
13

В чем разница между "SAME" и "VALID" дополнением в tf.nn.max_pool тензорного потока?

В чем разница между "SAME" и "VALID" дополнением в tf.nn.max_pool от tensorflow? На мой взгляд, "VALID" означает, что при максимальном пуле не будет нулевого заполнения за пределами краев. В соответствии с Руководством по арифметике свертки дл...
07 июн. '16 в 8:32
3

Понимание KES LSTM

Я пытаюсь примирить свое понимание LSTM и указал здесь на этом посту Кристофера Олаха, реализованного в Keras. Я следую блогу, написанному Джейсоном Браунли для учебника Keras. Я в основном смущен, Перестройка рядов данных в [samples, time steps, f...
02 авг. '16 в 8:04
10

В чем смысл слова logits в TensorFlow?

В следующей функции TensorFlow мы должны подавать активацию искусственных нейронов в конечном слое. Это я понимаю. Но я не понимаю, почему это называется логитами? Разве это не математическая функция? loss_function = tf.nn.softmax_cross_entropy_with...
04 янв. '17 в 2:02
3

Как интерпретировать "потерю" и "точность" для модели машинного обучения

Когда я тренировал свою нейронную сеть с помощью Theano или Tensorflow, они будут сообщать переменную, называемую "потеря" за эпоху. Как интерпретировать эту переменную? Более высокие потери лучше или хуже, или что это означает для конечной производ...
29 дек. '15 в 20:33
3

Объяснение ввода Keras: input_shape, units, batch_size, dim и т.д.

Для любого слоя Keras (класс Layer) может кто-нибудь объяснить, как понимать разницу между input_shape, units, dim и т.д.? Например, в документе указывается, что units определяют форму вывода слоя. На изображении нейронной сети ниже hidden layer1 ...
25 июн. '17 в 14:29
12

Зачем нужна нелинейная активационная функция в нейронной сети обратного распространения?

Я читал некоторые вещи о нейронных сетях, и я понимаю общий принцип однослойной нейронной сети. Я понимаю потребность в дополнительных слоях, но почему используются нелинейные функции активации? За этим следует следующий вопрос: Что такое производна...
20 мар. '12 в 6:06
12

Keras binary_crossentropy vs categorical_crossentropy performance?

Я пытаюсь обучить Си-Эн-Эн классифицировать текст по темам. Когда я использую двоичную кроссентропию, я получаю точность ~ 80%, а с категориальной кроссентропией - ~ 50%. Я не понимаю, почему это так. Это проблема мультикласса, не означает ли это, ч...
07 февр. '17 в 3:34
4

Лучший способ сохранить подготовленную модель в PyTorch?

Я искал альтернативные способы сохранения обученной модели в PyTorch. До сих пор я нашел две альтернативы. torch.save(), чтобы сохранить модель и torch.load() для загрузки модели. model.state_dict(), чтобы сохранить подготовленную модель и модель....
09 мар. '17 в 19:06
10

Keras, Как получить выход каждого слоя?

Я подготовил двоичную классификационную модель с CNN, и вот мой код model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape...
18 янв. '17 в 4:07
2

Интуитивное понимание 1D, 2D и 3D сверток в сверточных нейронных сетях

Может ли кто-нибудь, пожалуйста, четко объяснить разницу между 1D, 2D и 3D свертками в CNN (Deep Learning) с примерами?
19 мар. '17 в 6:20
3

многослойная архитектура персептрона (MLP): критерии выбора количества скрытых слоев и размер скрытого слоя?

Если у нас есть 10 собственных векторов, то мы можем иметь 10 нейронных узлов во входном слое. Если у нас есть 5 выходных классов, то у нас может быть 5 узлов в выходном слое. Но каковы критерии выбора количества скрытого слоя в MLP и сколько нейронн...
12 мая '12 в 17:18
6

Как применить градиентное обрезание в TensorFlow?

С учетом примерного кода. Я хотел бы знать, как применить градиентное обрезание в этой сети в RNN, где есть возможность взрыва градиентов. tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) Это пример, который можно использовать, но г...
08 апр. '16 в 11:09
5

Что означает global_step в Tensorflow?

В этом учебном коде с сайта TensorFlow, global_step кто-нибудь помочь объяснить, что означает global_step? На веб-сайте Tensorflow я обнаружил, что глобальный шаг - это подсчет шагов обучения, но я не совсем понимаю, что именно это означает. Кр...
15 дек. '16 в 14:32
2

От многих до одного и от многих до многих примеров LSTM в Keras

Я пытаюсь понять LSTM и как их построить с помощью Keras. Я обнаружил, что в основном есть 4 режима для запуска RNN (4 правильных на рисунке) Источник изображения: Андрей Карпати Теперь мне интересно, как будет выглядеть минималистичный фрагмент ...
26 мар. '17 в 21:47