Вопросы с тегом 'multi-gpu'

Это относится к одному приложению, использующему несколько графических процессоров, либо в традиционных (графических), либо в универсальных (GPGPU) приложениях.
1

Командная очередь OpenCL для запуска Concurrent NDKernal

Я пытаюсь запустить приложение сложения векторов, когда мне нужно запускать несколько ядер одновременно, поэтому для одновременного запуска ядра кто-то в моем последнем вопросе советовал мне использовать несколько командных очередей. которые im опре...
09 окт. '14 в 21:01
1

GPUDirect Peer 2 с использованием шины PCIe: если мне нужно получить слишком много данных на других графических процессорах, это не приведет к взаимоблокировкам?

У меня есть программа моделирования, которая требует большого количества данных. Я загружаю данные в графические процессоры для расчета, и в данных много зависимости. Поскольку для данных было недостаточно одного GPU, я обновил его до 2 графических ...
08 янв. '15 в 3:06
1

Могу ли я использовать в атомных операциях CUDA на удаленном GPU-RAM через GPUDirect 2.0 P2P?

Например, я могу использовать атомные операции CUDA atomicAdd(ptr, val), atomicCAS(ptr, old, new) ,... в своей глобальной памяти (GPU-RAM). С CUDA 6.5. Но могу ли я использовать эти атомные операции для удаленной глобальной памяти через GPUDirect 2...
18 янв. '15 в 18:47
1

Могут ли разные потоки устанавливать разные графические процессоры в качестве их текущего устройства CUDA?

Например, у меня есть 2 графических процессора и 2 хост-потока. Я не могу проверить это, потому что многоязычный компьютер находится далеко от меня. Я хочу, чтобы первый поток хоста работал с первым графическим процессором, а второй хост-поток работ...
09 мар. '15 в 0:24
2

Связаны ли потоки CUDA с устройством? И как мне получить устройство потока?

У меня поток CUDA, который кто-то мне передал - значение cudaStream_t. API-интерфейс CUDA Runtime API, похоже, не указывает, как я могу получить индекс устройства, с которым связан этот поток. Теперь я знаю, что cudaStream_t - это всего лишь указат...
17 июл. '15 в 11:28
1

Caffe падает после первой итерации?

Caffe падает, когда я тренирую сеть. Решатель и модель. В этом случае я использовал только GPU 0. Вот трассировка ошибки: build/tools/caffe train -solver models/mv16f/solver.prototxt -gpu 0 I0113 14:21:05.861361 85242 solver.cpp:289] Learning Rat...
13 янв. '16 в 14:42
1

В чем преимущество тренинга Multi-GPU в TensorFlow?

В этом учебном пособии TensorFlow вы можете использовать N количество графических процессоров для распределения N мини-партий (каждый из которых содержит M обучающих образцов) для каждого графического процессора и вычисления градиентов одновременно....
10 июн. '16 в 18:17
2

Производительность обработки Tensorflow с несколькими gpu

друзья! У меня вопрос о обработке с несколькими gpu. Я использую 4 gpus и попробовал простой пример A ^ n + B ^ n в 3-х вариантах, как показано ниже. Один GPU with tf.device('/gpu:0'): ....tf.matpow codes... Несколько графических процессор...
10 янв. '17 в 12:49
0

Нормализация партии с несколькими GPU в факеле

Поддерживает ли факел синхронизацию running_mean и running_var между клонами, присутствующими в N графических процессорах, во время обучения с несколькими GPU? Говорят, что любой модуль Torch, который входит в nn.DataParallelTable, оптимизируется с ...
24 февр. '17 в 6:52
1

Использует ли MXNet библиотеку Nvidia NCCL для обмена несколькими GPU?

На веб-сайте Nvidia они заявили, что MXNet использует NCCL (https://developer.nvidia.com/nccl). Тем не менее, я не нашел ссылки из репозитория MXNet github, что они фактически используют библиотеку NCCL. В блоге chainer они также утверждали, что це...
07 сент. '17 в 19:33
0

Выделить два отдельных графических процессора для разных потоков в python?

Я хочу использовать два исходных кода python, первый из которых разработан с помощью tensorflow а другой - с использованием pythorch. Я хочу запускать каждый из этих кодов в потоке с отдельным графическим процессором. ввод обоих кодов одинаковый, и ...
28 нояб. '17 в 11:21
1

Преобразование mLSTM - запуск на нескольких графических процессорах

Я запускаю преобразование mLSTM (мультипликативное LSTM) (основанное на mLSTM OpenAi (просто преобразование, оно уже обучено), но для преобразования более чем 100 000 документов требуется очень много времени. Я хочу, чтобы он работал на нескольких ...
03 дек. '17 в 14:34
0

Оценка модели с контрольной точки с помощью Multi GPU

Я знаю, как обучить сеть на одном графическом процессоре → сохранить контрольную точку → позже загрузить эту контрольную точку → запустить тесты. Я не могу понять, как это сделать, когда я тренируюсь с использованием нескольких графических процессо...
12 дек. '17 в 11:28
1

Поведение тензорного потока: вычисление градиента для нескольких GPU

Я пытаюсь вычислить глобальную среднюю и глобальную дисперсию для уровня пакетной нормализации для графических процессоров, как вперед, так и назад. С \sigma^2 = mean(x^2) - mean(x)^2, градиент по каждому x может быть независимо вычислен в GPU, к ко...
21 янв. '18 в 17:11
1

Возобновить обучение с помощью multi_gpu_model в Keras

Я тренирую модифицированную модель InceptionV3 с помощью multi_gpu_model в multi_gpu_model, и я использую model.save для сохранения всей модели. Затем я закрыл и перезапустил IDE и использовал load_model для восстановления модели. Проблема в том, ...
25 янв. '18 в 16:13