Вопросы с тегом 'multi-gpu'

Это относится к одному приложению, использующему несколько графических процессоров, либо в традиционных (графических), либо в универсальных (GPGPU) приложениях.
1 отв.

Как я могу переопределить ограничение времени выполнения ядра CUDA для Windows с дополнительными графическими процессорами?

На веб-сайте Nvidia объясняется проблема тайм-аута: Q: Каково максимальное время выполнения ядра? В Windows, запуск отдельных программ GPU имеет максимальное время работы около 5 секунд. Превышение этого временного ограничения обычно приведет к сб...
03 марта '13 в 3:26
1 отв.

cudaMemGetInfo возвращает такое же количество свободной памяти на обоих устройствах GTX 690

Я столкнулся с проблемами с GeForce GTX 690, пытаясь отследить использование памяти. Простая тестовая программа: BOOST_AUTO_TEST_CASE(cudaMemoryTest) { size_t mem_tot_0 = 0; size_t mem_free_0 = 0; size_t mem_tot_1 = 0; size_t mem_free_1 = 0; unsig...
12 апр. '13 в 11:00
2 отв.

Код, работающий на двух графических процессорах, не достигает одновременного выполнения и имеет неуместное ускорение

У меня такой код: for(int i =0; i<2; i++) { //initialization of memory and some variables ........ ........ RunDll(input image, output image); //function that calls kernel } Каждая итерация в этом цикле является независимой. Я х...
05 сент. '13 в 12:23
1 отв.

Командная очередь OpenCL для запуска Concurrent NDKernal

Я пытаюсь запустить приложение сложения векторов, когда мне нужно запускать несколько ядер одновременно, поэтому для одновременного запуска ядра кто-то в моем последнем вопросе советовал мне использовать несколько командных очередей. которые im опре...
10 окт. '14 в 0:01
1 отв.

GPUDirect Peer 2 с использованием шины PCIe: если мне нужно получить слишком много данных на других графических процессорах, это не приведет к взаимоблокировкам?

У меня есть программа моделирования, которая требует большого количества данных. Я загружаю данные в графические процессоры для расчета, и в данных много зависимости. Поскольку для данных было недостаточно одного GPU, я обновил его до 2 графических ...
08 янв. '15 в 6:06
1 отв.

Могу ли я использовать в атомных операциях CUDA на удаленном GPU-RAM через GPUDirect 2.0 P2P?

Например, я могу использовать атомные операции CUDA atomicAdd(ptr, val), atomicCAS(ptr, old, new) ,... в своей глобальной памяти (GPU-RAM). С CUDA 6.5. Но могу ли я использовать эти атомные операции для удаленной глобальной памяти через GPUDirect 2...
18 янв. '15 в 21:47
1 отв.

Могут ли разные потоки устанавливать разные графические процессоры в качестве их текущего устройства CUDA?

Например, у меня есть 2 графических процессора и 2 хост-потока. Я не могу проверить это, потому что многоязычный компьютер находится далеко от меня. Я хочу, чтобы первый поток хоста работал с первым графическим процессором, а второй хост-поток работ...
09 марта '15 в 3:24
2 отв.

Связаны ли потоки CUDA с устройством? И как мне получить устройство потока?

У меня поток CUDA, который кто-то мне передал - значение cudaStream_t. API-интерфейс CUDA Runtime API, похоже, не указывает, как я могу получить индекс устройства, с которым связан этот поток. Теперь я знаю, что cudaStream_t - это всего лишь указат...
17 июля '15 в 14:28
1 отв.

Caffe падает после первой итерации?

Caffe падает, когда я тренирую сеть. Решатель и модель. В этом случае я использовал только GPU 0. Вот трассировка ошибки: build/tools/caffe train -solver models/mv16f/solver.prototxt -gpu 0 I0113 14:21:05.861361 85242 solver.cpp:289] Learning Rat...
13 янв. '16 в 17:42
1 отв.

В чем преимущество тренинга Multi-GPU в TensorFlow?

В этом учебном пособии TensorFlow вы можете использовать N количество графических процессоров для распределения N мини-партий (каждый из которых содержит M обучающих образцов) для каждого графического процессора и вычисления градиентов одновременно....
10 июня '16 в 21:17
2 отв.

Производительность обработки Tensorflow с несколькими gpu

друзья! У меня вопрос о обработке с несколькими gpu. Я использую 4 gpus и попробовал простой пример A ^ n + B ^ n в 3-х вариантах, как показано ниже. Один GPU with tf.device('/gpu:0'): ....tf.matpow codes... Несколько графических процессор...
10 янв. '17 в 15:49
0 отв.

Нормализация партии с несколькими GPU в факеле

Поддерживает ли факел синхронизацию running_mean и running_var между клонами, присутствующими в N графических процессорах, во время обучения с несколькими GPU? Говорят, что любой модуль Torch, который входит в nn.DataParallelTable, оптимизируется с ...
24 февр. '17 в 9:52
1 отв.

Использует ли MXNet библиотеку Nvidia NCCL для обмена несколькими GPU?

На веб-сайте Nvidia они заявили, что MXNet использует NCCL (https://developer.nvidia.com/nccl). Тем не менее, я не нашел ссылки из репозитория MXNet github, что они фактически используют библиотеку NCCL. В блоге chainer они также утверждали, что це...
07 сент. '17 в 22:33
0 отв.

Выделить два отдельных графических процессора для разных потоков в python?

Я хочу использовать два исходных кода python, первый из которых разработан с помощью tensorflow а другой - с использованием pythorch. Я хочу запускать каждый из этих кодов в потоке с отдельным графическим процессором. ввод обоих кодов одинаковый, и ...
28 нояб. '17 в 14:21
1 отв.

Преобразование mLSTM - запуск на нескольких графических процессорах

Я запускаю преобразование mLSTM (мультипликативное LSTM) (основанное на mLSTM OpenAi (просто преобразование, оно уже обучено), но для преобразования более чем 100 000 документов требуется очень много времени. Я хочу, чтобы он работал на нескольких ...
03 дек. '17 в 17:34