Вопросы с тегом 'gpgpu'

GPGPU является акронимом для области компьютерной науки, известной как "вычисления общего назначения на графическом процессоре (GPU)"
4 отв.

API-интерфейс API CUDA и время выполнения CUDA

При написании приложений CUDA вы можете либо работать на уровне драйвера, либо на уровне выполнения, как показано на этом изображении (библиотеки CUFFT и CUBLAS для передовой математики): Я предполагаю, что компромисс между ними - это повышенная ...
28 окт. '08 в 14:03
2 отв.

GPGPU против Multicore?

Каковы основные практические различия между GPGPU и регулярным многоядерным/многопоточным программированием ЦП, с точки зрения программиста? В частности: Какие типы проблем лучше подходят для регулярной многоядерности и какие типы лучше подходят дл...
07 мая '11 в 7:45
4 отв.

Проблемы классификации изображений в режиме реального времени Python с Neural Networks

Я пытаюсь использовать caffe и python для классификации изображений в режиме реального времени. Я использую OpenCV для потоковой передачи с веб-камеры в одном процессе и в отдельном процессе, используя caffe для выполнения классификации изображений н...
16 сент. '16 в 4:46
6 отв.

Возможно ли запустить CUDA на графических процессорах AMD?

Я хотел бы расширить свой набор навыков в вычислениях на GPU. Я знаком с raytracing и графикой в ​​реальном времени (OpenGL), но следующее поколение графических и высокопроизводительных вычислений похоже на графические процессоры или что-то в этом ро...
11 окт. '12 в 0:02
8 отв.

Время ожидания приложений CUDA и отказ через несколько секунд - как обойти это?

Я заметил, что приложения CUDA имеют приблизительное максимальное время выполнения 5-15 секунд, прежде чем они потерпят неудачу и выйдут. Я понимаю, что идеально, чтобы приложение CUDA не выполнялось так долго, но предполагая, что это правильный выбо...
31 янв. '09 в 2:29
8 отв.

Как использовать OpenCL на Android?

Для независимости платформы (рабочий стол, облако, мобильный,...) было бы здорово использовать OpenCL для разработки GPGPU, когда скорость имеет значение. Я знаю, что Google подталкивает RenderScript в качестве альтернативы, но, похоже, он доступен т...
25 янв. '12 в 18:33
2 отв.

OpenCL против производительности OpenMP

Проводились ли какие-либо исследования, сравнивающие производительность OpenCL с OpenMP? В частности, меня интересуют накладные расходы на запуск потоков с помощью OpenCL, например, если нужно разложить домен на очень большое количество отдельных раб...
31 авг. '11 в 23:46
7 отв.

Как получить OpenCL SDK?

Я просматривал http://www.khronos.org/ веб-сайт и нашел только заголовки для OpenCL (а не OpenGL, которые мне не нужны). Как я могу получить OpenCL SDK?
28 июля '09 в 0:27
4 отв.

В чем смысл GLSL, когда есть OpenCL?

Рассмотрите эту форму в следующем виде: Поскольку OpenCL может быть общим стандартом для серьезных графических процессоров в будущем (среди других программ программирования), почему бы и нет, когда программирование для OpenGL - в будущем - использова...
11 сент. '10 в 0:24
6 отв.

OpenCL - Как запросить ширину SIMD устройства?

В CUDA существует концепция warp, которая определяется как максимальное количество потоков, которые могут выполнять одну и ту же команду одновременно в пределах одного обрабатывающего элемента. Для NVIDIA этот размер основы составляет 32 для всех сво...
17 авг. '11 в 16:15
5 отв.

Как я могу очистить память GPU с помощью CUDA (физический reset недоступен)

Моя программа CUDA потерпела крах во время выполнения, прежде чем была сброшена память. В результате память устройства осталась занятой. Я работаю на GTX 580, для которого nvidia-smi --gpu-reset не поддерживается. Размещение cudaDeviceReset() в на...
04 марта '13 в 11:22
3 отв.

Как динамически выделять массивы внутри ядра?

Мне нужно динамически выделять некоторые массивы внутри функции ядра. Как я могу это сделать? Мой код выглядит примерно так: __global__ func(float *grid_d,int n, int nn){ int i,j; float x[n],y[nn]; //Do some really cool and heavy ...
20 нояб. '12 в 22:00
4 отв.

Каков текущий статус С++ AMP

Я работаю над высокопроизводительным кодом на С++ и использую как CUDA, так и OpenCL и совсем недавно С++ AMP, которые мне очень нравятся. Однако я немного обеспокоен тем, что он не разрабатывается и не расширяется и не умрет. Что приводит меня к эт...
24 янв. '16 в 0:48
4 отв.

Эффективность блоков CUDA Block и Grid

Каков рекомендуемый способ работы с наборами данных с динамическим размером в cuda? Является ли это случаем "задавать размеры блока и сетки на основе набора проблем" или стоит ли назначать размеры блоков как коэффициенты 2 и иметь некоторую встроенн...
27 апр. '11 в 23:54
1 отв.

Изменение пропусков кеша в GPU

Я собирал ядро ​​OpenCL, которое обращалось к 7 глобальным буферам памяти, делало что-то по этим значениям и возвращало результат в 8-й глобальный буфер памяти. Как я заметил, по мере увеличения размера ввода коэффициент пропуска кеша L1 (= промахи (...
19 июля '11 в 17:41