Вопросы с тегом 'cuda'

CUDA - это параллельная вычислительная платформа и модель программирования для графических процессоров Nvidia (графические процессоры). CUDA предоставляет интерфейс для графических процессоров Nvidia с помощью различных языков программирования, библиотек и API.
4 отв.

CUDA определяет потоки на блок, блоки на каждую сетку

Я новичок в парадигме CUDA. Мой вопрос заключается в определении количества потоков на блок и блоков в сетке. Входит ли в это искусство и испытание? Я обнаружил, что многие примеры имеют, по-видимому, произвольное число, выбранное для этих вещей. Я ...
08 дек. '10 в 21:58
5 отв.

LNK2038: обнаружено несоответствие для "RuntimeLibrary": значение "MT_StaticRelease" не соответствует значению "MD_DynamicRelease" в file.obj

Я объединяю Matlab, C и Cuda вместе в проекте. Я использовал сочетание Matlab для подключения функции matlab mx, написанной на c с библиотекой времени cuda, возникла ошибка связывания в конфликте в статической версии и динамическом выпуске между c ф...
05 марта '15 в 23:22
5 отв.

Fortran vs С++, поддерживает ли Fortran какое-либо преимущество в численном анализе в наши дни?

С быстрым развитием компиляторов С++, особенно с Intel, и способностей непосредственного применения SIMD-функций в ваших кодах C/С++, сохраняет ли Fortran какое-либо реальное преимущество в мире числовых вычислений? Я из прикладной математики, моя р...
26 окт. '12 в 2:18
5 отв.

Может/должен ли я запускать этот код на графическом процессоре?

Я работаю над статистическим приложением, содержащим приблизительно 10-30 миллионов значений с плавающей запятой в массиве. Несколько методов, выполняющих разные, но независимые вычисления в массиве в вложенных циклах, например: Dictionary<float...
09 нояб. '12 в 5:33
3 отв.

Когда вызывать cudaDeviceSynchronize?

когда вы вызываете функцию cudaDeviceSynchronize, которая действительно нужна?. Насколько я понимаю из документации CUDA, ядра CUDA являются асинхронными, поэтому кажется, что после каждого запуска ядра мы должны вызвать cudaDeviceSynchronize. Те...
09 авг. '12 в 20:25
7 отв.

Программирование на Python GPU

В настоящее время я работаю над проектом на python, и я хотел бы использовать графический процессор для некоторых вычислений. На первый взгляд кажется, что доступно множество инструментов; на первый взгляд, я чувствую, что я что-то теряю. Copperhea...
11 мая '11 в 2:16
5 отв.

Модель CUDA - какой размер основы?

Какова связь между максимальным размером рабочей группы и размером основы? Допустим, мое устройство имеет 240 потоковых процессоров CUDA (SP) и возвращает следующую информацию - CL_DEVICE_MAX_COMPUTE_UNITS: 30 CL_DEVICE_MAX_WORK_ITEM_SIZES: 512/512...
31 авг. '10 в 9:52
3 отв.

Как и когда следует использовать передаваемый указатель с API-интерфейсом cuda?

У меня довольно хорошее представление о том, как распределять и копировать линейную память с помощью cudaMalloc() и cudaMemcpy(). Однако, когда я хочу использовать функции CUDA для выделения и копирования 2D или 3D-матриц, меня часто опровергают раз...
20 апр. '13 в 14:43
3 отв.

CUDA: Сколько одновременных потоков в целом?

У меня есть GeForce GTX 580, и я хочу сделать выражение об общем количестве потоков, которые могут (в идеале) выполняться параллельно, для сравнения с 2 или 4 многоядерными процессорами. deviceQuery дает мне следующую возможную информацию: CUDA Cap...
27 июня '11 в 11:58
3 отв.

Почему cudaMalloc() использует указатель на указатель?

Например, cudaMalloc((void**)&device_array, num_bytes); Этот вопрос уже был , и ответ был "потому что cudaMalloc возвращает код ошибки", но я не понимаю - что двойной указатель связан с возвратом кода ошибки? Почему простой оператор не может вы...
17 окт. '12 в 17:46
3 отв.

Структура массивов по сравнению с массивом структур в CUDA

Из некоторых комментариев, которые я прочитал здесь, по какой-то причине предпочтительнее иметь Structure of Arrays (SoA) над Array of Structures (AoS) для параллельных реализаций, таких как CUDA? Если это правда, может кто-нибудь объяснить, почему? ...
29 июля '13 в 15:56
8 отв.

Могу ли я программировать Nvidia CUDA, используя только Python, или мне нужно изучить C?

Я думаю, вопрос говорит сам за себя. Мне интересно делать серьезные вычисления, но я не программист по профессии. Я могу собрать достаточно питона вместе, чтобы сделать то, что я хочу. Но могу ли я написать программу на python и выполнить ее с помощь...
01 июня '10 в 7:04
3 отв.

Как я могу скомпилировать код CUDA, а затем связать его с проектом С++?

Я ищу помощь при запуске проекта с участием CUDA. Моя цель - иметь проект, который я могу скомпилировать в компиляторе native g++, но использует код CUDA. Я понимаю, что мне нужно скомпилировать код CUDA в компиляторе nvcc, но из моего понимания я мо...
23 февр. '12 в 23:53
5 отв.

выделение разделяемой памяти

я пытаюсь выделить общую память, используя постоянный параметр, но получаю ошибку. мое ядро выглядит так: __global__ void Kernel(const int count) { __shared__ int a[count]; } и я получаю сообщение об ошибке ошибка: выражение должно иметь пос...
03 апр. '11 в 20:34
9 отв.

ImportError: libcublas.so.9.0: невозможно открыть файл общих объектов

В настоящее время у меня есть cuda 8.0 и cuda 9.0, установленные в системе поддержки Gpu. Я столкнулся с этой ошибкой при импорте из модуля keras. Он говорит, что не удалось загрузить собственную рабочую среду tensorflow. Журнал ошибок, который я пол...
24 янв. '18 в 20:30