Вопросы с тегом 'cuda'

CUDA - это параллельная вычислительная платформа и модель программирования для графических процессоров Nvidia (графические процессоры). CUDA предоставляет интерфейс для графических процессоров Nvidia с помощью различных языков программирования, библиотек и API.
5
ответов

Может/должен ли я запускать этот код на графическом процессоре?

Я работаю над статистическим приложением, содержащим приблизительно 10-30 миллионов значений с плавающей запятой в массиве. Несколько методов, выполняющих разные, но независимые вычисления в массиве в вложенных циклах, например: Dictionary<float...
задан 09 нояб. '12 в 5:33
5
ответов

Fortran vs С++, поддерживает ли Fortran какое-либо преимущество в численном анализе в наши дни?

С быстрым развитием компиляторов С++, особенно с Intel, и способностей непосредственного применения SIMD-функций в ваших кодах C/С++, сохраняет ли Fortran какое-либо реальное преимущество в мире числовых вычислений? Я из прикладной математики, моя р...
задан 26 окт. '12 в 2:18
5
ответов

Модель CUDA - какой размер основы?

Какова связь между максимальным размером рабочей группы и размером основы? Допустим, мое устройство имеет 240 потоковых процессоров CUDA (SP) и возвращает следующую информацию - CL_DEVICE_MAX_COMPUTE_UNITS: 30 CL_DEVICE_MAX_WORK_ITEM_SIZES: 512/512...
задан 31 авг. '10 в 9:52
7
ответов

Программирование на Python GPU

В настоящее время я работаю над проектом на python, и я хотел бы использовать графический процессор для некоторых вычислений. На первый взгляд кажется, что доступно множество инструментов; на первый взгляд, я чувствую, что я что-то теряю. Copperhea...
задан 11 мая '11 в 2:16
3
ответов

CUDA: Сколько одновременных потоков в целом?

У меня есть GeForce GTX 580, и я хочу сделать выражение об общем количестве потоков, которые могут (в идеале) выполняться параллельно, для сравнения с 2 или 4 многоядерными процессорами. deviceQuery дает мне следующую возможную информацию: CUDA Cap...
задан 27 июня '11 в 11:58
3
ответов

Когда вызывать cudaDeviceSynchronize?

когда вы вызываете функцию cudaDeviceSynchronize, которая действительно нужна?. Насколько я понимаю из документации CUDA, ядра CUDA являются асинхронными, поэтому кажется, что после каждого запуска ядра мы должны вызвать cudaDeviceSynchronize. Те...
задан 09 авг. '12 в 20:25
3
ответов

Как и когда следует использовать передаваемый указатель с API-интерфейсом cuda?

У меня довольно хорошее представление о том, как распределять и копировать линейную память с помощью cudaMalloc() и cudaMemcpy(). Однако, когда я хочу использовать функции CUDA для выделения и копирования 2D или 3D-матриц, меня часто опровергают раз...
задан 20 апр. '13 в 14:43
3
ответов

Почему cudaMalloc() использует указатель на указатель?

Например, cudaMalloc((void**)&device_array, num_bytes); Этот вопрос уже был , и ответ был "потому что cudaMalloc возвращает код ошибки", но я не понимаю - что двойной указатель связан с возвратом кода ошибки? Почему простой оператор не может вы...
задан 17 окт. '12 в 17:46
8
ответов

Могу ли я программировать Nvidia CUDA, используя только Python, или мне нужно изучить C?

Я думаю, вопрос говорит сам за себя. Мне интересно делать серьезные вычисления, но я не программист по профессии. Я могу собрать достаточно питона вместе, чтобы сделать то, что я хочу. Но могу ли я написать программу на python и выполнить ее с помощь...
задан 01 июня '10 в 7:04
3
ответов

Структура массивов по сравнению с массивом структур в CUDA

Из некоторых комментариев, которые я прочитал здесь, по какой-то причине предпочтительнее иметь Structure of Arrays (SoA) над Array of Structures (AoS) для параллельных реализаций, таких как CUDA? Если это правда, может кто-нибудь объяснить, почему? ...
задан 29 июля '13 в 15:56
3
ответов

Как я могу скомпилировать код CUDA, а затем связать его с проектом С++?

Я ищу помощь при запуске проекта с участием CUDA. Моя цель - иметь проект, который я могу скомпилировать в компиляторе native g++, но использует код CUDA. Я понимаю, что мне нужно скомпилировать код CUDA в компиляторе nvcc, но из моего понимания я мо...
задан 23 февр. '12 в 23:53
4
ответов

API-интерфейс API CUDA и время выполнения CUDA

При написании приложений CUDA вы можете либо работать на уровне драйвера, либо на уровне выполнения, как показано на этом изображении (библиотеки CUFFT и CUBLAS для передовой математики): Я предполагаю, что компромисс между ними - это повышенная ...
задан 28 окт. '08 в 14:03
4
ответов

Упор внутри написанных пользователем ядер

Я новичок в Thrust. Я вижу, что все презентации и примеры Thrust содержат только хост-код. Я хотел бы знать, могу ли я передать device_vector в свое собственное ядро? Как? Если да, каковы операции, разрешенные на нем внутри кода ядра/устройства?
задан 01 апр. '11 в 11:14
2
ответов

Должен ли я объединить два похожих ядра с выражением "if", рискуя потерями производительности?

У меня есть две очень похожие функции ядра, в том смысле, что код почти тот же, но с небольшой разницей. В настоящее время у меня есть 2 варианта: Напишите два разных метода (но очень похожих) Напишите одно ядро ​​и поместите блоки кода, которые о...
задан 30 мая '11 в 20:45
5
ответов

выделение разделяемой памяти

я пытаюсь выделить общую память, используя постоянный параметр, но получаю ошибку. мое ядро выглядит так: __global__ void Kernel(const int count) { __shared__ int a[count]; } и я получаю сообщение об ошибке ошибка: выражение должно иметь пос...
задан 03 апр. '11 в 20:34