一般的数据复制到的显卡内存的部份,称为 global memory int* gpudata, *result; cudaMalloc((void**) &gpudata, sizeof(int) * DATA_SIZE); cudaMalloc((void**) &result, sizeof(int)); cudaMemcpy(gpudata, data, sizeof(int) * DATA_SIZE, cudaMemcpyHostToDevice); int sum; cudaMemcpy(&sum, result, sizeof(int), cudaMemcpyDeviceToHost); cudaFree(gpudata); cudaFree(result); 关键函数说明:1.5.1 cudaMalloc 名称 cudaMalloc – 在GPU上分配存储器 概要 cudaError_t cudaMalloc( void** devPtr,size_t count ) 说明 向设备分配 count 字节的线性存储器,并以*devPtr的形式返回指向所分配存储器的指针。可针对任何类型的变量合理调整所分配的存储器。存储器不会被清除。如果出现错误,cudaMalloc()将返回cudaErrorMemoryAllocation。 返回值 相关返回值: cudaSuccess cudaErrorMemoryAllocation 注意,如果之前是异步启动,该函数可能返回错误码。 1.1.1 1.5.10 cudaMemcpy 名称 cudaMemcpy – 在GPU和主机之间复制数据 概要 cudaError_t cudaMemcpy( void* dst,const void* src,size_t count,enum cudaMemcpyKind kind ) cudaError_t cudaMemcpyAsync( void* dst,const void* src,size_t count,enum cudaMemcpyKind kind,cudaStream_t stream ) 说明 从src指向的存储器区域中将count个字节复制到dst指向的存储器区域,其中kind是cudaMemcpyHostToHost、cudaMemcpyHostToDevice、cudaMemcpyDeviceToHost或cudaMemcpyDeviceToDevice之一,用于指定复制的方向。存储器区域不可重叠。调用cudaMemcpy()时,如果dst和src指针与复制的方向不匹配,则将导致不确定的行为。 cudaMemcpyAsync()是异步的,可选择传入非零流参数,从而将其关联到一个流。它仅对分页锁定的主存储器有效,如果传入指向可分页存储器的指针,那么将返回一个错误。 返回值 相关返回值: cudaSuccess cudaErrorInvalidValue cudaErrorInvalidDevicePointer cudaErrorInvalidMemcpyDirection 注意,如果之前是异步启动,该函数可能返回错误码。 1.1.2 1.5.3 cudaFree 名称 cudaFree – 释放GPU上的存储器 概要 cudaError_t cudaFree (void* devPtr) 说明 释放devPtr(必须在之前调用cudaMalloc()或cudaMallocPitch()时返回)指向的存储器空间。如果未返回或者之前已经调用过cudaFree(devPtr),则返回一个错误。如果devPtr为0,则不执行任何操作。如果出现错误,cudaFree()将返回cudaErrorInvalid-DevicePointer。 返回值 相关返回值: cudaSuccess cudaErrorInvalidDevicePointer cudaErrorInitializationError 注意,如果之前是异步启动,该函数可能返回错误码。
|