admin管理员组

文章数量:1646243

问题

随着机器学习对模型运算速度的需求越来越强烈,

一直想进行GPU编程,但一直以来这些都是c++的专利

一想到c++里的各种坑,就提不起劲来,毕竟这样来来回回填坑的投入产出,生产效率就会大打折扣

解决方案

让人欣喜的是,随着Python阵营的不断发展壮大,使用python进行GPU编程也越来越便捷了

那么具体有些什么样的包,能针对GPU做些啥事呢?

看看一些具体的代码,就能大概明白:

首先是pycuda,这是它的一个例子:

mod = SourceModule("""__global__ void multiply_them(float *dest, float *a, float *b){const int i = threadIdx.x;dest[i] = a[i] * b[i];}""")

由上面的代码我们可以看出,pycuda将调用gpu的c++代码做了包装,可以在python里直接使用

再看看numba:

@cuda.jit

def increment_by_one(an_array):

pos = cuda.grid(1)

if pos < an_array.size:

an_array[pos] += 1

我们可以发现,numba更进一步,直接使用装饰器的办法让调用GPU的过程更简洁方便

再看看cupy:

import numpy

本文标签: 玩转显卡GPUPython