LU分解和Laplace算法在GPU上的实现  被引量:9

Implementation of LU decomposition and Laplace algorithms on GPU

在线阅读下载全文

作  者:陈颖[1] 林锦贤[1,2] 吕暾[2,3] 

机构地区:[1]福州大学数学与计算机科学学院,福州350108 [2]福州大学福建省超级计算中心,福州350108 [3]福州大学生物科学与工程学院,福州350108

出  处:《计算机应用》2011年第3期851-855,共5页journal of Computer Applications

基  金:福建省高校科研专项重点项目(JK2009002);福建省科技厅青年人才基金资助项目(2008F306010107)

摘  要:随着图形处理器(GPU)性能的大幅度提升以及可编程性的发展,已经有许多算法成功地移植到GPU上。LU分解和Laplace算法是科学计算的核心,但计算量往往很大,由此提出了一种在GPU上加速计算的方法。使用Nvidia公司的统一计算设备架构(CUDA)编程模型实现这两个算法,通过对CPU与GPU进行任务划分,同时利用GPU上的共享存储器提高数据访问速度,对GPU程序进行分支消除,并且对矩阵分段计算以达到加速计算的目的。实验结果表明,随着矩阵规模的增大,基于GPU的算法相对于基于CPU的算法具有良好的加速效果。With the advancement of Graphics Processing Unit (GPU) and the creation of its new feature of programmability, many algorithms have been successfully transferred to GPU. LU decomposition and Laplace algorithms are the core in scientific computation, but computation is usually too large; therefore, a speedup method was proposed. The implementation was based on Nvidia's GPU which supported Compute Unified Device Architecture ( CUDA). Dividing tasks on CPU and GPU, using shared memory on GPU to increase the speed of data access, eliminating the branch in GPU program and stripping the matrix were used to speed up the algorithms. The experimental results show that with the size of matrix increasing, the algorithm based on GPU has a good speedup compared with the algorithm based on CPU.

关 键 词:图形处理器 LU分解 Laplace算法 统一计算设备架构 共享存储器 

分 类 号:TP312[自动化与计算机技术—计算机软件与理论]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象