4.并行效果
并行测试数据如下:

测试数据中,在网格规模为1.6千万时,串行计算耗时2741秒(约45分钟),MPI并行(2个节点)耗时1427秒(约24分钟),GPU并行(NVIDIA GTX260+,216个SP)耗时171秒(约3分钟);MPI和GPU并行加速比分别是1.92和16.03。
总的来说,热传导问题的并行求解取得了很好的效果。虽然该算法较为简单,但表明在热传导问题上,并行求解将会有较好的效果。
4.并行效果
并行测试数据如下:

测试数据中,在网格规模为1.6千万时,串行计算耗时2741秒(约45分钟),MPI并行(2个节点)耗时1427秒(约24分钟),GPU并行(NVIDIA GTX260+,216个SP)耗时171秒(约3分钟);MPI和GPU并行加速比分别是1.92和16.03。
总的来说,热传导问题的并行求解取得了很好的效果。虽然该算法较为简单,但表明在热传导问题上,并行求解将会有较好的效果。