设计MPI并行程序,计算定积分: f 0 10 x d x f_{0}^{10}\sqrt{x}dx f010x dx。
这题非常简单,首先我们设定有 n 个进程分任务并行完成这个计算需求。每个进程要计算 m 个小曲边梯形的面积。然后规定除了 0 进程以外的进程把计算的结果发给 0 进程,然后再由 0 进程统一把计算的部分结果加起来就是整个定积分的值了!
怎么计算曲边梯形的面积呢?稍微啰嗦一下下,假设当前进程的秩是 rank,那么这个进程处理的区间的左边界一定是:rank * m
,然后在该进程下,每次计算的曲边梯形的高 h = f((rank * m + k) * w + w / 2)
,这个f(x)也就是被积函数!这个 w 也就是每个进程处理的区间的每个小曲边梯形的步长,也就是人家的底边。每次我们计算小曲边梯形的底边中点对应的高,就是 h了!然后累积它们即可!
#include <mpi.h> #include <stdio.h> #include <stdlib.h> #include <math.h> double f(double x) { return sqrt(x);// f(x) = sqrt(x) } int main(int argc, char** argv) { int rank, size; double s = 0.0, t = 10.0; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Comm_size(MPI_COMM_WORLD, &size); int pro_num = size; int per_num = 10000, k; double w = (t - s) / (1.0 * pro_num * per_num); double part_num = 0.0, x; for (k = 0; k < per_num; ++k) { x = s + (1.0 * rank * per_num + k) * w + w / 2.0; part_num += f(x) * w; } if (0 != rank) { MPI_Send(&part_num, 1, MPI_DOUBLE, 0, rank, MPI_COMM_WORLD); } else { int j = 0; double result = part_num; double temp_res; for (j = 1; j < size; ++j) { MPI_Recv(&temp_res, 1, MPI_DOUBLE, j, j, MPI_COMM_WORLD, MPI_STATUSES_IGNORE); result += temp_res; } printf("The result is : %.3lf\n", result); } MPI_Finalize(); return 0; }
这题还是比较easy的,相比课题上那不是人的seidel迭代、超松弛迭代……这个还算非常友好!
不过需要注意的是,这个Linux里头啊,编译带有 math.h 的数学库,需要在后面加一个参数 -lm 来告知编译器你用了 math 库!
想办法计算圆周率PI,要用MPI并行程序设计!
已知 PI = arctan(1) * 4
,于是有下列计算PI的公式:
π = 4 ∗ f 0 1 1 1 + x 2 d x \pi = 4 * f_{0}^{1}\frac{1}{1 + x^2}dx π=4∗f011+x21dx
这样就和上面第一题完全一样的啦,就不多解释了,直接上代码吧!
#include <mpi.h> #include <stdio.h> #include <stdlib.h> double f(double x) { // f(x) = 1/(1 + x^2) return (1.0 / (1 + x * x)); } int main(int argc, char** argv) { int rank, size; double s = 0.0, t = 1.0; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Comm_size(MPI_COMM_WORLD, &size); int pro_num = size; int per_num = 100000, k; double w = (t - s) / (1.0 * pro_num * per_num); double part_num = 0.0, x; for (k = 0; k < per_num; ++k) { x = s + (1.0 * rank * per_num + k) * w + w / 2.0; part_num += f(x) * w; } if (0 != rank) { MPI_Send(&part_num, 1, MPI_DOUBLE, 0, rank, MPI_COMM_WORLD); } else { int j = 0; double result = part_num; double temp_res; for (j = 1; j < size; ++j) { MPI_Recv(&temp_res, 1, MPI_DOUBLE, j, j, MPI_COMM_WORLD, MPI_STATUSES_IGNORE); result += temp_res; } result *= 4; printf("The result is : %.3lf\n", result); } MPI_Finalize(); return 0; }
本题的做法理应非常多!
还可以去做级数,因为PI = cos(-1) = ……(级数的表示)
所以还可以分任务,并行计算这个级数,然后近似得到结果!
乒乓球是一项双人运动,要求是A发球,随后B接球……如此循环往复!
要求利用MPI并行程序设计,得到两个计算节点(或者是同一计算节点下的两个进程),并行完成接球与发球,做到两个进程双方来回打乒乓球!一定要是A发完球B才能接球,B发球时A同理!
两方发球接球倒是很简单的事情,只需要两个进程并行完成消息传递即可!
但是后面的要求是要A完成发球B才能接球,由于程序的运行、内存的分配在不同的两个进程中是相互独立的!所以可能出现A一直调度而B比较慢,又无法抢占调度!
出现A连续发球好几次B才接到球这样的情况,所以我们用Sleep()的方式处理,要求A在发球后立刻进入阻塞队列,好让B有机会调度,等到B发球的时候同理!
#include <mpi.h> #include <stdio.h> #include <unistd.h> int main(int argc, char** argv) { MPI_Init(NULL, NULL); int world_size; MPI_Comm_size(MPI_COMM_WORLD, &world_size); int world_rank; MPI_Comm_rank(MPI_COMM_WORLD, &world_rank); if(2 != world_size) { fprintf(stderr, "error: must have two process in %s \n", argv[0]); MPI_Abort(MPI_COMM_WORLD, 1); } int LIMIT = 10, count = 0, tag1 = 0, tag2 = 0; while(count < LIMIT) { if(tag1 == tag2) MPI_Barrier(MPI_COMM_WORLD); if(world_rank == 1) { MPI_Recv(&count, 1, MPI_INT, 0, tag2, MPI_COMM_WORLD, MPI_STATUS_IGNORE); tag2++; printf("1 process received %d from 0 process\n", count); sleep(1); count++; MPI_Send(&count, 1, MPI_INT, 0, tag2, MPI_COMM_WORLD); } else { count++; MPI_Send(&count, 1, MPI_INT, 1, tag1, MPI_COMM_WORLD); tag1++; MPI_Recv(&count, 1, MPI_INT, 1, tag1, MPI_COMM_WORLD, MPI_STATUS_IGNORE); printf("0 process received %d from 1 process\n", count); sleep(1); } } MPI_Finalize(); return 0; }
这里我们就可以看到,我们做到了每一轮收到的一方都是上一轮发球的一方!
自认为这题我做的很糟糕!!!!
因为我采用这种强行阻断进程,强行让进程进入阻塞队列的Sleep()函数,导致了效率非常底下!!!!
希望各位前辈大佬带带刚刚入门高性能计算的小弟,教教我有无高效的做法完成这种来回进程调度!!!!