openmp
OpenMP 감소
수색…
비고
4 가지 버전 모두 유효하지만, 감소의 여러 측면을 보여줍니다.
기본적으로 reduction
절을 사용하는 첫 번째 구문을 선호해야합니다 . 이것은 3 가지 대안 중 하나를 탐색 할 수있는 일부 문제가 명시 적으로 식별 된 경우에만 해당됩니다.
PI의 근사값으로 #pragma omp reduction 수공예
int i;
int n = 1000000;
double area = 0;
double h = 1.0 / n;
#pragma omp parallel shared(n, h)
{
double thread_area = 0; // Private / local variable
#pragma omp for
for (i = 1; i <= n; i++)
{
double x = h * (i - 0.5);
thread_area += (4.0 / (1.0 + x*x));
}
#pragma omp atomic // Applies the reduction manually
area += thread_area; // All threads aggregate into area
}
double pi = h * area;
스레드는 #pragma omp parallel에서 생성됩니다. 각 스레드는 부분 추가를 저장하는 독립 / 개인 thread_area를 갖습니다. 다음 루프는 #pragma omp for를 사용하여 스레드간에 분산됩니다. 이 루프에서 각 스레드는 자체 thread_area를 계산하고이 루프가 끝난 후 코드는 순차적으로 영역을 집계합니다
#pragma atomic을 기반으로 한 감축을 사용한 PI의 근사
double area;
double h = 1.0 / n;
#pragma omp parallel for shared(n, h, area)
for (i = 1; i <= n; i++)
{
double x = h * (i - 0.5);
#pragma atomic
area += (4.0 / (1.0 + x*x));
}
pi = h * area;
이 예에서 각 스레드는 반복 횟수의 하위 집합을 실행하고 공유 변수 영역에 원자 적으로 누적되어 업데이트 손실이 없음을 보장합니다. 주어진 작업 (+ =)을 원자 적으로 수행 할 수 있기 때문에 여기서 #pragma atomic을 사용할 수 있으므로 #pragma omp critical의 사용법과 비교하여 가독성이 간단 해집니다.
#pragma omp critical을 기반으로 한 감축을 사용한 PI의 근사
double area;
double h = 1.0 / n;
#pragma omp parallel for shared(n, h, area)
for (i = 1; i <= n; i++)
{
double x = h * (i - 0.5);
#pragma omp critical
{
area += (4.0 / (1.0 + x*x));
}
}
double pi = h * area;
이 예에서 각 스레드는 반복 횟수의 하위 집합을 실행하고 공유 변수 영역에 원자 적으로 누적되어 업데이트 손실이 없음을 보장합니다.
#pragma omp reduction 절을 사용한 PI의 근사
int i;
int n = 1000000;
double area = 0;
double h = 1.0 / n;
#pragma omp parallel for shared(n, h) reduction(+:area)
for (i = 1; i <= n; i++)
{
double x = h * (i - 0.5);
area += (4.0 / (1.0 + x*x));
}
pi = h * area;
이 예에서 각 스레드는 반복 계수의 서브 세트를 실행합니다. 각 스레드는 영역의 로컬 개인 사본을 가지며 병렬 영역의 끝에 그들은 모두 영역의 최종 값을 생성하기 위해 더하기 연산 (+)을 적용합니다.
Modified text is an extract of the original Stack Overflow Documentation
아래 라이선스 CC BY-SA 3.0
와 제휴하지 않음 Stack Overflow