openmp
OpenMP 감소
수색…
#pragma omp reduction 절을 사용한 PI의 근사
h = 1.0 / n;
#pragma omp parallel for private(x) shared(n, h) reduction(+:area)
for (i = 1; i <= n; i++)
{
x = h * (i - 0.5);
area += (4.0 / (1.0 + x*x));
}
pi = h * area;
이 예에서 각 스레드는 반복 계수의 서브 세트를 실행합니다. 각 스레드의 로컬 복사본을 가지고 전용 area
병렬 영역의 끝은 모두 가산 연산 (적용 +
위한 최종 값을 생성한다) area
.
#pragma omp critical을 기반으로 한 감축을 사용한 PI의 근사
h = 1.0 / n;
#pragma omp parallel for private(x) shared(n, h, area)
for (i = 1; i <= n; i++)
{
x = h * (i - 0.5);
#pragma omp critical
{
area += (4.0 / (1.0 + x*x));
}
}
pi = h * area;
이 예에서 각 스레드는 반복 횟수의 하위 집합을 실행하고 공유 변수 area
원자 적으로 누적되어 업데이트 손실이 없음을 보장합니다.
#pragma atomic을 기반으로 한 감축을 사용한 PI의 근사
h = 1.0 / n;
#pragma omp parallel for private(x) shared(n, h, area)
for (i = 1; i <= n; i++)
{
x = h * (i - 0.5);
#pragma atomic
area += (4.0 / (1.0 + x*x));
}
pi = h * area;
이 예에서 각 스레드는 반복 횟수의 하위 집합을 실행하고 공유 변수 area
원자 적으로 누적되어 업데이트 손실이 없음을 보장합니다. 주어진 작업 ( +=
)을 원자 적으로 수행 할 수 있기 때문에 여기서 #pragma atomic
을 사용할 수 있으므로 #pragma omp critical
의 사용법과 비교하여 가독성이 간단 해집니다.
PI의 근사값으로 #pragma omp reduction 수공예
h = 1.0 / n;
#pragma omp parallel private(x) shared(n, h)
{
double thread_area = 0; // Private / local variable
#pragma omp for
for (i = 1; i <= n; i++)
{
x = h * (i - 0.5);
thread_area += (4.0 / (1.0 + x*x));
}
#pragma omp atomic // Applies the reduction manually
area += thread_area; // All threads aggregate into area
}
pi = h * area;
스레드는 #pragma omp parallel
에서 생성됩니다. 각 스레드는 부분 추가를 저장하는 독립 / 개인 thread_area
를 thread_area
. 다음 루프는 #pragma omp for
사용하여 스레드간에 분산 #pragma omp for
. 이 루프에서 각 스레드는 자체 thread_area
계산하고이 루프가 끝나면 코드는 #pragma omp atomic
통해 원자 적으로 영역을 순차적으로 집계합니다.
Modified text is an extract of the original Stack Overflow Documentation
아래 라이선스 CC BY-SA 3.0
와 제휴하지 않음 Stack Overflow