수색…


#pragma omp reduction 절을 사용한 PI의 근사

h = 1.0 / n;
#pragma omp parallel for private(x) shared(n, h) reduction(+:area) 
for (i = 1; i <= n; i++)
{
  x = h * (i - 0.5);
  area += (4.0 / (1.0 + x*x));
}
pi = h * area;

이 예에서 각 스레드는 반복 계수의 서브 세트를 실행합니다. 각 스레드의 로컬 복사본을 가지고 전용 area 병렬 영역의 끝은 모두 가산 연산 (적용 + 위한 최종 값을 생성한다) area .

#pragma omp critical을 기반으로 한 감축을 사용한 PI의 근사

h = 1.0 / n;
#pragma omp parallel for private(x) shared(n, h, area) 
for (i = 1; i <= n; i++)
{
  x = h * (i - 0.5);
  #pragma omp critical
  {
    area += (4.0 / (1.0 + x*x));
  }
}
pi = h * area;

이 예에서 각 스레드는 반복 횟수의 하위 집합을 실행하고 공유 변수 area 원자 적으로 누적되어 업데이트 손실이 없음을 보장합니다.

#pragma atomic을 기반으로 한 감축을 사용한 PI의 근사

h = 1.0 / n;
#pragma omp parallel for private(x) shared(n, h, area) 
for (i = 1; i <= n; i++)
{
  x = h * (i - 0.5);
  #pragma atomic
  area += (4.0 / (1.0 + x*x));
}
pi = h * area;

이 예에서 각 스레드는 반복 횟수의 하위 집합을 실행하고 공유 변수 area 원자 적으로 누적되어 업데이트 손실이 없음을 보장합니다. 주어진 작업 ( += )을 원자 적으로 수행 할 수 있기 때문에 여기서 #pragma atomic 을 사용할 수 있으므로 #pragma omp critical 의 사용법과 비교하여 가독성이 간단 해집니다.

PI의 근사값으로 #pragma omp reduction 수공예

h = 1.0 / n;

#pragma omp parallel private(x) shared(n, h)
{
  double thread_area = 0;                      // Private / local variable

  #pragma omp for
  for (i = 1; i <= n; i++)
  {
    x = h * (i - 0.5);
    thread_area += (4.0 / (1.0 + x*x));
  }

  #pragma omp atomic                       // Applies the reduction manually
  area += thread_area;                     // All threads aggregate into area
}

pi = h * area;

스레드는 #pragma omp parallel 에서 생성됩니다. 각 스레드는 부분 추가를 저장하는 독립 / 개인 thread_areathread_area . 다음 루프는 #pragma omp for 사용하여 스레드간에 분산 #pragma omp for . 이 루프에서 각 스레드는 자체 thread_area 계산하고이 루프가 끝나면 코드는 #pragma omp atomic 통해 원자 적으로 영역을 순차적으로 집계합니다.



Modified text is an extract of the original Stack Overflow Documentation
아래 라이선스 CC BY-SA 3.0
와 제휴하지 않음 Stack Overflow