it-swarm.com.de

Parallele Schleifen in C++

Ich frage mich, ob es einen leichten, direkten Weg gibt, um Schleifen zu berechnen, beispielsweise für und Entfernungsbereiche für parallele Schleifen in C++. Wie würdest du so etwas umsetzen? Von Scala kenne ich die Karten-, Filter- und Foreach-Funktionen. Möglicherweise ist es auch möglich, diese parallel auszuführen. Gibt es eine einfache Möglichkeit, dies in C++ zu erreichen .. __ Meine primäre Plattform ist Linux, aber es wäre Nizza, wenn es plattformübergreifend funktioniert.

20
Exagon

Was ist deine Plattform? Sie können OpenMP betrachten, obwohl es nicht Teil von C++ ist. Es wird jedoch weitgehend von Compilern unterstützt.

Für bereichsbasierte für Schleifen siehe z. B. Verwendung von OpenMP mit C++ 11 bereichsbasierten für Schleifen? .

Ich habe auch einige Dokumente unter http://www.open-std.org gesehen, die auf einige Bemühungen hinweisen, parallele Konstrukte/Algorithmen in zukünftiges C++ zu integrieren, wissen aber nicht, wie sie aktuell sind.

UPDATE

Fügen Sie einfach einen beispielhaften Code hinzu:

template <typename RAIter>
void loop_in_parallel(RAIter first, RAIter last) {
   const size_t n = std::distance(first, last);

   #pragma omp parallel for
   for (size_t i = 0; i < n; i++) {
       auto& elem = *(first + i);
       // do whatever you want with elem
    }
}

Die Anzahl der Threads kann zur Laufzeit über die Umgebungsvariable OMP_NUM_THREADS eingestellt werden.

14
Daniel Langr

Mit den parallelen Algorithmen in C++ 17 können wir nun Folgendes verwenden:

std::vector<std::string> foo;
std::for_each(
    std::execution::par_unseq,
    foo.begin(),
    foo.end(),
    [](auto&& item)
    {
        //do stuff with item
    });

schleifen parallel berechnen. Der erste Parameter gibt die Ausführungsrichtlinie an

21
Exagon

std::async kann hier gut passen, wenn Sie die C++-Laufzeitumgebung über die Parallelität steuern lassen.

Beispiel aus dem cppreference.com:

#include <iostream>
#include <vector>
#include <algorithm>
#include <numeric>
#include <future>

template <typename RAIter>
int parallel_sum(RAIter beg, RAIter end)
{
    auto len = end - beg;
    if(len < 1000)
        return std::accumulate(beg, end, 0);

    RAIter mid = beg + len/2;
    auto handle = std::async(std::launch::async,
                              parallel_sum<RAIter>, mid, end);
    int sum = parallel_sum(beg, mid);
    return sum + handle.get();
}

int main()
{
    std::vector<int> v(10000, 1);
    std::cout << "The sum is " << parallel_sum(v.begin(), v.end()) << '\n';
}
10
bobah

Mit C++ 11 können Sie eine for-Schleife mit nur wenigen Codezeilen parallelisieren. Dies teilt eine for-Schleife in kleinere Abschnitte auf und ordnet jede Teilschleife einem Thread zu:

/// Basically replacing:
void sequential_for(){
    for(int i = 0; i < nb_elements; ++i)
        computation(i);
}

/// By:
void threaded_for(){
    parallel_for(nb_elements, [&](int start, int end){ 
        for(int i = start; i < end; ++i)
            computation(i); 
    } );
}

Oder in einer Klasse:

struct My_obj {

    /// Replacing:
    void sequential_for(){
        for(int i = 0; i < nb_elements; ++i)
            computation(i);
    }

    /// By:
    void threaded_for(){
        parallel_for(nb_elements, [this](int s, int e){ this->process_chunk(s, e); } );
    }

    void process_chunk(int start, int end)
    {
        for(int i = start; i < end; ++i)
            computation(i);
    }
};

Dazu müssen Sie nur den unten stehenden Code in eine Header-Datei einfügen und nach Belieben verwenden:

#include <algorithm>
#include <thread>
#include <functional>
#include <vector>

/// @param[in] nb_elements : size of your for loop
/// @param[in] functor(start, end) :
/// your function processing a sub chunk of the for loop.
/// "start" is the first index to process (included) until the index "end"
/// (excluded)
/// @code
///     for(int i = start; i < end; ++i)
///         computation(i);
/// @endcode
/// @param use_threads : enable / disable threads.
///
///
static
void parallel_for(unsigned nb_elements,
                  std::function<void (int start, int end)> functor,
                  bool use_threads = true)
{
    // -------
    unsigned nb_threads_hint = std::thread::hardware_concurrency();
    unsigned nb_threads = nb_threads_hint == 0 ? 8 : (nb_threads_hint);

    unsigned batch_size = nb_elements / nb_threads;
    unsigned batch_remainder = nb_elements % nb_threads;

    std::vector< std::thread > my_threads(nb_threads);

    if( use_threads )
    {
        // Multithread execution
        for(unsigned i = 0; i < nb_threads; ++i)
        {
            int start = i * batch_size;
            my_threads[i] = std::thread(functor, start, start+batch_size);
        }
    }
    else
    {
        // Single thread execution (for easy debugging)
        for(unsigned i = 0; i < nb_threads; ++i){
            int start = i * batch_size;
            functor( start, start+batch_size );
        }
    }

    // Deform the elements left
    int start = nb_threads * batch_size;
    functor( start, start+batch_remainder);

    // Wait for the other thread to finish their task
    if( use_threads )
        std::for_each(my_threads.begin(), my_threads.end(), std::mem_fn(&std::thread::join));
}

Zuletzt könnten Sie ein Makro definieren, um einen noch kompakteren Ausdruck zu erhalten:

#define PARALLEL_FOR_BEGIN(nb_elements) tbx::parallel_for(nb_elements, [&](int start, int end){ for(int i = start; i < end; ++i)
#define PARALLEL_FOR_END()})

TBX_PARALLEL_FOR_BEGIN(nb_edges)
{
    computation(i);
}TBX_PARALLEL_FOR_END();
5
arkan

Dies kann mit der threads-spezifischen pthreads-Bibliotheksfunktion durchgeführt werden, mit der Operationen gleichzeitig ausgeführt werden können.

Weitere Informationen hierzu finden Sie hier: http://www.tutorialspoint.com/cplusplus/cpp_multithreading.htm

std :: thread kann auch verwendet werden: http://www.cplusplus.com/reference/thread/thread/

Unten ist ein Code, in dem ich die Thread-ID jedes Threads verwende, um das Array in zwei Hälften zu teilen: 

#include <iostream>
#include <cstdlib>
#include <pthread.h>

using namespace std;

#define NUM_THREADS 2

int arr[10] = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9};

void *splitLoop(void *threadid)
{
   long tid;
   tid = (long)threadid;
   //cout << "Hello World! Thread ID, " << tid << endl;
   int start = (tid * 5);
   int end = start + 5;
   for(int i = start;i < end;i++){
      cout << arr[i] << " ";
   }
   cout << endl;
   pthread_exit(NULL);
}

int main ()
{
   pthread_t threads[NUM_THREADS];
   int rc;
   int i;
   for( i=0; i < NUM_THREADS; i++ ){
      cout << "main() : creating thread, " << i << endl;
      rc = pthread_create(&threads[i], NULL, 
                          splitLoop, (void *)i);
      if (rc){
         cout << "Error:unable to create thread," << rc << endl;
         exit(-1);
      }
   }
   pthread_exit(NULL);
}

Denken Sie auch daran, dass Sie beim Kompilieren das Flag -lpthread verwenden müssen.

Link zur Lösung auf Ideone: http://ideone.com/KcsW4P

4
uSeemSurprised

Die Concurrency :: parallel_for (PPL) ist auch eine der Optionen von Nizza, um Aufgabenparallelität auszuführen.

Genommen aus C++ - Codierungsübung - parallel für - Monte Carlo PI-Berechnung

int main() {
    srand(time(NULL)); // seed
    const int N1 = 1000;
    const int N2 = 100000;
    int n = 0;
    int c = 0;
    Concurrency::critical_section cs;
    // it is better that N2 >> N1 for better performance
    Concurrency::parallel_for(0, N1, [&](int i) {
        int t = monte_carlo_count_pi(N2);
        cs.lock(); // race condition
        n += N2;   // total sampling points
        c += t;    // points fall in the circle
        cs.unlock();
    });
    cout < < "pi ~= " << setprecision(9) << (double)c / n * 4.0 << endl;
    return 0;
}
0
justyy