ViewVC Help
View File | Revision Log | Show Annotations | View Changeset | Root Listing
root/OpenMD/trunk/src/parallel/Communicator.hpp
(Generate patch)

Comparing:
branches/development/src/parallel/Communicator.hpp (file contents), Revision 1539 by gezelter, Fri Jan 14 22:31:31 2011 UTC vs.
trunk/src/parallel/Communicator.hpp (file contents), Revision 1987 by gezelter, Thu Apr 17 19:07:31 2014 UTC

# Line 2 | Line 2
2   * @file Communicator.hpp
3   * @author Charles Vardeman <cvardema.at.nd.edu>
4   * @date 08/18/2010
5 * @time 11:56am
5   * @version 1.0
6   *
7   * @section LICENSE
# Line 42 | Line 41
41   *                                                                      
42   * [1]  Meineke, et al., J. Comp. Chem. 26, 252-271 (2005).            
43   * [2]  Fennell & Gezelter, J. Chem. Phys. 124, 234104 (2006).          
44 < * [3]  Sun, Lin & Gezelter, J. Chem. Phys. 128, 24107 (2008).          
45 < * [4]  Vardeman & Gezelter, in progress (2009).                        
44 > * [3]  Sun, Lin & Gezelter, J. Chem. Phys. 128, 234107 (2008).          
45 > * [4]  Kuang & Gezelter,  J. Chem. Phys. 133, 164101 (2010).
46 > * [5]  Vardeman, Stocker & Gezelter, J. Chem. Theory Comput. 7, 834 (2011).
47   */
48  
49 < #ifndef FORCEDECOMPOSITION_COMMUNICATOR_HPP
50 < #define FORCEDECOMPOSITION_COMMUNICATOR_HPP
49 > #ifndef PARALLEL_COMMUNICATOR_HPP
50 > #define PARALLEL_COMMUNICATOR_HPP
51  
52   #include <config.h>
53   #include <mpi.h>
54   #include "math/SquareMatrix3.hpp"
55  
56 + using namespace std;
57   namespace OpenMD{
58    
59   #ifdef IS_MPI
60  
61 <  enum direction {
62 <    I = 0,
63 <    J = 1
61 >  enum communicatorType {
62 >    Global = 0,
63 >    Row = 1,
64 >    Column = 2
65    };
66      
67 <  template<typename T>
68 <  struct MPITraits
69 <  {
70 <    static const MPI::Datatype datatype;
71 <    static const int dim;
67 >  template<class T>
68 >  class MPITraits {
69 >  public:
70 >    static MPI_Datatype Type();
71 >    static int Length() { return 1; };
72    };
73    
74 <  template<> const MPI::Datatype MPITraits<int>::datatype = MPI_INT;
75 <  template<> const int MPITraits<int>::dim = 1;
76 <  template<> const MPI::Datatype MPITraits<RealType>::datatype = MPI_REALTYPE;
77 <  template<> const int MPITraits<RealType>::dim = 1;
78 <  template<> const MPI::Datatype MPITraits<Vector3d>::datatype = MPI_REALTYPE;
79 <  template<> const int MPITraits<Vector3d>::dim = 3;
80 <  template<> const MPI::Datatype MPITraits<Mat3x3d>::datatype = MPI_REALTYPE;
81 <  template<> const int MPITraits<Mat3x3d>::dim = 9;
74 >  template<> inline MPI_Datatype MPITraits<int>::Type() { return MPI_INT; }
75 >  template<> inline MPI_Datatype MPITraits<RealType>::Type() { return MPI_REALTYPE; }
76 >
77 >  template<class T, unsigned int Dim>
78 >  class MPITraits< Vector<T, Dim> > {
79 >  public:
80 >    static MPI_Datatype Type() { return MPITraits<T>::Type(); }
81 >    static int Length() {return Dim;}
82 >  };
83 >
84 >  template<class T>
85 >  class MPITraits< Vector3<T> > {
86 >  public:
87 >    static MPI_Datatype Type() { return MPITraits<T>::Type(); }
88 >    static int Length() {return 3;}
89 >  };
90 >
91 >  template<class T, unsigned int R, unsigned int C>
92 >  class MPITraits< RectMatrix<T, R, C> > {
93 >  public:
94 >    static MPI_Datatype Type() { return MPITraits<T>::Type(); }
95 >    static int Length() {return R * C;}
96 >  };
97 >
98 >  template<class T>
99 >  class MPITraits< SquareMatrix3<T> > {
100 >  public:
101 >    static MPI_Datatype Type() { return MPITraits<T>::Type(); }
102 >    static int Length() {return 9;}
103 >  };
104    
105 <  template<direction D, typename T>
106 <  class Comm {
105 >  
106 >  template<communicatorType D>
107 >  class Communicator {
108    public:
109      
110 <    Comm<D, T>(int nObjects) {
110 >    Communicator<D>() {
111        
112 <      int nProc = MPI::COMM_WORLD.Get_size();
113 <      int myRank = MPI::COMM_WORLD.Get_rank();
112 >      int nProc;
113 >      int myRank;
114  
115 +      MPI_Comm_size( MPI_COMM_WORLD, &nProc);
116 +      MPI_Comm_rank( MPI_COMM_WORLD, &myRank);
117 +      
118        int nColumnsMax = (int) sqrt(RealType(nProc));
119  
120        int nColumns;
# Line 94 | Line 122 | namespace OpenMD{
122          if (nProc % i == 0) nColumns = i;        
123        }
124          
125 <      int nRows = nProc / nColumns;
125 >      // int nRows = nProc / nColumns;
126        rowIndex_ = myRank / nColumns;      
127        columnIndex_ = myRank % nColumns;
128  
129 <      if (D == I) {
130 <        myComm = MPI::COMM_WORLD.Split(rowIndex_, 0);
131 <      } else {
132 <        myComm = MPI::COMM_WORLD.Split(columnIndex_, 0);
129 >      switch(D) {
130 >      case Row :
131 >        MPI_Comm_split(MPI_COMM_WORLD, rowIndex_, 0, &myComm);
132 >        break;
133 >      case Column:
134 >        MPI_Comm_split(MPI_COMM_WORLD, columnIndex_, 0, &myComm);
135 >        break;
136 >      case Global:
137 >        MPI_Comm_split(MPI_COMM_WORLD, myRank, 0, &myComm);
138        }
106        
107      int nCommProcs = myComm.Get_size();
139  
140 <      counts.reserve(nCommProcs);
141 <      displacements.reserve(nCommProcs);
140 >    }
141 >    
142 >    MPI_Comm getComm() { return myComm; }
143 >    
144 >  private:
145 >    int rowIndex_;
146 >    int columnIndex_;
147 >    MPI_Comm myComm;
148 >  };
149 >  
150  
151 <      planSize_ = MPITraits<T>::dim * nObjects;
151 >  template<typename T>
152 >  class Plan {
153 >  public:
154 >    
155 >    Plan<T>(MPI_Comm comm, int nObjects) : myComm(comm) {
156  
157 <      myComm.Allgather(&planSize_, 1, MPI::INT, &counts[0], 1, MPI::INT);
158 <
157 >      int nCommProcs;
158 >      MPI_Comm_size( myComm, &nCommProcs );
159 >      
160 >      counts.resize(nCommProcs, 0);
161 >      displacements.resize(nCommProcs, 0);
162 >      
163 >      planSize_ = MPITraits<T>::Length() * nObjects;
164 >      
165 >      MPI_Allgather(&planSize_, 1, MPI_INT, &counts[0], 1, MPI_INT, myComm);
166 >      
167        displacements[0] = 0;
168        for (int i = 1; i < nCommProcs; i++) {
169          displacements[i] = displacements[i-1] + counts[i-1];
170 <      }      
170 >      }
171 >
172 >      size_ = 0;
173 >      for (int i = 0; i < nCommProcs; i++) {
174 >        size_ += counts[i];
175 >      }
176      }
177  
178 <
179 <    void gather(std::vector<T>& v1, std::vector<T>& v2) {
178 >    
179 >    void gather(vector<T>& v1, vector<T>& v2) {
180        
181 <      myComm.Allgatherv(&v1[0],
182 <                        planSize_,
183 <                        MPITraits<T>::datatype,
184 <                        &v2[0],
185 <                        &counts[0],
186 <                        &displacements[0],
187 <                        MPITraits<T>::datatype);      
181 >      // an assert would be helpful here to make sure the vectors are the
182 >      // correct geometry
183 >      
184 >      MPI_Allgatherv(&v1[0],
185 >                     planSize_,
186 >                     MPITraits<T>::Type(),
187 >                     &v2[0],
188 >                     &counts[0],
189 >                     &displacements[0],
190 >                     MPITraits<T>::Type(),
191 >                     myComm);
192 >    }      
193 >    
194 >    void scatter(vector<T>& v1, vector<T>& v2) {
195 >      // an assert would be helpful here to make sure the vectors are the
196 >      // correct geometry
197 >            
198 >      MPI_Reduce_scatter(&v1[0], &v2[0], &counts[0],
199 >                         MPITraits<T>::Type(), MPI_SUM, myComm);
200      }
133
201      
202 <  
203 <    void scatter(std::vector<T>& v1, std::vector<T>& v2) {
137 <
138 <      myComm.Reduce_scatter(&v1[0], &v2[0], &counts[0],
139 <                            MPITraits<T>::datatype, MPI::SUM);
202 >    int getSize() {
203 >      return size_;
204      }
205      
206    private:
207      int planSize_;     ///< how many are on local proc
208 <    int rowIndex_;
209 <    int columnIndex_;
210 <    std::vector<int> counts;
211 <    std::vector<int> displacements;
148 <    MPI::Intracomm myComm;
208 >    int size_;
209 >    vector<int> counts;
210 >    vector<int> displacements;
211 >    MPI_Comm myComm;
212    };
213  
214   #endif

Diff Legend

Removed lines
+ Added lines
< Changed lines
> Changed lines