source: palm/trunk/SOURCE/init_pegrid.f90 @ 1677

Last change on this file since 1677 was 1677, checked in by boeske, 6 years ago

Bugfix concerning wall_flags at PE boundaries, added new subroutine exchange_horiz_int

  • Property svn:keywords set to Id
File size: 42.2 KB
Line 
1 SUBROUTINE init_pegrid
2
3!--------------------------------------------------------------------------------!
4! This file is part of PALM.
5!
6! PALM is free software: you can redistribute it and/or modify it under the terms
7! of the GNU General Public License as published by the Free Software Foundation,
8! either version 3 of the License, or (at your option) any later version.
9!
10! PALM is distributed in the hope that it will be useful, but WITHOUT ANY
11! WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR
12! A PARTICULAR PURPOSE.  See the GNU General Public License for more details.
13!
14! You should have received a copy of the GNU General Public License along with
15! PALM. If not, see <http://www.gnu.org/licenses/>.
16!
17! Copyright 1997-2014 Leibniz Universitaet Hannover
18!--------------------------------------------------------------------------------!
19!
20! Current revisions:
21! ------------------
22! New MPI-data types for exchange of 3D integer arrays.
23!
24! Former revisions:
25! -----------------
26! $Id: init_pegrid.f90 1677 2015-10-02 13:25:23Z boeske $
27!
28! 1575 2015-03-27 09:56:27Z raasch
29! adjustments for psolver-queries, calculation of ngp_xz added
30!
31! 1565 2015-03-09 20:59:31Z suehring
32! Refine if-clause for setting nbgp.
33!
34! 1557 2015-03-05 16:43:04Z suehring
35! Adjustment for monotonic limiter
36!
37! 1468 2014-09-24 14:06:57Z maronga
38! Adapted for use on up to 6-digit processor cores
39!
40! 1435 2014-07-21 10:37:02Z keck
41! bugfix: added missing parameter coupling_mode_remote to ONLY-attribute
42!
43! 1402 2014-05-09 14:25:13Z raasch
44! location messages modified
45!
46! 1384 2014-05-02 14:31:06Z raasch
47! location messages added
48!
49! 1353 2014-04-08 15:21:23Z heinze
50! REAL constants provided with KIND-attribute
51!
52! 1322 2014-03-20 16:38:49Z raasch
53! REAL functions provided with KIND-attribute
54!
55! 1320 2014-03-20 08:40:49Z raasch
56! ONLY-attribute added to USE-statements,
57! kind-parameters added to all INTEGER and REAL declaration statements,
58! kinds are defined in new module kinds,
59! revision history before 2012 removed,
60! comment fields (!:) to be used for variable explanations added to
61! all variable declaration statements
62!
63! 1304 2014-03-12 10:29:42Z raasch
64! bugfix: single core MPI runs missed some settings of transpose indices
65!
66! 1212 2013-08-15 08:46:27Z raasch
67! error message for poisfft_hybrid removed
68!
69! 1159 2013-05-21 11:58:22Z fricke
70! dirichlet/neumann and neumann/dirichlet removed
71!
72! 1139 2013-04-18 07:25:03Z raasch
73! bugfix for calculating the id of the PE carrying the recycling plane
74!
75! 1111 2013-03-08 23:54:10Z raasch
76! initialization of poisfft moved to module poisfft
77!
78! 1092 2013-02-02 11:24:22Z raasch
79! unused variables removed
80!
81! 1056 2012-11-16 15:28:04Z raasch
82! Indices for arrays n.._mg start from zero due to definition of arrays f2 and
83! p2 as automatic arrays in recursive subroutine next_mg_level
84!
85! 1041 2012-11-06 02:36:29Z raasch
86! a 2d virtual processor topology is used by default for all machines
87!
88! 1036 2012-10-22 13:43:42Z raasch
89! code put under GPL (PALM 3.9)
90!
91! 1003 2012-09-14 14:35:53Z raasch
92! subdomains must have identical size (grid matching = "match" removed)
93!
94! 1001 2012-09-13 14:08:46Z raasch
95! all actions concerning upstream-spline-method removed
96!
97! 978 2012-08-09 08:28:32Z fricke
98! dirichlet/neumann and neumann/dirichlet added
99! nxlu and nysv are also calculated for inflow boundary
100!
101! 809 2012-01-30 13:32:58Z maronga
102! Bugfix: replaced .AND. and .NOT. with && and ! in the preprocessor directives
103!
104! 807 2012-01-25 11:53:51Z maronga
105! New cpp directive "__check" implemented which is used by check_namelist_files
106!
107! Revision 1.1  1997/07/24 11:15:09  raasch
108! Initial revision
109!
110!
111! Description:
112! ------------
113! Determination of the virtual processor topology (if not prescribed by the
114! user)and computation of the grid point number and array bounds of the local
115! domains.
116!------------------------------------------------------------------------------!
117
118    USE control_parameters,                                                    &
119        ONLY:  bc_lr, bc_ns, coupling_mode, coupling_mode_remote,              &
120               coupling_topology, dt_dosp, gathered_size, grid_level,          &
121               grid_level_count, host, inflow_l, inflow_n, inflow_r, inflow_s, &
122               io_blocks, io_group, maximum_grid_level,                        &
123               maximum_parallel_io_streams, message_string,                    &
124               mg_switch_to_pe0_level, momentum_advec, neutral, psolver,       &
125               outflow_l, outflow_n, outflow_r, outflow_s, recycling_width,    &
126               scalar_advec, subdomain_size
127
128    USE grid_variables,                                                        &
129        ONLY:  dx
130       
131    USE indices,                                                               &
132        ONLY:  mg_loc_ind, nbgp, nnx, nny, nnz, nx, nx_a, nx_o, nxl, nxl_mg,   &
133               nxlu, nxr, nxr_mg, ny, ny_a, ny_o, nyn, nyn_mg, nys, nys_mg,    &
134               nysv, nz, nzb, nzt, nzt_mg, wall_flags_1, wall_flags_2,         &
135               wall_flags_3, wall_flags_4, wall_flags_5, wall_flags_6,         &
136               wall_flags_7, wall_flags_8, wall_flags_9, wall_flags_10
137
138    USE kinds
139     
140    USE pegrid
141 
142    USE transpose_indices,                                                     &
143        ONLY:  nxl_y, nxl_yd, nxl_z, nxr_y, nxr_yd, nxr_z, nyn_x, nyn_z, nys_x,&
144               nys_z, nzb_x, nzb_y, nzb_yd, nzt_x, nzt_yd, nzt_y
145
146    IMPLICIT NONE
147
148    INTEGER(iwp) ::  i                        !:
149    INTEGER(iwp) ::  id_inflow_l              !:
150    INTEGER(iwp) ::  id_recycling_l           !:
151    INTEGER(iwp) ::  ind(5)                   !:
152    INTEGER(iwp) ::  j                        !:
153    INTEGER(iwp) ::  k                        !:
154    INTEGER(iwp) ::  maximum_grid_level_l     !:
155    INTEGER(iwp) ::  mg_levels_x              !:
156    INTEGER(iwp) ::  mg_levels_y              !:
157    INTEGER(iwp) ::  mg_levels_z              !:
158    INTEGER(iwp) ::  mg_switch_to_pe0_level_l !:
159    INTEGER(iwp) ::  nnx_y                    !:
160    INTEGER(iwp) ::  nnx_z                    !:
161    INTEGER(iwp) ::  nny_x                    !:
162    INTEGER(iwp) ::  nny_z                    !:
163    INTEGER(iwp) ::  nnz_x                    !:
164    INTEGER(iwp) ::  nnz_y                    !:
165    INTEGER(iwp) ::  numproc_sqr              !:
166    INTEGER(iwp) ::  nxl_l                    !:
167    INTEGER(iwp) ::  nxr_l                    !:
168    INTEGER(iwp) ::  nyn_l                    !:
169    INTEGER(iwp) ::  nys_l                    !:
170    INTEGER(iwp) ::  nzb_l                    !:
171    INTEGER(iwp) ::  nzt_l                    !:
172    INTEGER(iwp) ::  omp_get_num_threads      !:
173
174    INTEGER(iwp), DIMENSION(:), ALLOCATABLE ::  ind_all !:
175    INTEGER(iwp), DIMENSION(:), ALLOCATABLE ::  nxlf    !:
176    INTEGER(iwp), DIMENSION(:), ALLOCATABLE ::  nxrf    !:
177    INTEGER(iwp), DIMENSION(:), ALLOCATABLE ::  nynf    !:
178    INTEGER(iwp), DIMENSION(:), ALLOCATABLE ::  nysf    !:
179
180    INTEGER(iwp), DIMENSION(2) :: pdims_remote          !:
181
182#if defined( __mpi2 )
183    LOGICAL ::  found                                   !:
184#endif
185
186!
187!-- Get the number of OpenMP threads
188    !$OMP PARALLEL
189#if defined( __intel_openmp_bug )
190    threads_per_task = omp_get_num_threads()
191#else
192!$  threads_per_task = omp_get_num_threads()
193#endif
194    !$OMP END PARALLEL
195
196
197#if defined( __parallel )
198
199    CALL location_message( 'creating virtual PE grids + MPI derived data types', &
200                           .FALSE. )
201!
202!-- Determine the processor topology or check it, if prescribed by the user
203    IF ( npex == -1  .AND.  npey == -1 )  THEN
204
205!
206!--    Automatic determination of the topology
207       numproc_sqr = SQRT( REAL( numprocs, KIND=wp ) )
208       pdims(1)    = MAX( numproc_sqr , 1 )
209       DO  WHILE ( MOD( numprocs , pdims(1) ) /= 0 )
210          pdims(1) = pdims(1) - 1
211       ENDDO
212       pdims(2) = numprocs / pdims(1)
213
214    ELSEIF ( npex /= -1  .AND.  npey /= -1 )  THEN
215
216!
217!--    Prescribed by user. Number of processors on the prescribed topology
218!--    must be equal to the number of PEs available to the job
219       IF ( ( npex * npey ) /= numprocs )  THEN
220          WRITE( message_string, * ) 'number of PEs of the prescribed ',      & 
221                 'topology (', npex*npey,') does not match & the number of ', & 
222                 'PEs available to the job (', numprocs, ')'
223          CALL message( 'init_pegrid', 'PA0221', 1, 2, 0, 6, 0 )
224       ENDIF
225       pdims(1) = npex
226       pdims(2) = npey
227
228    ELSE
229!
230!--    If the processor topology is prescribed by the user, the number of
231!--    PEs must be given in both directions
232       message_string = 'if the processor topology is prescribed by the, ' //  &
233                   ' user& both values of "npex" and "npey" must be given ' // &
234                   'in the &NAMELIST-parameter file'
235       CALL message( 'init_pegrid', 'PA0222', 1, 2, 0, 6, 0 )
236
237    ENDIF
238
239!
240!-- For communication speedup, set barriers in front of collective
241!-- communications by default on SGI-type systems
242    IF ( host(3:5) == 'sgi' )  collective_wait = .TRUE.
243
244!
245!-- If necessary, set horizontal boundary conditions to non-cyclic
246    IF ( bc_lr /= 'cyclic' )  cyclic(1) = .FALSE.
247    IF ( bc_ns /= 'cyclic' )  cyclic(2) = .FALSE.
248
249
250#if ! defined( __check)
251!
252!-- Create the virtual processor grid
253    CALL MPI_CART_CREATE( comm_palm, ndim, pdims, cyclic, reorder, &
254                          comm2d, ierr )
255    CALL MPI_COMM_RANK( comm2d, myid, ierr )
256    WRITE (myid_char,'(''_'',I6.6)')  myid
257
258    CALL MPI_CART_COORDS( comm2d, myid, ndim, pcoord, ierr )
259    CALL MPI_CART_SHIFT( comm2d, 0, 1, pleft, pright, ierr )
260    CALL MPI_CART_SHIFT( comm2d, 1, 1, psouth, pnorth, ierr )
261
262!
263!-- Determine sub-topologies for transpositions
264!-- Transposition from z to x:
265    remain_dims(1) = .TRUE.
266    remain_dims(2) = .FALSE.
267    CALL MPI_CART_SUB( comm2d, remain_dims, comm1dx, ierr )
268    CALL MPI_COMM_RANK( comm1dx, myidx, ierr )
269!
270!-- Transposition from x to y
271    remain_dims(1) = .FALSE.
272    remain_dims(2) = .TRUE.
273    CALL MPI_CART_SUB( comm2d, remain_dims, comm1dy, ierr )
274    CALL MPI_COMM_RANK( comm1dy, myidy, ierr )
275
276#endif
277
278!
279!-- Calculate array bounds along x-direction for every PE.
280    ALLOCATE( nxlf(0:pdims(1)-1), nxrf(0:pdims(1)-1), nynf(0:pdims(2)-1), &
281              nysf(0:pdims(2)-1) )
282
283    IF ( MOD( nx+1 , pdims(1) ) /= 0 )  THEN
284       WRITE( message_string, * ) 'x-direction: gridpoint number (',nx+1,') ',&
285                               'is not an& integral divisor of the number ',  &
286                               'processors (', pdims(1),')'
287       CALL message( 'init_pegrid', 'PA0225', 1, 2, 0, 6, 0 )
288    ELSE
289       nnx  = ( nx + 1 ) / pdims(1)
290       IF ( nnx*pdims(1) - ( nx + 1) > nnx )  THEN
291          WRITE( message_string, * ) 'x-direction: nx does not match the',    & 
292                       'requirements given by the number of PEs &used',       &
293                       '& please use nx = ', nx - ( pdims(1) - ( nnx*pdims(1) &
294                                   - ( nx + 1 ) ) ), ' instead of nx =', nx
295          CALL message( 'init_pegrid', 'PA0226', 1, 2, 0, 6, 0 )
296       ENDIF
297    ENDIF   
298
299!
300!-- Left and right array bounds, number of gridpoints
301    DO  i = 0, pdims(1)-1
302       nxlf(i)   = i * nnx
303       nxrf(i)   = ( i + 1 ) * nnx - 1
304    ENDDO
305
306!
307!-- Calculate array bounds in y-direction for every PE.
308    IF ( MOD( ny+1 , pdims(2) ) /= 0 )  THEN
309       WRITE( message_string, * ) 'y-direction: gridpoint number (',ny+1,') ', &
310                           'is not an& integral divisor of the number of',     &
311                           'processors (', pdims(2),')'
312       CALL message( 'init_pegrid', 'PA0227', 1, 2, 0, 6, 0 )
313    ELSE
314       nny  = ( ny + 1 ) / pdims(2)
315       IF ( nny*pdims(2) - ( ny + 1) > nny )  THEN
316          WRITE( message_string, * ) 'y-direction: ny does not match the',    &
317                       'requirements given by the number of PEs &used ',      &
318                       '& please use ny = ', ny - ( pdims(2) - ( nnx*pdims(2) &
319                                     - ( ny + 1 ) ) ), ' instead of ny =', ny
320          CALL message( 'init_pegrid', 'PA0228', 1, 2, 0, 6, 0 )
321       ENDIF
322    ENDIF   
323
324!
325!-- South and north array bounds
326    DO  j = 0, pdims(2)-1
327       nysf(j)   = j * nny
328       nynf(j)   = ( j + 1 ) * nny - 1
329    ENDDO
330
331!
332!-- Local array bounds of the respective PEs
333    nxl = nxlf(pcoord(1))
334    nxr = nxrf(pcoord(1))
335    nys = nysf(pcoord(2))
336    nyn = nynf(pcoord(2))
337    nzb = 0
338    nzt = nz
339    nnz = nz
340
341!
342!-- Set switches to define if the PE is situated at the border of the virtual
343!-- processor grid
344    IF ( nxl == 0 )   left_border_pe  = .TRUE.
345    IF ( nxr == nx )  right_border_pe = .TRUE.
346    IF ( nys == 0 )   south_border_pe = .TRUE.
347    IF ( nyn == ny )  north_border_pe = .TRUE.
348
349!
350!-- Calculate array bounds and gridpoint numbers for the transposed arrays
351!-- (needed in the pressure solver)
352!-- For the transposed arrays, cyclic boundaries as well as top and bottom
353!-- boundaries are omitted, because they are obstructive to the transposition
354
355!
356!-- 1. transposition  z --> x
357!-- This transposition is not neccessary in case of a 1d-decomposition along x
358    nys_x = nys
359    nyn_x = nyn
360    nny_x = nny
361    nnz_x = nz / pdims(1)
362    nzb_x = 1 + myidx * nnz_x
363    nzt_x = ( myidx + 1 ) * nnz_x
364    sendrecvcount_zx = nnx * nny * nnz_x
365
366    IF ( pdims(2) /= 1 )  THEN
367       IF ( MOD( nz , pdims(1) ) /= 0 )  THEN
368          WRITE( message_string, * ) 'transposition z --> x:',                &
369                       '&nz=',nz,' is not an integral divisior of pdims(1)=', &
370                                                                   pdims(1)
371          CALL message( 'init_pegrid', 'PA0230', 1, 2, 0, 6, 0 )
372       ENDIF
373    ENDIF
374
375!
376!-- 2. transposition  x --> y
377    nnz_y = nnz_x
378    nzb_y = nzb_x
379    nzt_y = nzt_x
380    IF ( MOD( nx+1 , pdims(2) ) /= 0 )  THEN
381       WRITE( message_string, * ) 'transposition x --> y:',                &
382                         '&nx+1=',nx+1,' is not an integral divisor of ',&
383                         'pdims(2)=',pdims(2)
384       CALL message( 'init_pegrid', 'PA0231', 1, 2, 0, 6, 0 )
385    ENDIF
386    nnx_y = (nx+1) / pdims(2)
387    nxl_y = myidy * nnx_y
388    nxr_y = ( myidy + 1 ) * nnx_y - 1
389    sendrecvcount_xy = nnx_y * nny_x * nnz_y
390
391!
392!-- 3. transposition  y --> z  (ELSE:  x --> y  in case of 1D-decomposition
393!-- along x)
394    nnx_z = nnx_y
395    nxl_z = nxl_y
396    nxr_z = nxr_y
397    nny_z = (ny+1) / pdims(1)
398    nys_z = myidx * nny_z
399    nyn_z = ( myidx + 1 ) * nny_z - 1
400    sendrecvcount_yz = nnx_y * nny_z * nnz_y
401
402    IF ( pdims(2) /= 1 )  THEN
403!
404!--    y --> z
405!--    This transposition is not neccessary in case of a 1d-decomposition
406!--    along x, except that the uptream-spline method is switched on
407       IF ( MOD( ny+1 , pdims(1) ) /= 0 )  THEN
408          WRITE( message_string, * ) 'transposition y --> z:',            &
409                            '& ny+1=',ny+1,' is not an integral divisor of ',&
410                            'pdims(1)=',pdims(1)
411          CALL message( 'init_pegrid', 'PA0232', 1, 2, 0, 6, 0 )
412       ENDIF
413
414    ELSE
415!
416!--    x --> y. This condition must be fulfilled for a 1D-decomposition along x
417       IF ( MOD( ny+1 , pdims(1) ) /= 0 )  THEN
418          WRITE( message_string, * ) 'transposition x --> y:',               &
419                            '& ny+1=',ny+1,' is not an integral divisor of ',&
420                            'pdims(1)=',pdims(1)
421          CALL message( 'init_pegrid', 'PA0233', 1, 2, 0, 6, 0 )
422       ENDIF
423
424    ENDIF
425
426!
427!-- Indices for direct transpositions z --> y (used for calculating spectra)
428    IF ( dt_dosp /= 9999999.9_wp )  THEN
429       IF ( MOD( nz, pdims(2) ) /= 0 )  THEN
430          WRITE( message_string, * ) 'direct transposition z --> y (needed ', &
431                    'for spectra):& nz=',nz,' is not an integral divisor of ',&
432                    'pdims(2)=',pdims(2)
433          CALL message( 'init_pegrid', 'PA0234', 1, 2, 0, 6, 0 )
434       ELSE
435          nxl_yd = nxl
436          nxr_yd = nxr
437          nzb_yd = 1 + myidy * ( nz / pdims(2) )
438          nzt_yd = ( myidy + 1 ) * ( nz / pdims(2) )
439          sendrecvcount_zyd = nnx * nny * ( nz / pdims(2) )
440       ENDIF
441    ENDIF
442
443!
444!-- Indices for direct transpositions y --> x (they are only possible in case
445!-- of a 1d-decomposition along x)
446    IF ( pdims(2) == 1 )  THEN
447       nny_x = nny / pdims(1)
448       nys_x = myid * nny_x
449       nyn_x = ( myid + 1 ) * nny_x - 1
450       nzb_x = 1
451       nzt_x = nz
452       sendrecvcount_xy = nnx * nny_x * nz
453    ENDIF
454
455!
456!-- Indices for direct transpositions x --> y (they are only possible in case
457!-- of a 1d-decomposition along y)
458    IF ( pdims(1) == 1 )  THEN
459       nnx_y = nnx / pdims(2)
460       nxl_y = myid * nnx_y
461       nxr_y = ( myid + 1 ) * nnx_y - 1
462       nzb_y = 1
463       nzt_y = nz
464       sendrecvcount_xy = nnx_y * nny * nz
465    ENDIF
466
467!
468!-- Arrays for storing the array bounds are needed any more
469    DEALLOCATE( nxlf , nxrf , nynf , nysf )
470
471
472#if ! defined( __check)
473!
474!-- Collect index bounds from other PEs (to be written to restart file later)
475    ALLOCATE( hor_index_bounds(4,0:numprocs-1) )
476
477    IF ( myid == 0 )  THEN
478
479       hor_index_bounds(1,0) = nxl
480       hor_index_bounds(2,0) = nxr
481       hor_index_bounds(3,0) = nys
482       hor_index_bounds(4,0) = nyn
483
484!
485!--    Receive data from all other PEs
486       DO  i = 1, numprocs-1
487          CALL MPI_RECV( ibuf, 4, MPI_INTEGER, i, MPI_ANY_TAG, comm2d, status, &
488                         ierr )
489          hor_index_bounds(:,i) = ibuf(1:4)
490       ENDDO
491
492    ELSE
493!
494!--    Send index bounds to PE0
495       ibuf(1) = nxl
496       ibuf(2) = nxr
497       ibuf(3) = nys
498       ibuf(4) = nyn
499       CALL MPI_SEND( ibuf, 4, MPI_INTEGER, 0, myid, comm2d, ierr )
500
501    ENDIF
502
503#endif
504
505#if defined( __print )
506!
507!-- Control output
508    IF ( myid == 0 )  THEN
509       PRINT*, '*** processor topology ***'
510       PRINT*, ' '
511       PRINT*, 'myid   pcoord    left right  south north  idx idy   nxl: nxr',&
512               &'   nys: nyn'
513       PRINT*, '------------------------------------------------------------',&
514               &'-----------'
515       WRITE (*,1000)  0, pcoord(1), pcoord(2), pleft, pright, psouth, pnorth, &
516                       myidx, myidy, nxl, nxr, nys, nyn
5171000   FORMAT (I4,2X,'(',I3,',',I3,')',3X,I4,2X,I4,3X,I4,2X,I4,2X,I3,1X,I3, &
518               2(2X,I4,':',I4))
519
520!
521!--    Receive data from the other PEs
522       DO  i = 1,numprocs-1
523          CALL MPI_RECV( ibuf, 12, MPI_INTEGER, i, MPI_ANY_TAG, comm2d, status, &
524                         ierr )
525          WRITE (*,1000)  i, ( ibuf(j) , j = 1,12 )
526       ENDDO
527    ELSE
528
529!
530!--    Send data to PE0
531       ibuf(1) = pcoord(1); ibuf(2) = pcoord(2); ibuf(3) = pleft
532       ibuf(4) = pright; ibuf(5) = psouth; ibuf(6) = pnorth; ibuf(7) = myidx
533       ibuf(8) = myidy; ibuf(9) = nxl; ibuf(10) = nxr; ibuf(11) = nys
534       ibuf(12) = nyn
535       CALL MPI_SEND( ibuf, 12, MPI_INTEGER, 0, myid, comm2d, ierr )       
536    ENDIF
537#endif
538
539#if defined( __parallel ) && ! defined( __check)
540#if defined( __mpi2 )
541!
542!-- In case of coupled runs, get the port name on PE0 of the atmosphere model
543!-- and pass it to PE0 of the ocean model
544    IF ( myid == 0 )  THEN
545
546       IF ( coupling_mode == 'atmosphere_to_ocean' )  THEN
547
548          CALL MPI_OPEN_PORT( MPI_INFO_NULL, port_name, ierr )
549
550          CALL MPI_PUBLISH_NAME( 'palm_coupler', MPI_INFO_NULL, port_name, &
551                                 ierr )
552
553!
554!--       Write a flag file for the ocean model and the other atmosphere
555!--       processes.
556!--       There seems to be a bug in MPICH2 which causes hanging processes
557!--       in case that execution of LOOKUP_NAME is continued too early
558!--       (i.e. before the port has been created)
559          OPEN( 90, FILE='COUPLING_PORT_OPENED', FORM='FORMATTED' )
560          WRITE ( 90, '(''TRUE'')' )
561          CLOSE ( 90 )
562
563       ELSEIF ( coupling_mode == 'ocean_to_atmosphere' )  THEN
564
565!
566!--       Continue only if the atmosphere model has created the port.
567!--       There seems to be a bug in MPICH2 which causes hanging processes
568!--       in case that execution of LOOKUP_NAME is continued too early
569!--       (i.e. before the port has been created)
570          INQUIRE( FILE='COUPLING_PORT_OPENED', EXIST=found )
571          DO WHILE ( .NOT. found )
572             INQUIRE( FILE='COUPLING_PORT_OPENED', EXIST=found )
573          ENDDO
574
575          CALL MPI_LOOKUP_NAME( 'palm_coupler', MPI_INFO_NULL, port_name, ierr )
576
577       ENDIF
578
579    ENDIF
580
581!
582!-- In case of coupled runs, establish the connection between the atmosphere
583!-- and the ocean model and define the intercommunicator (comm_inter)
584    CALL MPI_BARRIER( comm2d, ierr )
585    IF ( coupling_mode == 'atmosphere_to_ocean' )  THEN
586
587       CALL MPI_COMM_ACCEPT( port_name, MPI_INFO_NULL, 0, MPI_COMM_WORLD, &
588                             comm_inter, ierr )
589       coupling_mode_remote = 'ocean_to_atmosphere'
590
591    ELSEIF ( coupling_mode == 'ocean_to_atmosphere' )  THEN
592
593       CALL MPI_COMM_CONNECT( port_name, MPI_INFO_NULL, 0, MPI_COMM_WORLD, &
594                              comm_inter, ierr )
595       coupling_mode_remote = 'atmosphere_to_ocean'
596
597    ENDIF
598#endif
599
600!
601!-- Determine the number of ghost point layers
602    IF ( ( scalar_advec == 'ws-scheme' .AND. .NOT. neutral ) .OR.             &
603         scalar_advec == 'ws-scheme-mono' .OR.                                &
604         momentum_advec == 'ws-scheme' )  THEN
605       nbgp = 3
606    ELSE
607       nbgp = 1
608    ENDIF
609
610!
611!-- Create a new MPI derived datatype for the exchange of surface (xy) data,
612!-- which is needed for coupled atmosphere-ocean runs.
613!-- First, calculate number of grid points of an xy-plane.
614    ngp_xy  = ( nxr - nxl + 1 + 2 * nbgp ) * ( nyn - nys + 1 + 2 * nbgp )
615    CALL MPI_TYPE_VECTOR( ngp_xy, 1, nzt-nzb+2, MPI_REAL, type_xy, ierr )
616    CALL MPI_TYPE_COMMIT( type_xy, ierr )
617
618    IF ( TRIM( coupling_mode ) /= 'uncoupled' )  THEN
619   
620!
621!--    Pass the number of grid points of the atmosphere model to
622!--    the ocean model and vice versa
623       IF ( coupling_mode == 'atmosphere_to_ocean' )  THEN
624
625          nx_a = nx
626          ny_a = ny
627
628          IF ( myid == 0 )  THEN
629
630             CALL MPI_SEND( nx_a, 1, MPI_INTEGER, numprocs, 1, comm_inter,  &
631                            ierr )
632             CALL MPI_SEND( ny_a, 1, MPI_INTEGER, numprocs, 2, comm_inter,  &
633                            ierr )
634             CALL MPI_SEND( pdims, 2, MPI_INTEGER, numprocs, 3, comm_inter, &
635                            ierr )
636             CALL MPI_RECV( nx_o, 1, MPI_INTEGER, numprocs, 4, comm_inter,  &
637                            status, ierr )
638             CALL MPI_RECV( ny_o, 1, MPI_INTEGER, numprocs, 5, comm_inter,  &
639                            status, ierr )
640             CALL MPI_RECV( pdims_remote, 2, MPI_INTEGER, numprocs, 6,      &
641                            comm_inter, status, ierr )
642          ENDIF
643
644          CALL MPI_BCAST( nx_o, 1, MPI_INTEGER, 0, comm2d, ierr )
645          CALL MPI_BCAST( ny_o, 1, MPI_INTEGER, 0, comm2d, ierr ) 
646          CALL MPI_BCAST( pdims_remote, 2, MPI_INTEGER, 0, comm2d, ierr )
647       
648       ELSEIF ( coupling_mode == 'ocean_to_atmosphere' )  THEN
649
650          nx_o = nx
651          ny_o = ny
652
653          IF ( myid == 0 ) THEN
654
655             CALL MPI_RECV( nx_a, 1, MPI_INTEGER, 0, 1, comm_inter, status, &
656                            ierr )
657             CALL MPI_RECV( ny_a, 1, MPI_INTEGER, 0, 2, comm_inter, status, &
658                            ierr )
659             CALL MPI_RECV( pdims_remote, 2, MPI_INTEGER, 0, 3, comm_inter, &
660                            status, ierr )
661             CALL MPI_SEND( nx_o, 1, MPI_INTEGER, 0, 4, comm_inter, ierr )
662             CALL MPI_SEND( ny_o, 1, MPI_INTEGER, 0, 5, comm_inter, ierr )
663             CALL MPI_SEND( pdims, 2, MPI_INTEGER, 0, 6, comm_inter, ierr )
664          ENDIF
665
666          CALL MPI_BCAST( nx_a, 1, MPI_INTEGER, 0, comm2d, ierr)
667          CALL MPI_BCAST( ny_a, 1, MPI_INTEGER, 0, comm2d, ierr) 
668          CALL MPI_BCAST( pdims_remote, 2, MPI_INTEGER, 0, comm2d, ierr) 
669
670       ENDIF
671 
672       ngp_a = ( nx_a+1 + 2 * nbgp ) * ( ny_a+1 + 2 * nbgp )
673       ngp_o = ( nx_o+1 + 2 * nbgp ) * ( ny_o+1 + 2 * nbgp )
674
675!
676!--    Determine if the horizontal grid and the number of PEs in ocean and
677!--    atmosphere is same or not
678       IF ( nx_o == nx_a  .AND.  ny_o == ny_a  .AND.  &
679            pdims(1) == pdims_remote(1) .AND. pdims(2) == pdims_remote(2) ) &
680       THEN
681          coupling_topology = 0
682       ELSE
683          coupling_topology = 1
684       ENDIF
685
686!
687!--    Determine the target PEs for the exchange between ocean and
688!--    atmosphere (comm2d)
689       IF ( coupling_topology == 0 )  THEN
690!
691!--       In case of identical topologies, every atmosphere PE has exactly one
692!--       ocean PE counterpart and vice versa
693          IF ( TRIM( coupling_mode ) == 'atmosphere_to_ocean' ) THEN
694             target_id = myid + numprocs
695          ELSE
696             target_id = myid
697          ENDIF
698
699       ELSE
700!
701!--       In case of nonequivalent topology in ocean and atmosphere only for
702!--       PE0 in ocean and PE0 in atmosphere a target_id is needed, since
703!--       data echxchange between ocean and atmosphere will be done only
704!--       between these PEs.   
705          IF ( myid == 0 )  THEN
706
707             IF ( TRIM( coupling_mode ) == 'atmosphere_to_ocean' )  THEN
708                target_id = numprocs
709             ELSE
710                target_id = 0
711             ENDIF
712
713          ENDIF
714
715       ENDIF
716
717    ENDIF
718
719
720#endif
721
722#else
723
724!
725!-- Array bounds when running on a single PE (respectively a non-parallel
726!-- machine)
727    nxl = 0
728    nxr = nx
729    nnx = nxr - nxl + 1
730    nys = 0
731    nyn = ny
732    nny = nyn - nys + 1
733    nzb = 0
734    nzt = nz
735    nnz = nz
736
737    ALLOCATE( hor_index_bounds(4,0:0) )
738    hor_index_bounds(1,0) = nxl
739    hor_index_bounds(2,0) = nxr
740    hor_index_bounds(3,0) = nys
741    hor_index_bounds(4,0) = nyn
742
743!
744!-- Array bounds for the pressure solver (in the parallel code, these bounds
745!-- are the ones for the transposed arrays)
746    nys_x = nys
747    nyn_x = nyn
748    nzb_x = nzb + 1
749    nzt_x = nzt
750
751    nxl_y = nxl
752    nxr_y = nxr
753    nzb_y = nzb + 1
754    nzt_y = nzt
755
756    nxl_z = nxl
757    nxr_z = nxr
758    nys_z = nys
759    nyn_z = nyn
760
761#endif
762
763!
764!-- Calculate number of grid levels necessary for the multigrid poisson solver
765!-- as well as the gridpoint indices on each level
766    IF ( psolver(1:9) == 'multigrid' )  THEN
767
768!
769!--    First calculate number of possible grid levels for the subdomains
770       mg_levels_x = 1
771       mg_levels_y = 1
772       mg_levels_z = 1
773
774       i = nnx
775       DO WHILE ( MOD( i, 2 ) == 0  .AND.  i /= 2 )
776          i = i / 2
777          mg_levels_x = mg_levels_x + 1
778       ENDDO
779
780       j = nny
781       DO WHILE ( MOD( j, 2 ) == 0  .AND.  j /= 2 )
782          j = j / 2
783          mg_levels_y = mg_levels_y + 1
784       ENDDO
785
786       k = nz    ! do not use nnz because it might be > nz due to transposition
787                 ! requirements
788       DO WHILE ( MOD( k, 2 ) == 0  .AND.  k /= 2 )
789          k = k / 2
790          mg_levels_z = mg_levels_z + 1
791       ENDDO
792
793       maximum_grid_level = MIN( mg_levels_x, mg_levels_y, mg_levels_z )
794
795!
796!--    Find out, if the total domain allows more levels. These additional
797!--    levels are identically processed on all PEs.
798       IF ( numprocs > 1  .AND.  mg_switch_to_pe0_level /= -1 )  THEN
799
800          IF ( mg_levels_z > MIN( mg_levels_x, mg_levels_y ) )  THEN
801
802             mg_switch_to_pe0_level_l = maximum_grid_level
803
804             mg_levels_x = 1
805             mg_levels_y = 1
806
807             i = nx+1
808             DO WHILE ( MOD( i, 2 ) == 0  .AND.  i /= 2 )
809                i = i / 2
810                mg_levels_x = mg_levels_x + 1
811             ENDDO
812
813             j = ny+1
814             DO WHILE ( MOD( j, 2 ) == 0  .AND.  j /= 2 )
815                j = j / 2
816                mg_levels_y = mg_levels_y + 1
817             ENDDO
818
819             maximum_grid_level_l = MIN( mg_levels_x, mg_levels_y, mg_levels_z )
820
821             IF ( maximum_grid_level_l > mg_switch_to_pe0_level_l )  THEN
822                mg_switch_to_pe0_level_l = maximum_grid_level_l - &
823                                           mg_switch_to_pe0_level_l + 1
824             ELSE
825                mg_switch_to_pe0_level_l = 0
826             ENDIF
827
828          ELSE
829             mg_switch_to_pe0_level_l = 0
830             maximum_grid_level_l = maximum_grid_level
831
832          ENDIF
833
834!
835!--       Use switch level calculated above only if it is not pre-defined
836!--       by user
837          IF ( mg_switch_to_pe0_level == 0 )  THEN
838             IF ( mg_switch_to_pe0_level_l /= 0 )  THEN
839                mg_switch_to_pe0_level = mg_switch_to_pe0_level_l
840                maximum_grid_level     = maximum_grid_level_l
841             ENDIF
842
843          ELSE
844!
845!--          Check pre-defined value and reset to default, if neccessary
846             IF ( mg_switch_to_pe0_level < mg_switch_to_pe0_level_l  .OR.  &
847                  mg_switch_to_pe0_level >= maximum_grid_level_l )  THEN
848                message_string = 'mg_switch_to_pe0_level ' // &
849                                 'out of range and reset to default (=0)'
850                CALL message( 'init_pegrid', 'PA0235', 0, 1, 0, 6, 0 )
851                mg_switch_to_pe0_level = 0
852             ELSE
853!
854!--             Use the largest number of possible levels anyway and recalculate
855!--             the switch level to this largest number of possible values
856                maximum_grid_level = maximum_grid_level_l
857
858             ENDIF
859
860          ENDIF
861
862       ENDIF
863
864       ALLOCATE( grid_level_count(maximum_grid_level),                       &
865                 nxl_mg(0:maximum_grid_level), nxr_mg(0:maximum_grid_level), &
866                 nyn_mg(0:maximum_grid_level), nys_mg(0:maximum_grid_level), &
867                 nzt_mg(0:maximum_grid_level) )
868
869       grid_level_count = 0
870!
871!--    Index zero required as dummy due to definition of arrays f2 and p2 in
872!--    recursive subroutine next_mg_level
873       nxl_mg(0) = 0; nxr_mg(0) = 0; nyn_mg(0) = 0; nys_mg(0) = 0; nzt_mg(0) = 0
874
875       nxl_l = nxl; nxr_l = nxr; nys_l = nys; nyn_l = nyn; nzt_l = nzt
876
877       DO  i = maximum_grid_level, 1 , -1
878
879          IF ( i == mg_switch_to_pe0_level )  THEN
880#if defined( __parallel ) && ! defined( __check )
881!
882!--          Save the grid size of the subdomain at the switch level, because
883!--          it is needed in poismg.
884             ind(1) = nxl_l; ind(2) = nxr_l
885             ind(3) = nys_l; ind(4) = nyn_l
886             ind(5) = nzt_l
887             ALLOCATE( ind_all(5*numprocs), mg_loc_ind(5,0:numprocs-1) )
888             CALL MPI_ALLGATHER( ind, 5, MPI_INTEGER, ind_all, 5, &
889                                 MPI_INTEGER, comm2d, ierr )
890             DO  j = 0, numprocs-1
891                DO  k = 1, 5
892                   mg_loc_ind(k,j) = ind_all(k+j*5)
893                ENDDO
894             ENDDO
895             DEALLOCATE( ind_all )
896!
897!--          Calculate the grid size of the total domain
898             nxr_l = ( nxr_l-nxl_l+1 ) * pdims(1) - 1
899             nxl_l = 0
900             nyn_l = ( nyn_l-nys_l+1 ) * pdims(2) - 1
901             nys_l = 0
902!
903!--          The size of this gathered array must not be larger than the
904!--          array tend, which is used in the multigrid scheme as a temporary
905!--          array. Therefore the subdomain size of an PE is calculated and
906!--          the size of the gathered grid. These values are used in 
907!--          routines pres and poismg
908             subdomain_size = ( nxr - nxl + 2 * nbgp + 1 ) * &
909                              ( nyn - nys + 2 * nbgp + 1 ) * ( nzt - nzb + 2 )
910             gathered_size  = ( nxr_l - nxl_l + 3 ) * ( nyn_l - nys_l + 3 ) * &
911                              ( nzt_l - nzb + 2 )
912
913#elif ! defined ( __parallel )
914             message_string = 'multigrid gather/scatter impossible ' // &
915                          'in non parallel mode'
916             CALL message( 'init_pegrid', 'PA0237', 1, 2, 0, 6, 0 )
917#endif
918          ENDIF
919
920          nxl_mg(i) = nxl_l
921          nxr_mg(i) = nxr_l
922          nys_mg(i) = nys_l
923          nyn_mg(i) = nyn_l
924          nzt_mg(i) = nzt_l
925
926          nxl_l = nxl_l / 2 
927          nxr_l = nxr_l / 2
928          nys_l = nys_l / 2 
929          nyn_l = nyn_l / 2 
930          nzt_l = nzt_l / 2 
931
932       ENDDO
933
934!
935!--    Temporary problem: Currently calculation of maxerror iin routine poismg crashes
936!--    if grid data are collected on PE0 already on the finest grid level.
937!--    To be solved later.
938       IF ( maximum_grid_level == mg_switch_to_pe0_level )  THEN
939          message_string = 'grid coarsening on subdomain level cannot be performed'
940          CALL message( 'poismg', 'PA0236', 1, 2, 0, 6, 0 )
941       ENDIF
942
943    ELSE
944
945       maximum_grid_level = 0
946
947    ENDIF
948
949!
950!-- Default level 0 tells exchange_horiz that all ghost planes have to be
951!-- exchanged. grid_level is adjusted in poismg, where only one ghost plane
952!-- is required.
953    grid_level = 0
954
955#if defined( __parallel ) && ! defined ( __check )
956!
957!-- Gridpoint number for the exchange of ghost points (y-line for 2D-arrays)
958    ngp_y  = nyn - nys + 1 + 2 * nbgp
959
960!
961!-- Define new MPI derived datatypes for the exchange of ghost points in
962!-- x- and y-direction for 2D-arrays (line)
963    CALL MPI_TYPE_VECTOR( nxr-nxl+1+2*nbgp, nbgp, ngp_y, MPI_REAL, type_x, &
964                          ierr )
965    CALL MPI_TYPE_COMMIT( type_x, ierr )
966    CALL MPI_TYPE_VECTOR( nxr-nxl+1+2*nbgp, nbgp, ngp_y, MPI_INTEGER, &
967                          type_x_int, ierr )
968    CALL MPI_TYPE_COMMIT( type_x_int, ierr )
969
970    CALL MPI_TYPE_VECTOR( nbgp, ngp_y, ngp_y, MPI_REAL, type_y, ierr )
971    CALL MPI_TYPE_COMMIT( type_y, ierr )
972    CALL MPI_TYPE_VECTOR( nbgp, ngp_y, ngp_y, MPI_INTEGER, type_y_int, ierr )
973    CALL MPI_TYPE_COMMIT( type_y_int, ierr )
974
975
976!
977!-- Calculate gridpoint numbers for the exchange of ghost points along x
978!-- (yz-plane for 3D-arrays) and define MPI derived data type(s) for the
979!-- exchange of ghost points in y-direction (xz-plane).
980!-- Do these calculations for the model grid and (if necessary) also
981!-- for the coarser grid levels used in the multigrid method
982    ALLOCATE ( ngp_xz(0:maximum_grid_level), ngp_yz(0:maximum_grid_level),     &
983               type_xz(0:maximum_grid_level), type_yz(0:maximum_grid_level) )
984
985    nxl_l = nxl; nxr_l = nxr; nys_l = nys; nyn_l = nyn; nzb_l = nzb; nzt_l = nzt
986
987!
988!-- Discern between the model grid, which needs nbgp ghost points and
989!-- grid levels for the multigrid scheme. In the latter case only one
990!-- ghost point is necessary.
991!-- First definition of MPI-datatypes for exchange of ghost layers on normal
992!-- grid. The following loop is needed for data exchange in poismg.f90.
993!
994!-- Determine number of grid points of yz-layer for exchange
995    ngp_yz(0) = (nzt - nzb + 2) * (nyn - nys + 1 + 2 * nbgp)
996
997!
998!-- Define an MPI-datatype for the exchange of left/right boundaries.
999!-- Although data are contiguous in physical memory (which does not
1000!-- necessarily require an MPI-derived datatype), the data exchange between
1001!-- left and right PE's using the MPI-derived type is 10% faster than without.
1002    CALL MPI_TYPE_VECTOR( nxr-nxl+1+2*nbgp, nbgp*(nzt-nzb+2), ngp_yz(0), &
1003                          MPI_REAL, type_xz(0), ierr )
1004    CALL MPI_TYPE_COMMIT( type_xz(0), ierr )
1005
1006    CALL MPI_TYPE_VECTOR( nbgp, ngp_yz(0), ngp_yz(0), MPI_REAL, type_yz(0), &
1007                          ierr ) 
1008    CALL MPI_TYPE_COMMIT( type_yz(0), ierr )
1009
1010!
1011!-- Definition of MPI-datatypes for multigrid method (coarser level grids)
1012    IF ( psolver(1:9) == 'multigrid' )  THEN
1013!   
1014!--    Definition of MPI-datatyoe as above, but only 1 ghost level is used
1015       DO  i = maximum_grid_level, 1 , -1
1016
1017          ngp_xz(i) = (nzt_l - nzb_l + 2) * (nxr_l - nxl_l + 3)
1018          ngp_yz(i) = (nzt_l - nzb_l + 2) * (nyn_l - nys_l + 3)
1019
1020          CALL MPI_TYPE_VECTOR( nxr_l-nxl_l+3, nzt_l-nzb_l+2, ngp_yz(i), &
1021                                MPI_REAL, type_xz(i), ierr )
1022          CALL MPI_TYPE_COMMIT( type_xz(i), ierr )
1023
1024          CALL MPI_TYPE_VECTOR( 1, ngp_yz(i), ngp_yz(i), MPI_REAL, type_yz(i), &
1025                                ierr )
1026          CALL MPI_TYPE_COMMIT( type_yz(i), ierr )
1027
1028          nxl_l = nxl_l / 2
1029          nxr_l = nxr_l / 2
1030          nys_l = nys_l / 2
1031          nyn_l = nyn_l / 2
1032          nzt_l = nzt_l / 2
1033
1034       ENDDO
1035
1036    ENDIF
1037!
1038!-- Define data types for exchange of 3D Integer arrays.
1039    ngp_yz_int = (nzt - nzb + 2) * (nyn - nys + 1 + 2 * nbgp)
1040
1041    CALL MPI_TYPE_VECTOR( nxr-nxl+1+2*nbgp, nbgp*(nzt-nzb+2), ngp_yz_int, &
1042                          MPI_INTEGER, type_xz_int, ierr )
1043    CALL MPI_TYPE_COMMIT( type_xz_int, ierr )
1044
1045    CALL MPI_TYPE_VECTOR( nbgp, ngp_yz_int, ngp_yz_int, MPI_INTEGER, type_yz_int, &
1046                          ierr )
1047    CALL MPI_TYPE_COMMIT( type_yz_int, ierr )
1048
1049#endif
1050
1051#if defined( __parallel ) && ! defined ( __check )
1052!
1053!-- Setting of flags for inflow/outflow conditions in case of non-cyclic
1054!-- horizontal boundary conditions.
1055    IF ( pleft == MPI_PROC_NULL )  THEN
1056       IF ( bc_lr == 'dirichlet/radiation' )  THEN
1057          inflow_l  = .TRUE.
1058       ELSEIF ( bc_lr == 'radiation/dirichlet' )  THEN
1059          outflow_l = .TRUE.
1060       ENDIF
1061    ENDIF
1062
1063    IF ( pright == MPI_PROC_NULL )  THEN
1064       IF ( bc_lr == 'dirichlet/radiation' )  THEN
1065          outflow_r = .TRUE.
1066       ELSEIF ( bc_lr == 'radiation/dirichlet' )  THEN
1067          inflow_r  = .TRUE.
1068       ENDIF
1069    ENDIF
1070
1071    IF ( psouth == MPI_PROC_NULL )  THEN
1072       IF ( bc_ns == 'dirichlet/radiation' )  THEN
1073          outflow_s = .TRUE.
1074       ELSEIF ( bc_ns == 'radiation/dirichlet' )  THEN
1075          inflow_s  = .TRUE.
1076       ENDIF
1077    ENDIF
1078
1079    IF ( pnorth == MPI_PROC_NULL )  THEN
1080       IF ( bc_ns == 'dirichlet/radiation' )  THEN
1081          inflow_n  = .TRUE.
1082       ELSEIF ( bc_ns == 'radiation/dirichlet' )  THEN
1083          outflow_n = .TRUE.
1084       ENDIF
1085    ENDIF
1086
1087!
1088!-- Broadcast the id of the inflow PE
1089    IF ( inflow_l )  THEN
1090       id_inflow_l = myidx
1091    ELSE
1092       id_inflow_l = 0
1093    ENDIF
1094    IF ( collective_wait )  CALL MPI_BARRIER( comm2d, ierr )
1095    CALL MPI_ALLREDUCE( id_inflow_l, id_inflow, 1, MPI_INTEGER, MPI_SUM, &
1096                        comm1dx, ierr )
1097
1098!
1099!-- Broadcast the id of the recycling plane
1100!-- WARNING: needs to be adjusted in case of inflows other than from left side!
1101    IF ( NINT( recycling_width / dx ) >= nxl  .AND. &
1102         NINT( recycling_width / dx ) <= nxr )  THEN
1103       id_recycling_l = myidx
1104    ELSE
1105       id_recycling_l = 0
1106    ENDIF
1107    IF ( collective_wait )  CALL MPI_BARRIER( comm2d, ierr )
1108    CALL MPI_ALLREDUCE( id_recycling_l, id_recycling, 1, MPI_INTEGER, MPI_SUM, &
1109                        comm1dx, ierr )
1110
1111    CALL location_message( 'finished', .TRUE. )
1112
1113#elif ! defined ( __parallel )
1114    IF ( bc_lr == 'dirichlet/radiation' )  THEN
1115       inflow_l  = .TRUE.
1116       outflow_r = .TRUE.
1117    ELSEIF ( bc_lr == 'radiation/dirichlet' )  THEN
1118       outflow_l = .TRUE.
1119       inflow_r  = .TRUE.
1120    ENDIF
1121
1122    IF ( bc_ns == 'dirichlet/radiation' )  THEN
1123       inflow_n  = .TRUE.
1124       outflow_s = .TRUE.
1125    ELSEIF ( bc_ns == 'radiation/dirichlet' )  THEN
1126       outflow_n = .TRUE.
1127       inflow_s  = .TRUE.
1128    ENDIF
1129#endif
1130
1131!
1132!-- At the inflow or outflow, u or v, respectively, have to be calculated for
1133!-- one more grid point.
1134    IF ( inflow_l .OR. outflow_l )  THEN
1135       nxlu = nxl + 1
1136    ELSE
1137       nxlu = nxl
1138    ENDIF
1139    IF ( inflow_s .OR. outflow_s )  THEN
1140       nysv = nys + 1
1141    ELSE
1142       nysv = nys
1143    ENDIF
1144
1145!
1146!-- Allocate wall flag arrays used in the multigrid solver
1147    IF ( psolver(1:9) == 'multigrid' )  THEN
1148
1149       DO  i = maximum_grid_level, 1, -1
1150
1151           SELECT CASE ( i )
1152
1153              CASE ( 1 )
1154                 ALLOCATE( wall_flags_1(nzb:nzt_mg(i)+1,         &
1155                                        nys_mg(i)-1:nyn_mg(i)+1, &
1156                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1157
1158              CASE ( 2 )
1159                 ALLOCATE( wall_flags_2(nzb:nzt_mg(i)+1,         &
1160                                        nys_mg(i)-1:nyn_mg(i)+1, &
1161                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1162
1163              CASE ( 3 )
1164                 ALLOCATE( wall_flags_3(nzb:nzt_mg(i)+1,         &
1165                                        nys_mg(i)-1:nyn_mg(i)+1, &
1166                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1167
1168              CASE ( 4 )
1169                 ALLOCATE( wall_flags_4(nzb:nzt_mg(i)+1,         &
1170                                        nys_mg(i)-1:nyn_mg(i)+1, &
1171                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1172
1173              CASE ( 5 )
1174                 ALLOCATE( wall_flags_5(nzb:nzt_mg(i)+1,         &
1175                                        nys_mg(i)-1:nyn_mg(i)+1, &
1176                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1177
1178              CASE ( 6 )
1179                 ALLOCATE( wall_flags_6(nzb:nzt_mg(i)+1,         &
1180                                        nys_mg(i)-1:nyn_mg(i)+1, &
1181                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1182
1183              CASE ( 7 )
1184                 ALLOCATE( wall_flags_7(nzb:nzt_mg(i)+1,         &
1185                                        nys_mg(i)-1:nyn_mg(i)+1, &
1186                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1187
1188              CASE ( 8 )
1189                 ALLOCATE( wall_flags_8(nzb:nzt_mg(i)+1,         &
1190                                        nys_mg(i)-1:nyn_mg(i)+1, &
1191                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1192
1193              CASE ( 9 )
1194                 ALLOCATE( wall_flags_9(nzb:nzt_mg(i)+1,         &
1195                                        nys_mg(i)-1:nyn_mg(i)+1, &
1196                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1197
1198              CASE ( 10 )
1199                 ALLOCATE( wall_flags_10(nzb:nzt_mg(i)+1,        &
1200                                        nys_mg(i)-1:nyn_mg(i)+1, &
1201                                        nxl_mg(i)-1:nxr_mg(i)+1) )
1202
1203              CASE DEFAULT
1204                 message_string = 'more than 10 multigrid levels'
1205                 CALL message( 'init_pegrid', 'PA0238', 1, 2, 0, 6, 0 )
1206
1207          END SELECT
1208
1209       ENDDO
1210
1211    ENDIF
1212
1213!
1214!-- Calculate the number of groups into which parallel I/O is split.
1215!-- The default for files which are opened by all PEs (or where each
1216!-- PE opens his own independent file) is, that all PEs are doing input/output
1217!-- in parallel at the same time. This might cause performance or even more
1218!-- severe problems depending on the configuration of the underlying file
1219!-- system.
1220!-- First, set the default:
1221    IF ( maximum_parallel_io_streams == -1  .OR. &
1222         maximum_parallel_io_streams > numprocs )  THEN
1223       maximum_parallel_io_streams = numprocs
1224    ENDIF
1225
1226!
1227!-- Now calculate the number of io_blocks and the io_group to which the
1228!-- respective PE belongs. I/O of the groups is done in serial, but in parallel
1229!-- for all PEs belonging to the same group. A preliminary setting with myid
1230!-- based on MPI_COMM_WORLD has been done in parin.
1231    io_blocks = numprocs / maximum_parallel_io_streams
1232    io_group  = MOD( myid+1, io_blocks )
1233   
1234
1235 END SUBROUTINE init_pegrid
Note: See TracBrowser for help on using the repository browser.