source: palm/trunk/SOURCE/pmc_client_mod.f90 @ 1929

Last change on this file since 1929 was 1897, checked in by raasch, 9 years ago

last commit documented

  • Property svn:keywords set to Id
File size: 25.1 KB
RevLine 
[1762]1MODULE pmc_client
2
3!--------------------------------------------------------------------------------!
4! This file is part of PALM.
5!
6! PALM is free software: you can redistribute it and/or modify it under the terms
7! of the GNU General Public License as published by the Free Software Foundation,
8! either version 3 of the License, or (at your option) any later version.
9!
10! PALM is distributed in the hope that it will be useful, but WITHOUT ANY
11! WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR
12! A PARTICULAR PURPOSE.  See the GNU General Public License for more details.
13!
14! You should have received a copy of the GNU General Public License along with
15! PALM. If not, see <http://www.gnu.org/licenses/>.
16!
[1818]17! Copyright 1997-2016 Leibniz Universitaet Hannover
[1762]18!--------------------------------------------------------------------------------!
19!
20! Current revisions:
21! ------------------
[1834]22!
[1897]23!
[1762]24! Former revisions:
25! -----------------
26! $Id: pmc_client_mod.f90 1897 2016-05-03 08:10:23Z suehring $
27!
[1897]28! 1896 2016-05-03 08:06:41Z raasch
29! re-formatted to match PALM style
30!
[1851]31! 1850 2016-04-08 13:29:27Z maronga
32! Module renamed
33!
34!
[1834]35! 1833 2016-04-07 14:23:03Z raasch
36! gfortran requires pointer attributes for some array declarations,
37! long line wrapped
38!
[1809]39! 1808 2016-04-05 19:44:00Z raasch
40! MPI module used by default on all machines
41!
[1798]42! 1797 2016-03-21 16:50:28Z raasch
43! introduction of different datatransfer modes
44!
[1792]45! 1791 2016-03-11 10:41:25Z raasch
46! Debug write-statement commented out
47!
[1787]48! 1786 2016-03-08 05:49:27Z raasch
49! change in client-server data transfer: server now gets data from client
50! instead that client put's it to the server
51!
[1784]52! 1783 2016-03-06 18:36:17Z raasch
53! Bugfix: wrong data-type in MPI_WIN_CREATE replaced
54!
[1780]55! 1779 2016-03-03 08:01:28Z raasch
56! kind=dp replaced by wp, dim_order removed
57! array management changed from linked list to sequential loop
58!
[1765]59! 1764 2016-02-28 12:45:19Z raasch
60! cpp-statement added (nesting can only be used in parallel mode),
61! all kinds given in PALM style
62!
[1763]63! 1762 2016-02-25 12:31:13Z hellstea
64! Initial revision by K. Ketelsen
[1762]65!
66! Description:
67! ------------
68!
69! Client part of Palm Model Coupler
70!------------------------------------------------------------------------------!
71
[1764]72#if defined( __parallel )
[1762]73
[1896]74    USE, INTRINSIC ::  iso_c_binding
[1762]75
[1808]76#if defined( __mpifh )
77    INCLUDE "mpif.h"
78#else
[1764]79    USE MPI
80#endif
[1896]81
82    USE kinds
83    USE pmc_general,                                                           &
84        ONLY:  arraydef, clientdef, da_desclen, da_namedef, da_namelen, pedef, &
85               pmc_da_name_err,  pmc_g_setname, pmc_max_array, pmc_status_ok
86
87    USE pmc_handle_communicator,                                               &
88        ONLY:  m_model_comm, m_model_npes, m_model_rank, m_to_server_comm
89
90    USE pmc_mpi_wrapper,                                                       &
91        ONLY:  pmc_alloc_mem, pmc_bcast, pmc_inter_bcast,                      &
92               pmc_recv_from_server, pmc_send_to_server, pmc_time
93
94    IMPLICIT NONE
95
[1762]96    PRIVATE
97    SAVE
98
[1896]99    TYPE(clientdef) ::  me   !<
[1762]100
[1896]101    INTEGER ::  myindex = 0         !< counter and unique number for data arrays
102    INTEGER ::  next_array_in_list = 0   !<
[1762]103
104
[1896]105    INTERFACE pmc_clientinit
106        MODULE PROCEDURE pmc_clientinit
[1762]107    END INTERFACE PMC_ClientInit
108
[1896]109    INTERFACE pmc_c_clear_next_array_list
110        MODULE PROCEDURE pmc_c_clear_next_array_list
111    END INTERFACE pmc_c_clear_next_array_list
[1762]112
[1896]113    INTERFACE pmc_c_getbuffer
114        MODULE PROCEDURE pmc_c_getbuffer
115    END INTERFACE pmc_c_getbuffer
[1762]116
[1896]117    INTERFACE pmc_c_getnextarray
118        MODULE PROCEDURE pmc_c_getnextarray
119    END INTERFACE pmc_c_getnextarray
[1779]120
[1896]121    INTERFACE pmc_c_get_2d_index_list
122        MODULE PROCEDURE pmc_c_get_2d_index_list
123    END INTERFACE pmc_c_get_2d_index_list
[1762]124
[1896]125    INTERFACE pmc_c_putbuffer
126        MODULE PROCEDURE pmc_c_putbuffer
127    END INTERFACE pmc_c_putbuffer
[1762]128
[1896]129    INTERFACE pmc_c_setind_and_allocmem
130        MODULE PROCEDURE pmc_c_setind_and_allocmem
131    END INTERFACE pmc_c_setind_and_allocmem
[1762]132
[1896]133    INTERFACE pmc_c_set_dataarray
134        MODULE PROCEDURE pmc_c_set_dataarray_2d
135        MODULE PROCEDURE pmc_c_set_dataarray_3d
136    END INTERFACE pmc_c_set_dataarray
[1762]137
[1896]138    INTERFACE pmc_set_dataarray_name
139        MODULE PROCEDURE pmc_set_dataarray_name
140        MODULE PROCEDURE pmc_set_dataarray_name_lastentry
141    END INTERFACE pmc_set_dataarray_name
[1762]142
143
[1896]144    PUBLIC pmc_clientinit, pmc_c_clear_next_array_list, pmc_c_getbuffer,       &
145           pmc_c_getnextarray, pmc_c_putbuffer, pmc_c_setind_and_allocmem,     &
146           pmc_c_set_dataarray, pmc_set_dataarray_name, pmc_c_get_2d_index_list
[1762]147
[1896]148 CONTAINS
[1762]149
150
151
[1896]152 SUBROUTINE pmc_clientinit
[1762]153
[1896]154     IMPLICIT NONE
[1762]155
[1896]156     INTEGER ::  i        !<
157     INTEGER ::  istat    !<
[1762]158
[1896]159!
160!--  Get / define the MPI environment
161     me%model_comm = m_model_comm
162     me%inter_comm = m_to_server_comm
[1762]163
[1896]164     CALL MPI_COMM_RANK( me%model_comm, me%model_rank, istat )
165     CALL MPI_COMM_SIZE( me%model_comm, me%model_npes, istat )
166     CALL MPI_COMM_REMOTE_SIZE( me%inter_comm, me%inter_npes, istat )
167!
168!--  Intra-communicater is used for MPI_GET
169     CALL MPI_INTERCOMM_MERGE( me%inter_comm, .TRUE., me%intra_comm, istat )
170     CALL MPI_COMM_RANK( me%intra_comm, me%intra_rank, istat )
[1762]171
[1896]172     ALLOCATE( me%pes(me%inter_npes) )
173
[1779]174!
[1896]175!--  Allocate an array of type arraydef for all server PEs to store information
176!--  of then transfer array
177     DO  i = 1, me%inter_npes
178        ALLOCATE( me%pes(i)%array_list(pmc_max_array) )
179     ENDDO
[1762]180
[1896]181 END SUBROUTINE pmc_clientinit
[1762]182
183
184
[1896]185 SUBROUTINE pmc_set_dataarray_name( serverarraydesc, serverarrayname,          &
186                                    clientarraydesc, clientarrayname, istat )
[1762]187
[1896]188    IMPLICIT NONE
[1762]189
[1896]190    CHARACTER(LEN=*), INTENT(IN) ::  serverarrayname  !<
191    CHARACTER(LEN=*), INTENT(IN) ::  serverarraydesc  !<
192    CHARACTER(LEN=*), INTENT(IN) ::  clientarrayname  !<
193    CHARACTER(LEN=*), INTENT(IN) ::  clientarraydesc  !<
[1762]194
[1896]195    INTEGER, INTENT(OUT) ::  istat  !<
[1762]196
[1896]197!
198!-- Local variables
199    TYPE(da_namedef) ::  myname  !<
[1762]200
[1896]201    INTEGER ::  mype  !<
202    INTEGER ::  my_addiarray = 0  !<
[1762]203
204
[1896]205    istat = pmc_status_ok
206!
207!-- Check length of array names
208    IF ( LEN( TRIM( serverarrayname) ) > da_namelen  .OR.                     &
209         LEN( TRIM( clientarrayname) ) > da_namelen )  THEN
210       istat = pmc_da_name_err
211    ENDIF
[1762]212
[1896]213    IF ( m_model_rank == 0 )  THEN
214       myindex = myindex + 1
215       myname%couple_index = myIndex
216       myname%serverdesc   = TRIM( serverarraydesc )
217       myname%nameonserver = TRIM( serverarrayname )
218       myname%clientdesc   = TRIM( clientarraydesc )
219       myname%nameonclient = TRIM( clientarrayname )
220    ENDIF
[1762]221
[1896]222!
223!-- Broadcat to all client PEs
224!-- TODO: describe what is broadcast here and why it is done
225    CALL pmc_bcast( myname%couple_index, 0, comm=m_model_comm )
226    CALL pmc_bcast( myname%serverdesc,   0, comm=m_model_comm )
227    CALL pmc_bcast( myname%nameonserver, 0, comm=m_model_comm )
228    CALL pmc_bcast( myname%clientdesc,   0, comm=m_model_comm )
229    CALL pmc_bcast( myname%nameonclient, 0, comm=m_model_comm )
[1762]230
[1896]231!
232!-- Broadcat to all server PEs
233!-- TODO: describe what is broadcast here and why it is done
234    IF ( m_model_rank == 0 )  THEN
235        mype = MPI_ROOT
236    ELSE
237        mype = MPI_PROC_NULL
238    ENDIF
[1762]239
[1896]240    CALL pmc_bcast( myname%couple_index, mype, comm=m_to_server_comm )
241    CALL pmc_bcast( myname%serverdesc,   mype, comm=m_to_server_comm )
242    CALL pmc_bcast( myname%nameonserver, mype, comm=m_to_server_comm )
243    CALL pmc_bcast( myname%clientdesc,   mype, comm=m_to_server_comm )
244    CALL pmc_bcast( myname%nameonclient, mype, comm=m_to_server_comm )
[1762]245
[1896]246    CALL pmc_g_setname( me, myname%couple_index, myname%nameonclient )
[1762]247
[1896]248 END SUBROUTINE pmc_set_dataarray_name
[1762]249
250
251
[1896]252 SUBROUTINE pmc_set_dataarray_name_lastentry( lastentry )
[1762]253
[1896]254    IMPLICIT NONE
[1762]255
[1896]256    LOGICAL, INTENT(IN), OPTIONAL ::  lastentry  !<
[1762]257
[1896]258!
259!-- Local variables
260    INTEGER ::  mype  !<
261    TYPE(dA_namedef) ::  myname  !<
[1762]262
[1896]263    myname%couple_index = -1
[1762]264
[1896]265    IF ( m_model_rank == 0 )  THEN
266       mype = MPI_ROOT
267    ELSE
268       mype = MPI_PROC_NULL
269    ENDIF
[1762]270
[1896]271    CALL pmc_bcast( myname%couple_index, mype, comm=m_to_server_comm )
[1762]272
[1896]273 END SUBROUTINE pmc_set_dataarray_name_lastentry
[1762]274
275
276
[1896]277 SUBROUTINE pmc_c_get_2d_index_list
[1762]278
[1896]279    IMPLICIT NONE
[1762]280
[1896]281    INTEGER :: dummy               !<
282    INTEGER :: i, ierr, i2, j, nr  !<
283    INTEGER :: indwin              !< MPI window object
284    INTEGER :: indwin2  !          < MPI window object
[1779]285
[1896]286    INTEGER(KIND=MPI_ADDRESS_KIND) :: win_size !< Size of MPI window 1 (in bytes)
287    INTEGER(KIND=MPI_ADDRESS_KIND) :: disp     !< Displacement unit (Integer = 4, floating poit = 8
288    INTEGER(KIND=MPI_ADDRESS_KIND) :: winsize  !< Size of MPI window 2 (in bytes)
[1779]289
[1896]290    INTEGER, DIMENSION(me%inter_npes*2) :: nrele  !< Number of Elements of a
291                                                  !< horizontal slice
292    INTEGER, DIMENSION(:), POINTER ::  myind  !<
[1779]293
[1896]294    TYPE(pedef), POINTER ::  ape  !> Pointer to pedef structure
[1762]295
296
[1896]297    win_size = C_SIZEOF( dummy )
298    CALL MPI_WIN_CREATE( dummy, win_size, iwp, MPI_INFO_NULL, me%intra_comm,   &
299                         indwin, ierr )
300!
301!-- Open window on server side
302!-- TODO: why is the next MPI routine called twice??
303    CALL MPI_WIN_FENCE( 0, indwin, ierr )
304!
305!-- Close window on server side and open on client side
306    CALL MPI_WIN_FENCE( 0, indwin, ierr )
[1762]307
[1896]308    DO  i = 1, me%inter_npes
309       disp = me%model_rank * 2
310       CALL MPI_GET( nrele((i-1)*2+1), 2, MPI_INTEGER, i-1, disp, 2,           &
311                     MPI_INTEGER, indwin, ierr )
312    ENDDO
313!
314!-- MPI_GET is non-blocking -> data in nrele is not available until MPI_FENCE is
315!-- called
316    CALL MPI_WIN_FENCE( 0, indwin, ierr )
[1762]317
[1896]318!
319!-- Allocate memory for index array
320    winsize = 0
321    DO  i = 1, me%inter_npes
322       ape => me%pes(i)
323       i2 = ( i-1 ) * 2 + 1
324       nr = nrele(i2+1)
325       IF ( nr > 0 )  THEN
326          ALLOCATE( ape%locind(nr) )
327       ELSE
328          NULLIFY( ape%locind )
329       ENDIF
330       winsize = MAX( nr, winsize )
331    ENDDO
[1762]332
[1896]333    ALLOCATE( myind(2*winsize) )
334    winsize = 1
[1762]335
[1896]336!
337!-- Local buffer used in MPI_GET can but must not be inside the MPI Window.
338!-- Here, we use a dummy for the MPI window because the server PEs do not access
339!-- the RMA window via MPI_GET or MPI_PUT
340    CALL MPI_WIN_CREATE( dummy, winsize, iwp, MPI_INFO_NULL, me%intra_comm,    &
341                         indwin2, ierr )
342!
343!-- MPI_GET is non-blocking -> data in nrele is not available until MPI_FENCE is
344!-- called
345!-- TODO: as before: why is this called twice??
346    CALL MPI_WIN_FENCE( 0, indwin2, ierr )
347    CALL MPI_WIN_FENCE( 0, indwin2, ierr )
[1779]348
[1896]349    DO  i = 1, me%inter_npes
350       ape => me%pes(i)
351       nr = nrele(i*2)
352       IF ( nr > 0 )  THEN
353          disp = nrele(2*(i-1)+1)
354          CALL MPI_WIN_LOCK( MPI_LOCK_SHARED , i-1, 0, indwin2, ierr )
355          CALL MPI_GET( myind, 2*nr, MPI_INTEGER, i-1, disp, 2*nr,             &
356                        MPI_INTEGER, indwin2, ierr )
357          CALL MPI_WIN_UNLOCK( i-1, indwin2, ierr )
358          DO  j = 1, nr
359             ape%locind(j)%i = myind(2*j-1)
360             ape%locind(j)%j = myind(2*j)
361          ENDDO
362          ape%nrele = nr
363       ELSE
364          ape%nrele = -1
365       ENDIF
366    ENDDO
[1762]367
[1896]368!
369!-- Don't know why, but this barrier is necessary before we can free the windows
370    CALL MPI_BARRIER( me%intra_comm, ierr )
[1779]371
[1896]372    CALL MPI_WIN_FREE( indWin,  ierr )
373    CALL MPI_WIN_FREE( indwin2, ierr )
374    DEALLOCATE( myind )
[1762]375
[1896]376 END SUBROUTINE pmc_c_get_2d_index_list
[1762]377
[1779]378
379
[1896]380 SUBROUTINE pmc_c_clear_next_array_list
[1762]381
[1896]382    IMPLICIT NONE
[1762]383
[1896]384    next_array_in_list = 0
[1762]385
[1896]386 END SUBROUTINE pmc_c_clear_next_array_list
[1762]387
388
[1779]389
[1896]390 LOGICAL FUNCTION pmc_c_getnextarray( myname )
391!
392!--  List handling is still required to get minimal interaction with
393!--  pmc_interface
394     CHARACTER(LEN=*), INTENT(OUT) ::  myname  !<
[1762]395
[1896]396!
397!-- Local variables
398    TYPE(pedef), POINTER    :: ape
399    TYPE(arraydef), POINTER :: ar
[1779]400
401
[1896]402    next_array_in_list = next_array_in_list + 1
[1762]403
[1896]404!
405!-- Array names are the same on all client PEs, so take first PE to get the name
406    ape => me%pes(1)
407!
408!-- Check if all arrays have been processed
409    IF ( next_array_in_list > ape%nr_arrays )  THEN
410       pmc_c_getnextarray = .FALSE.
411       RETURN
412    ENDIF
[1762]413
[1896]414    ar => ape%array_list( next_array_in_list )
[1762]415
[1896]416    myname = ar%name
[1762]417
[1896]418!
419!-- Return true if legal array
420!-- TODO: the case of a non-legal array does not seem to appear, so why is this
421!-- setting required at all?
422    pmc_c_getnextarray = .TRUE.
[1762]423
[1896]424 END function pmc_c_getnextarray
[1764]425
[1762]426
[1786]427
[1896]428 SUBROUTINE pmc_c_set_dataarray_2d( array )
[1762]429
[1896]430    IMPLICIT NONE
[1762]431
[1896]432    REAL(wp), INTENT(IN) , DIMENSION(:,:), POINTER ::  array  !<
[1762]433
[1896]434    INTEGER                 ::  i       !<
435    INTEGER                 ::  nrdims  !<
436    INTEGER, DIMENSION(4)   ::  dims    !<
[1786]437
[1896]438    TYPE(C_PTR)             ::  array_adr
439    TYPE(arraydef), POINTER ::  ar
440    TYPE(pedef), POINTER    ::  ape
[1762]441
442
[1896]443    dims    = 1
444    nrdims  = 2
445    dims(1) = SIZE( array, 1 )
446    dims(2) = SIZE( array, 2 )
[1762]447
[1896]448    array_adr = C_LOC( array )
[1786]449
[1896]450    DO  i = 1, me%inter_npes
451       ape => me%pes(i)
452       ar  => ape%array_list(next_array_in_list)
453       ar%nrdims = nrdims
454       ar%a_dim  = dims
455       ar%data   = array_adr
456    ENDDO
[1786]457
[1896]458 END SUBROUTINE pmc_c_set_dataarray_2d
[1786]459
460
461
[1896]462 SUBROUTINE pmc_c_set_dataarray_3d (array)
[1786]463
[1896]464    IMPLICIT NONE
[1786]465
[1896]466    REAL(wp), INTENT(IN), DIMENSION(:,:,:), POINTER ::  array  !<
[1786]467
[1896]468    INTEGER                 ::  i
469    INTEGER                 ::  nrdims
470    INTEGER, DIMENSION (4)  ::  dims
471    TYPE(C_PTR)             ::  array_adr
472    TYPE(pedef), POINTER    ::  ape
473    TYPE(arraydef), POINTER ::  ar
[1786]474
475
[1896]476    dims    = 1
477    nrdims  = 3
478    dims(1) = SIZE( array, 1 )
479    dims(2) = SIZE( array, 2 )
480    dims(3) = SIZE( array, 3 )
[1786]481
[1896]482    array_adr = C_LOC( array )
[1786]483
[1896]484    DO  i = 1, me%inter_npes
485       ape => me%pes(i)
486       ar  => ape%array_list(next_array_in_list)
487       ar%nrdims = nrdims
488       ar%a_dim  = dims
489       ar%data   = array_adr
490    ENDDO
[1786]491
[1896]492 END SUBROUTINE pmc_c_set_dataarray_3d
[1762]493
494
495
[1896]496 SUBROUTINE pmc_c_setind_and_allocmem
[1762]497
[1896]498    IMPLICIT NONE
499!
500!-- Naming convention for appendices:  _sc  -> server to client transfer
501!--                                    _cs  -> client to server transfer
502!--                                    recv -> server to client transfer
503!--                                    send -> client to server transfer
504    CHARACTER(LEN=da_namelen) ::  myname  !<
[1786]505
[1896]506    INTEGER ::  arlen    !<
507    INTEGER ::  myindex  !<
508    INTEGER ::  i        !<
509    INTEGER ::  ierr     !<
510    INTEGER ::  istat    !<
511    INTEGER ::  j        !<
512    INTEGER ::  rcount   !<
513    INTEGER ::  tag      !<
[1762]514
[1896]515    INTEGER, PARAMETER ::  noindex = -1  !<
[1762]516
[1896]517    INTEGER(idp)                   ::  bufsize  !< size of MPI data window
518    INTEGER(KIND=MPI_ADDRESS_KIND) ::  winsize  !<
[1762]519
[1896]520    INTEGER,DIMENSION(1024) ::  req  !<
[1779]521
[1896]522    REAL(wp), DIMENSION(:), POINTER, SAVE ::  base_array_sc  !< base array
523    REAL(wp), DIMENSION(:), POINTER, SAVE ::  base_array_cs  !< base array
[1762]524
[1896]525    TYPE(pedef), POINTER    ::  ape       !<
526    TYPE(arraydef), POINTER ::  ar        !<
527    Type(C_PTR)             ::  base_ptr  !<
[1779]528
[1762]529
[1896]530    myindex = 0
531    bufsize = 8
532
[1797]533!
[1896]534!-- Server to client direction.
535!-- First stride: compute size and set index
536    DO  i = 1, me%inter_npes
[1762]537
[1896]538       ape => me%pes(i)
539       tag = 200
[1762]540
[1896]541       DO  j = 1, ape%nr_arrays
[1762]542
[1896]543          ar => ape%array_list(j)
544!
545!--       Receive index from client
546          tag = tag + 1
547          CALL MPI_RECV( myindex, 1, MPI_INTEGER, i-1, tag, me%inter_comm,     &
548                         MPI_STATUS_IGNORE, ierr )
549          ar%recvindex = myindex
550!
551!--       Determine max, because client buffer is allocated only once
552!--       TODO: give a more meaningful comment
553          IF( ar%nrdims == 3 )  THEN
554             bufsize = MAX( bufsize, ar%a_dim(1)*ar%a_dim(2)*ar%a_dim(3) )
555          ELSE
556             bufsize = MAX( bufsize, ar%a_dim(1)*ar%a_dim(2) )
557          ENDIF
[1762]558
[1896]559       ENDDO
560
561    ENDDO
562
[1779]563!
[1896]564!-- Create RMA (one sided communication) data buffer.
565!-- The buffer for MPI_GET can be PE local, i.e. it can but must not be part of
566!-- the MPI RMA window
567    CALL pmc_alloc_mem( base_array_sc, bufsize, base_ptr )
568    me%totalbuffersize = bufsize*wp  ! total buffer size in byte
[1762]569
[1896]570!
571!-- Second stride: set buffer pointer
572    DO  i = 1, me%inter_npes
[1762]573
[1896]574       ape => me%pes(i)
[1762]575
[1896]576       DO  j = 1, ape%nr_arrays
577          ar => ape%array_list(j)
578          ar%recvbuf = base_ptr
579       ENDDO
[1762]580
[1896]581    ENDDO
[1779]582
[1896]583!
584!-- Client to server direction
585    myindex = 1
586    rcount  = 0
587    bufsize = 8
[1762]588
[1896]589    DO  i = 1, me%inter_npes
[1779]590
[1896]591       ape => me%pes(i)
592       tag = 300
[1762]593
[1896]594       DO  j = 1, ape%nr_arrays
[1762]595
[1896]596          ar => ape%array_list(j)
597          IF( ar%nrdims == 2 )  THEN
598             arlen = ape%nrele
599          ELSEIF( ar%nrdims == 3 )  THEN
600             arlen = ape%nrele*ar%a_dim(1)
601          ENDIF
[1762]602
[1896]603          tag    = tag + 1
604          rcount = rcount + 1
605          IF ( ape%nrele > 0 )  THEN
606             CALL MPI_ISEND( myindex, 1, MPI_INTEGER, i-1, tag, me%inter_comm, &
607                             req(rcount), ierr )
608             ar%sendindex = myindex
609          ELSE
610             CALL MPI_ISEND( noindex, 1, MPI_INTEGER, i-1, tag, me%inter_comm, &
611                             req(rcount), ierr )
612             ar%sendindex = noindex
613          ENDIF
614!
615!--       Maximum of 1024 outstanding requests
616!--       TODO: explain where this maximum comes from (arbitrary?)
617          IF ( rcount == 1024 )  THEN
618             CALL MPI_WAITALL( rcount, req, MPI_STATUSES_IGNORE, ierr )
619             rcount = 0
620          ENDIF
[1762]621
[1896]622          IF ( ape%nrele > 0 )  THEN
623             ar%sendsize = arlen
624             myindex     = myindex + arlen
625             bufsize     = bufsize + arlen
626          ENDIF
[1762]627
[1896]628       ENDDO
[1762]629
[1896]630       IF ( rcount > 0 )  THEN
631          CALL MPI_WAITALL( rcount, req, MPI_STATUSES_IGNORE, ierr )
632       ENDIF
[1762]633
[1896]634    ENDDO
635
636!
637!-- Create RMA (one sided communication) window for data buffer client to server
638!-- transfer.
639!-- The buffer of MPI_GET (counter part of transfer) can be PE-local, i.e. it
640!-- can but must not be part of the MPI RMA window. Only one RMA window is
641!-- required to prepare the data
642!--        for server -> client transfer on the server side
643!-- and
644!--        for client -> server transfer on the client side
645
646    CALL pmc_alloc_mem( base_array_cs, bufsize )
647    me%totalbuffersize = bufsize * wp  ! total buffer size in byte
648
649    winSize = me%totalbuffersize
650
651    CALL MPI_WIN_CREATE( base_array_cs, winsize, wp, MPI_INFO_NULL,            &
652                         me%intra_comm, me%win_server_client, ierr )
653    CALL MPI_WIN_FENCE( 0, me%win_server_client, ierr )
654    CALL MPI_BARRIER( me%intra_comm, ierr )
655
656!
657!-- Second stride: set buffer pointer
658    DO  i = 1, me%inter_npes
659
660       ape => me%pes(i)
661
662       DO  j = 1, ape%nr_arrays
663
664          ar => ape%array_list(j)
665
666          IF ( ape%nrele > 0 )  THEN
667             ar%sendbuf = C_LOC( base_array_cs(ar%sendindex) )
668!--          TODO: if this is an error to be really expected, replace the
669!--                following message by a meaningful standard PALM message using
670!--                the message-routine
671             IF ( ar%sendindex+ar%sendsize > bufsize )  THEN
672                WRITE( 0,'(a,i4,4i7,1x,a)') 'Client Buffer too small ', i,     &
673                          ar%sendindex, ar%sendsize, ar%sendindex+ar%sendsize, &
674                          bufsize, TRIM( ar%name )
675                CALL MPI_ABORT( MPI_COMM_WORLD, istat, ierr )
676             ENDIF
677          ENDIF
678
679       ENDDO
680
681    ENDDO
682
683 END SUBROUTINE pmc_c_setind_and_allocmem
684
685
686
687 SUBROUTINE pmc_c_getbuffer( waittime )
688
689    IMPLICIT NONE
690
691    REAL(wp), INTENT(OUT), OPTIONAL ::  waittime  !<
692
693    CHARACTER(LEN=da_namelen) ::  myname  !<
694
695    INTEGER                        ::  ierr     !<
696    INTEGER                        ::  ij       !<
697    INTEGER                        ::  ip       !<
698    INTEGER                        ::  j        !<
699    INTEGER                        ::  myindex  !<
700    INTEGER                        ::  nr       !< number of elements to get
701                                                !< from server
702    INTEGER(KIND=MPI_ADDRESS_KIND) ::  target_disp
703    INTEGER,DIMENSION(1)           ::  buf_shape
704
705    REAL(wp)                            ::  t1
706    REAL(wp)                            ::  t2
707
708    REAL(wp), POINTER, DIMENSION(:)     ::  buf
709    REAL(wp), POINTER, DIMENSION(:,:)   ::  data_2d
710    REAL(wp), POINTER, DIMENSION(:,:,:) ::  data_3d
711    TYPE(pedef), POINTER                ::  ape
712    TYPE(arraydef), POINTER             ::  ar
713
714!
715!-- Synchronization of the model is done in pmci_client_synchronize and
716!-- pmci_server_synchronize. Therefor the RMA window can be filled without
717!-- sychronization at this point and a barrier is not necessary.
718!-- Please note that waittime has to be set in pmc_s_fillbuffer AND
719!-- pmc_c_getbuffer
720    IF ( PRESENT( waittime ) )  THEN
721       t1 = pmc_time()
722       CALL MPI_BARRIER( me%intra_comm, ierr )
723       t2 = pmc_time()
724       waittime = t2 - t1
725    ENDIF
726!
727!-- Wait for buffer is filled
728!-- TODO: explain in more detail what is happening here. The barrier seems to
729!-- contradict what is said a few lines beforer (i.e. that no barrier is necessary)
730!-- TODO: In case of PRESENT( waittime ) the barrrier would be calles twice. Why?
731!-- Shouldn't it be done the same way as in pmc_putbuffer?
732    CALL MPI_BARRIER( me%intra_comm, ierr )
733
734    DO  ip = 1, me%inter_npes
735
736       ape => me%pes(ip)
737
738       DO  j = 1, ape%nr_arrays
739
740          ar => ape%array_list(j)
741
742          IF ( ar%nrdims == 2 )  THEN
743             nr = ape%nrele
744          ELSEIF ( ar%nrdims == 3 )  THEN
745             nr = ape%nrele * ar%a_dim(1)
746          ENDIF
747
748          buf_shape(1) = nr
749          CALL C_F_POINTER( ar%recvbuf, buf, buf_shape )
750!
751!--       MPI passive target RMA
752!--       TODO: explain the above comment
753          IF ( nr > 0 )  THEN
754             target_disp = ar%recvindex - 1
755             CALL MPI_WIN_LOCK( MPI_LOCK_SHARED , ip-1, 0,                     &
756                                me%win_server_client, ierr )
757             CALL MPI_GET( buf, nr, MPI_REAL, ip-1, target_disp, nr, MPI_REAL, &
758                                me%win_server_client, ierr )
759             CALL MPI_WIN_UNLOCK( ip-1, me%win_server_client, ierr )
760          ENDIF
761
762          myindex = 1
763          IF ( ar%nrdims == 2 )  THEN
764
765             CALL C_F_POINTER( ar%data, data_2d, ar%a_dim(1:2) )
766
767             DO  ij = 1, ape%nrele
768                data_2d(ape%locind(ij)%j,ape%locind(ij)%i) = buf(myindex)
769                myindex = myindex + 1
770             ENDDO
771
772          ELSEIF ( ar%nrdims == 3 )  THEN
773
774             CALL C_F_POINTER( ar%data, data_3d, ar%a_dim(1:3) )
775
776             DO  ij = 1, ape%nrele
777                data_3d(:,ape%locind(ij)%j,ape%locind(ij)%i) =                 &
778                                              buf(myindex:myindex+ar%a_dim(1)-1)
779                myindex = myindex+ar%a_dim(1)
780             ENDDO
781
782          ENDIF
783
784       ENDDO
785
786    ENDDO
787
788 END SUBROUTINE pmc_c_getbuffer
789
790
791
792 SUBROUTINE pmc_c_putbuffer( waittime )
793
794    IMPLICIT NONE
795
796    REAL(wp), INTENT(OUT), OPTIONAL ::  waittime  !<
797
798    CHARACTER(LEN=da_namelen) ::  myname  !<
799
800    INTEGER                        ::  ierr         !<
801    INTEGER                        ::  ij           !<
802    INTEGER                        ::  ip           !<
803    INTEGER                        ::  j            !<
804    INTEGER                        ::  myindex      !<
805    INTEGER                        ::  nr           !< number of elements to get
806                                                    !< from server
807    INTEGER(KIND=MPI_ADDRESS_KIND) ::  target_disp  !<
808
809    INTEGER, DIMENSION(1)          ::  buf_shape    !<
810
811    REAL(wp) ::  t1  !<
812    REAL(wp) ::  t2  !<
813
814    REAL(wp), POINTER, DIMENSION(:)     ::  buf      !<
815    REAL(wp), POINTER, DIMENSION(:,:)   ::  data_2d  !<
816    REAL(wp), POINTER, DIMENSION(:,:,:) ::  data_3d  !<
817
818    TYPE(pedef), POINTER               ::  ape  !<
819    TYPE(arraydef), POINTER            ::  ar   !<
820
821!
822!-- Wait for empty buffer
823!-- TODO: explain what is done here
824    t1 = pmc_time()
825    CALL MPI_BARRIER( me%intra_comm, ierr )
826    t2 = pmc_time()
827    IF ( PRESENT( waittime ) )  waittime = t2 - t1
828
829    DO  ip = 1, me%inter_npes
830
831       ape => me%pes(ip)
832
833       DO  j = 1, ape%nr_arrays
834
835          ar => aPE%array_list(j)
836          myindex = 1
837
838          IF ( ar%nrdims == 2 )  THEN
839
840             buf_shape(1) = ape%nrele
841             CALL C_F_POINTER( ar%sendbuf, buf,     buf_shape     )
842             CALL C_F_POINTER( ar%data,    data_2d, ar%a_dim(1:2) )
843
844             DO  ij = 1, ape%nrele
845                buf(myindex) = data_2d(ape%locind(ij)%j,ape%locind(ij)%i)
846                myindex = myindex + 1
847             ENDDO
848
849          ELSEIF ( ar%nrdims == 3 )  THEN
850
851             buf_shape(1) = ape%nrele*ar%a_dim(1)
852             CALL C_F_POINTER( ar%sendbuf, buf,     buf_shape     )
853             CALL C_F_POINTER( ar%data,    data_3d, ar%a_dim(1:3) )
854
855             DO  ij = 1, ape%nrele
856                buf(myindex:myindex+ar%a_dim(1)-1) =                           &
857                                    data_3d(:,ape%locind(ij)%j,ape%locind(ij)%i)
858                myindex = myindex + ar%a_dim(1)
859             ENDDO
860
861          ENDIF
862
863       ENDDO
864
865    ENDDO
866!
867!-- TODO: Fence might do it, test later
868!-- Call MPI_WIN_FENCE( 0, me%win_server_client, ierr)      !
869!
870!-- Buffer is filled
871!-- TODO: explain in more detail what is happening here
872    CALL MPI_Barrier(me%intra_comm, ierr)
873
874 END SUBROUTINE pmc_c_putbuffer
875
[1764]876#endif
[1896]877 END MODULE pmc_client
Note: See TracBrowser for help on using the repository browser.