source: palm/trunk/SOURCE/timestep.f90 @ 3048

Last change on this file since 3048 was 3046, checked in by Giersch, 7 years ago

Remaining error messages revised, comments extended

  • Property svn:keywords set to Id
File size: 14.6 KB
RevLine 
[1682]1!> @file timestep.f90
[2000]2!------------------------------------------------------------------------------!
[2696]3! This file is part of the PALM model system.
[1036]4!
[2000]5! PALM is free software: you can redistribute it and/or modify it under the
6! terms of the GNU General Public License as published by the Free Software
7! Foundation, either version 3 of the License, or (at your option) any later
8! version.
[1036]9!
10! PALM is distributed in the hope that it will be useful, but WITHOUT ANY
11! WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR
12! A PARTICULAR PURPOSE.  See the GNU General Public License for more details.
13!
14! You should have received a copy of the GNU General Public License along with
15! PALM. If not, see <http://www.gnu.org/licenses/>.
16!
[2718]17! Copyright 1997-2018 Leibniz Universitaet Hannover
[2000]18!------------------------------------------------------------------------------!
[1036]19!
[258]20! Current revisions:
[866]21! ------------------
[3046]22! Error messages revised
[1485]23!
24! Former revisions:
25! -----------------
26! $Id: timestep.f90 3046 2018-05-29 08:02:15Z gronemeier $
[3045]27! Error message revised
28!
29! 2718 2018-01-02 08:49:38Z maronga
[2716]30! Corrected "Former revisions" section
31!
32! 2696 2017-12-14 17:12:51Z kanani
33! Change in file header (GPL part)
34!
35! 2365 2017-08-21 14:59:59Z kanani
[2365]36! Vertical grid nesting: Sync fine and coarse grid timestep (SadiqHuq)
37!
38! 2258 2017-06-08 07:55:13Z suehring
[2258]39! Bugfix, add pre-preprocessor directives to enable non-parrallel mode
[1485]40!
[2258]41! 2168 2017-03-06 13:08:38Z suehring
42!
[2131]43! 2130 2017-01-24 16:25:39Z raasch
44! bugfix: in case of nested runs the stop condition in case of too small
45! timesteps is communicated to all parent/child processes,
46! some formatting done
47!
[2119]48! 2118 2017-01-17 16:38:49Z raasch
49! OpenACC directives and related part of code removed
50!
[2001]51! 2000 2016-08-20 18:09:15Z knoop
52! Forced header and separation lines into 80 columns
53!
[1851]54! 1849 2016-04-08 11:33:18Z hoffmann
55! Adapted for modularization of microphysics
[1852]56!
[1683]57! 1682 2015-10-07 23:56:08Z knoop
58! Code annotations made doxygen readable
59!
[1485]60! 1484 2014-10-21 10:53:05Z kanani
[1484]61! Changes due to new module structure of the plant canopy model:
62!   calculations and parameters related to the plant canopy model removed
63!   (the limitation of the canopy drag, i.e. that the canopy drag itself should
64!   not change the sign of the velocity components, is now assured for in the
65!   calculation of the canopy tendency terms in subroutine plant_canopy_model)
[1343]66!
67! 1342 2014-03-26 17:04:47Z kanani
68! REAL constants defined as wp-kind
69!
[1323]70! 1322 2014-03-20 16:38:49Z raasch
71! REAL functions provided with KIND-attribute
72!
[1321]73! 1320 2014-03-20 08:40:49Z raasch
[1320]74! ONLY-attribute added to USE-statements,
75! kind-parameters added to all INTEGER and REAL declaration statements,
76! kinds are defined in new module kinds,
77! old module precision_kind is removed,
78! revision history before 2012 removed,
79! comment fields (!:) to be used for variable explanations added to
80! all variable declaration statements
[1321]81!
[1258]82! 1257 2013-11-08 15:18:40Z raasch
83! openacc porting
84! bugfix for calculation of advective timestep in case of vertically stretched
85! grids
86!
[1093]87! 1092 2013-02-02 11:24:22Z raasch
88! unused variables removed
89!
[1054]90! 1053 2012-11-13 17:11:03Z hoffmann
91! timestep is reduced in two-moment cloud scheme according to the maximum
92! terminal velocity of rain drops
93!
[1037]94! 1036 2012-10-22 13:43:42Z raasch
95! code put under GPL (PALM 3.9)
96!
[1002]97! 1001 2012-09-13 14:08:46Z raasch
98! all actions concerning leapfrog scheme removed
99!
[979]100! 978 2012-08-09 08:28:32Z fricke
101! restriction of the outflow damping layer in the diffusion criterion removed
102!
[867]103! 866 2012-03-28 06:44:41Z raasch
104! bugfix for timestep calculation in case of Galilei transformation,
105! special treatment in case of mirror velocity boundary condition removed
106!
[1]107! Revision 1.1  1997/08/11 06:26:19  raasch
108! Initial revision
109!
110!
111! Description:
112! ------------
[1682]113!> Compute the time step under consideration of the FCL and diffusion criterion.
[1]114!------------------------------------------------------------------------------!
[1682]115 SUBROUTINE timestep
116 
[1]117
[1320]118    USE arrays_3d,                                                             &
[1484]119        ONLY:  dzu, dzw, kh, km, u, v, w
[1320]120
121    USE control_parameters,                                                    &
122        ONLY:  cfl_factor, coupling_mode, dt_3d, dt_fixed, dt_max,             &
[1484]123               galilei_transformation, old_dt, message_string,                 &
[1320]124               stop_dt, terminate_coupled, terminate_coupled_remote,           &
125               timestep_reason, u_gtrans, use_ug_for_galilei_tr, v_gtrans
126
127    USE cpulog,                                                                &
128        ONLY:  cpu_log, log_point
129
130    USE grid_variables,                                                        &
131        ONLY:  dx, dx2, dy, dy2
132
133    USE indices,                                                               &
134        ONLY:  nxl, nxlg, nxr, nxrg, nyn, nyng, nys, nysg, nzb, nzt
135
[1]136    USE interfaces
[1320]137
138    USE kinds
139
[1849]140    USE microphysics_mod,                                                      &
141        ONLY:  dt_precipitation
142
[1]143    USE pegrid
144
[2130]145    USE pmc_interface,                                                         &
146        ONLY:  nested_run
147
[1320]148    USE statistics,                                                            &
149        ONLY:  flow_statistics_called, hom, u_max, u_max_ijk, v_max, v_max_ijk,&
150               w_max, w_max_ijk
151
[2365]152    USE vertical_nesting_mod,                                                  &
153        ONLY:  vnested, vnest_timestep_sync
154
[1]155    IMPLICIT NONE
156
[1682]157    INTEGER(iwp) ::  i !<
158    INTEGER(iwp) ::  j !<
159    INTEGER(iwp) ::  k !<
[1]160
[2130]161    LOGICAL ::  stop_dt_local !< local switch for controlling the time stepping
162
[1682]163    REAL(wp) ::  div               !<
164    REAL(wp) ::  dt_diff           !<
165    REAL(wp) ::  dt_diff_l         !<
166    REAL(wp) ::  dt_u              !<
167    REAL(wp) ::  dt_u_l            !<
168    REAL(wp) ::  dt_v              !<
169    REAL(wp) ::  dt_v_l            !<
170    REAL(wp) ::  dt_w              !<
171    REAL(wp) ::  dt_w_l            !<
172    REAL(wp) ::  u_gtrans_l        !<
173    REAL(wp) ::  u_max_l           !<
174    REAL(wp) ::  u_min_l           !<
175    REAL(wp) ::  value             !<
176    REAL(wp) ::  v_gtrans_l        !<
177    REAL(wp) ::  v_max_l           !<
178    REAL(wp) ::  v_min_l           !<
179    REAL(wp) ::  w_max_l           !<
180    REAL(wp) ::  w_min_l           !<
[1320]181 
[1682]182    REAL(wp), DIMENSION(2)         ::  uv_gtrans   !<
183    REAL(wp), DIMENSION(2)         ::  uv_gtrans_l !<
184    REAL(wp), DIMENSION(3)         ::  reduce      !<
185    REAL(wp), DIMENSION(3)         ::  reduce_l    !<
186    REAL(wp), DIMENSION(nzb+1:nzt) ::  dxyz2_min   !< 
[1]187
188
[667]189
[1]190    CALL cpu_log( log_point(12), 'calculate_timestep', 'start' )
191
192!
193!-- In case of Galilei-transform not using the geostrophic wind as translation
194!-- velocity, compute the volume-averaged horizontal velocity components, which
195!-- will then be subtracted from the horizontal wind for the time step and
196!-- horizontal advection routines.
197    IF ( galilei_transformation  .AND. .NOT.  use_ug_for_galilei_tr )  THEN
198       IF ( flow_statistics_called )  THEN
199!
200!--       Horizontal averages already existent, just need to average them
201!--       vertically.
[1342]202          u_gtrans = 0.0_wp
203          v_gtrans = 0.0_wp
[1]204          DO  k = nzb+1, nzt
205             u_gtrans = u_gtrans + hom(k,1,1,0)
206             v_gtrans = v_gtrans + hom(k,1,2,0)
207          ENDDO
[1322]208          u_gtrans = u_gtrans / REAL( nzt - nzb, KIND=wp )
209          v_gtrans = v_gtrans / REAL( nzt - nzb, KIND=wp )
[1]210       ELSE
211!
212!--       Averaging over the entire model domain.
[1342]213          u_gtrans_l = 0.0_wp
214          v_gtrans_l = 0.0_wp
[1]215          DO  i = nxl, nxr
216             DO  j = nys, nyn
217                DO  k = nzb+1, nzt
[1257]218                   u_gtrans_l = u_gtrans_l + u(k,j,i)
219                   v_gtrans_l = v_gtrans_l + v(k,j,i)
[1]220                ENDDO
221             ENDDO
222          ENDDO
[2130]223          uv_gtrans_l(1) = u_gtrans_l /                                        &
224                           REAL( (nxr-nxl+1)*(nyn-nys+1)*(nzt-nzb), KIND=wp )
225          uv_gtrans_l(2) = v_gtrans_l /                                        &
226                           REAL( (nxr-nxl+1)*(nyn-nys+1)*(nzt-nzb), KIND=wp )
[1]227#if defined( __parallel )
[622]228          IF ( collective_wait )  CALL MPI_BARRIER( comm2d, ierr )
[2130]229          CALL MPI_ALLREDUCE( uv_gtrans_l, uv_gtrans, 2, MPI_REAL, MPI_SUM,    &
[1]230                              comm2d, ierr )
[1322]231          u_gtrans = uv_gtrans(1) / REAL( numprocs, KIND=wp )
232          v_gtrans = uv_gtrans(2) / REAL( numprocs, KIND=wp )
[1]233#else
234          u_gtrans = uv_gtrans_l(1)
235          v_gtrans = uv_gtrans_l(2)
236#endif
237       ENDIF
238    ENDIF
239
[866]240!
[1257]241!-- Determine the maxima of the velocity components, including their
242!-- grid index positions.
[1320]243    CALL global_min_max( nzb, nzt+1, nysg, nyng, nxlg, nxrg, u, 'abs', 0.0_wp, &
[866]244                         u_max, u_max_ijk )
[1320]245    CALL global_min_max( nzb, nzt+1, nysg, nyng, nxlg, nxrg, v, 'abs', 0.0_wp, &
[866]246                         v_max, v_max_ijk )
[1320]247    CALL global_min_max( nzb, nzt+1, nysg, nyng, nxlg, nxrg, w, 'abs', 0.0_wp, &
[866]248                         w_max, w_max_ijk )
249
[1257]250    IF ( .NOT. dt_fixed )  THEN
[866]251!
[1257]252!--    Variable time step:
253!--    Calculate the maximum time step according to the CFL-criterion,
254!--    individually for each velocity component
[1342]255       dt_u_l = 999999.9_wp
256       dt_v_l = 999999.9_wp
257       dt_w_l = 999999.9_wp
[1257]258       DO  i = nxl, nxr
259          DO  j = nys, nyn
260             DO  k = nzb+1, nzt
[2130]261                dt_u_l = MIN( dt_u_l, ( dx     /                               &
262                                 ( ABS( u(k,j,i) - u_gtrans ) + 1.0E-10_wp ) ) )
263                dt_v_l = MIN( dt_v_l, ( dy     /                               &
264                                 ( ABS( v(k,j,i) - v_gtrans ) + 1.0E-10_wp ) ) )
265                dt_w_l = MIN( dt_w_l, ( dzu(k) /                               &
266                                 ( ABS( w(k,j,i) )            + 1.0E-10_wp ) ) )
[1257]267             ENDDO
268          ENDDO
269       ENDDO
[1]270
[1257]271#if defined( __parallel )
272       reduce_l(1) = dt_u_l
273       reduce_l(2) = dt_v_l
274       reduce_l(3) = dt_w_l
275       IF ( collective_wait )  CALL MPI_BARRIER( comm2d, ierr )
276       CALL MPI_ALLREDUCE( reduce_l, reduce, 3, MPI_REAL, MPI_MIN, comm2d, ierr )
277       dt_u = reduce(1)
278       dt_v = reduce(2)
279       dt_w = reduce(3)
280#else
281       dt_u = dt_u_l
282       dt_v = dt_v_l
283       dt_w = dt_w_l
284#endif
285
[1]286!
287!--    Compute time step according to the diffusion criterion.
288!--    First calculate minimum grid spacing which only depends on index k
[1342]289       dt_diff_l = 999999.0_wp
[1]290
291       DO  k = nzb+1, nzt
[1342]292           dxyz2_min(k) = MIN( dx2, dy2, dzw(k)*dzw(k) ) * 0.125_wp
[1]293       ENDDO
294
[2118]295       !$OMP PARALLEL private(i,j,k,value) reduction(MIN: dt_diff_l)
296       !$OMP DO
[1]297       DO  i = nxl, nxr
298          DO  j = nys, nyn
299             DO  k = nzb+1, nzt
[2130]300                dt_diff_l = MIN( dt_diff_l, dxyz2_min(k) /                     &
301                                    ( MAX( kh(k,j,i), km(k,j,i) ) + 1E-20_wp ) )
[1]302             ENDDO
303          ENDDO
304       ENDDO
[2118]305       !$OMP END PARALLEL
[1]306#if defined( __parallel )
[622]307       IF ( collective_wait )  CALL MPI_BARRIER( comm2d, ierr )
[2130]308       CALL MPI_ALLREDUCE( dt_diff_l, dt_diff, 1, MPI_REAL, MPI_MIN, comm2d,   &
[1]309                           ierr )
310#else
311       dt_diff = dt_diff_l
312#endif
313
314!
[316]315!--    The time step is the minimum of the 3-4 components and the diffusion time
[1001]316!--    step minus a reduction (cfl_factor) to be on the safe side.
[1]317!--    The time step must not exceed the maximum allowed value.
[2130]318       dt_3d = cfl_factor * MIN( dt_diff, dt_u, dt_v, dt_w, dt_precipitation )
[1]319       dt_3d = MIN( dt_3d, dt_max )
320
321!
322!--    Remember the restricting time step criterion for later output.
[1484]323       IF ( MIN( dt_u, dt_v, dt_w ) < dt_diff )  THEN
[1]324          timestep_reason = 'A'
325       ELSE
326          timestep_reason = 'D'
327       ENDIF
328
329!
330!--    Set flag if the time step becomes too small.
[1342]331       IF ( dt_3d < ( 0.00001_wp * dt_max ) )  THEN
[1]332          stop_dt = .TRUE.
[108]333
[2130]334          WRITE( message_string, * ) 'Time step has reached minimum limit.',   &
[3046]335               '&dt              = ', dt_3d, ' s  Simulation is terminated.',  &
336               '&old_dt          = ', old_dt, ' s',                            &
337               '&dt_u            = ', dt_u, ' s',                              &
338               '&dt_v            = ', dt_v, ' s',                              &
339               '&dt_w            = ', dt_w, ' s',                              &
340               '&dt_diff         = ', dt_diff, ' s',                           &
341               '&u_max           = ', u_max, ' m/s   k=', u_max_ijk(1),        &
[2130]342               '  j=', u_max_ijk(2), '  i=', u_max_ijk(3),                     &
[3046]343               '&v_max           = ', v_max, ' m/s   k=', v_max_ijk(1),        &
[2130]344               '  j=', v_max_ijk(2), '  i=', v_max_ijk(3),                     &
[3046]345               '&w_max           = ', w_max, ' m/s   k=', w_max_ijk(1),        &
[320]346               '  j=', w_max_ijk(2), '  i=', w_max_ijk(3)
[258]347          CALL message( 'timestep', 'PA0312', 0, 1, 0, 6, 0 )
[108]348!
349!--       In case of coupled runs inform the remote model of the termination
350!--       and its reason, provided the remote model has not already been
351!--       informed of another termination reason (terminate_coupled > 0) before.
[222]352#if defined( __parallel )
[108]353          IF ( coupling_mode /= 'uncoupled' .AND. terminate_coupled == 0 )  THEN
354             terminate_coupled = 2
[2130]355             IF ( myid == 0 )  THEN
[667]356                CALL MPI_SENDRECV( &
[2130]357                     terminate_coupled,        1, MPI_INTEGER, target_id,  0,  &
358                     terminate_coupled_remote, 1, MPI_INTEGER, target_id,  0,  &
[667]359                     comm_inter, status, ierr )
360             ENDIF
[2130]361             CALL MPI_BCAST( terminate_coupled_remote, 1, MPI_INTEGER, 0,      &
362                             comm2d, ierr)
[108]363          ENDIF
[222]364#endif
[1]365       ENDIF
366
367!
[2130]368!--    In case of nested runs all parent/child processes have to terminate if
369!--    one process has set the stop flag, i.e. they need to set the stop flag
370!--    too.
371       IF ( nested_run )  THEN
372          stop_dt_local = stop_dt
[2258]373#if defined( __parallel )
[2130]374          CALL MPI_ALLREDUCE( stop_dt_local, stop_dt, 1, MPI_LOGICAL, MPI_LOR, &
375                              MPI_COMM_WORLD, ierr )
[2258]376#endif
[2130]377       ENDIF
378
379!
[1001]380!--    Ensure a smooth value (two significant digits) of the timestep.
[1342]381       div = 1000.0_wp
[1001]382       DO  WHILE ( dt_3d < div )
[1342]383          div = div / 10.0_wp
[1001]384       ENDDO
[1342]385       dt_3d = NINT( dt_3d * 100.0_wp / div ) * div / 100.0_wp
[1]386
387!
[1001]388!--    Adjust the time step
389       old_dt = dt_3d
[1]390
[1001]391    ENDIF
[1]392
[2365]393!
394!-- Vertical nesting: coarse and fine grid timestep has to be identical   
395    IF ( vnested )  CALL vnest_timestep_sync
396
[1]397    CALL cpu_log( log_point(12), 'calculate_timestep', 'stop' )
398
399 END SUBROUTINE timestep
Note: See TracBrowser for help on using the repository browser.