source: palm/trunk/SCRIPTS/subjob @ 680

Last change on this file since 680 was 678, checked in by raasch, 14 years ago

New:
---

further adjustments on Tsubame and concerning openMP usage
(mrun, mbuild, subjob)

Changed:


Errors:


Bugfix in calculation of divergence of vertical flux of resolved scale
energy, pressure fluctuations, and flux of pressure fluctuation itself
(flow statistics)

Bugfix: module pegrid was missing. (user_statistics)

  • Property svn:keywords set to Id Rev
File size: 46.5 KB
Line 
1#!/bin/ksh
2# subjob - Plot-Shellskript         Version:  @(#)SUBJOB 1.0
3# $Id: subjob 678 2011-02-02 14:31:56Z gryschka $
4
5     # Prozedur zum automatischen Generieren von Batch-Jobs, die unter NQS
6     # laufen sollen und deren Ergebnis (Dayfile) zum Job-generierenden
7     # Host zurueckgeschickt werden sollen
8
9
10     # letzte Aenderung:
11     # 29/06/94 - Siggi - Beginn mit Erstellung der Originalversion
12     # 08/07/94 - Siggi - Originalversion abgeschlossen (Version 1.0)
13     # 06/02/98 - Siggi - berte validiert
14     # 27/01/01 - Siggi - ground.yonsei.ac.kr validiert, Jobs zur T3E in Korea
15     #                    moeglich
16     # 08/02/01 - Siggi - alle subjob-Meldungen ins englische uebersetzt
17     # 25/05/02 - Siggi - Unterstuetzung des LoadLeveler
18     # 30/05/02 - Siggi - Validierung fuer ibm-Rechner in Seoul (nobel) sowie
19     #                    allgemeine Anpassungen fuer ibm-Rechner
20     # 15/10/02 - Siggi - Neue Default-Jobklasse (p_normal) fuer IBM in Seoul
21     #                    Ruecktransfer des Jobprotokolls fuer diese
22     #                    Maschine abgeschaltet
23     # 31/10/02 - Siggi - berni validiert
24     # 06/11/02 - Siggi - Neue Jobklassen auf ibmb und ibmh
25     # 08/11/02 - Siggi - quanero validiert
26     # 11/12/02 - Siggi - Notification fuer Transfer-Jobs abgeschaltet
27     # 23/01/03 - Siggi - hostname nobel changed to nobela
28     # 06/02/03 - Siggi - gregale validated
29     # 12/02/03 - Siggi - orkan and maestro validated
30     # 21/02/03 - Siggi - all nobel nodes in Seoul validated
31     # 12/03/03 - Siggi - nec at DKRZ validated
32     # 13/03/03 - Siggi - new nqs resource variable Memory
33     # 07/04/03 - Siggi - processor request option -c on nech needs tasks per
34     #                    node
35     # 11/04/03 - Siggi - network on ibms has attribute "shared"
36     # 31/07/03 - Siggi - nqs2 on nech implemented (provisional: -h nech2)
37     #                    cxxl added to ibmh
38     # 29/08/03 - Siggi - changes in job queues and communication system on
39     #                    ibms
40     # 24/10/03 - Siggi - using alternate hanni address 130.75.4.2
41     # 30/10/03 - Siggi - nech is not supported any more
42     # 10/11/03 - Siggi - nech2 renamed to nech
43     # 20/11/03 - Siggi - submit command on nech changed from qsub.test to qsub
44     # 29/03/04 - Siggi - ground not supported any more, gfdl3 validated
45     # 31/03/04 - Siggi - new option -N for node usage
46     # 12/04/04 - Siggi - scp2 instead of scp used for transfer from decalpha
47     #                    due to error in ssh installation (otherwise a prompt
48     #                    for the password appears)
49     # 23/07/04 - Siggi - changes due to the new berni configuration
50     #                    (federation switch)
51     # 01/09/04 - Gerald  new job-classes on hanni
52     # 08/09/04 - Siggi - hanni IP address changed to 130.75.4.10
53     # 23/11/04 - Siggi - new job class cdata on hanni and berni
54     # 03/12/04 - Siggi - notification on ibm switched of in case of
55     #                    delete_dayfile = true, node usage in cdev set to
56     #                    shared
57     # 16/02/05 - Gerald  hababai validated
58     # 29/03/05 - Micha - new job class channi on hanni
59     # 11/05/05 - Siggi - ConsumableMemory is now required as resource keyword
60     #                    on ibms
61     # 24/05/05 - Siggi - Default queue on ibms changed from p_normal_1.3 to
62     #                    p_normal
63     # 30/06/05 - Siggi - network changed for queue cdev from "us" to "ip"
64     # 12/07/05 - Siggi - in network.mpi on ibmh/ibmb "csss" changed to
65     #                    "sn_all", new job class cexp
66     # 08/09/05 - Siggi - IP-address of gfdl3 changed
67     # 31/10/05 - Siggi - new job class pp on hurricane, serial jobs on
68     #                    hurricane (with -X0)
69     # 01/11/05 - Siggi - missing queue for jobs submitted on nech (for nech)
70     #                    added
71     # 30/12/05 - Siggi - change of IP adresses in subnet 130.75.105
72     # 09/02/06 - Siggi - ibmy admitted
73     # 10/02/06 - Siggi - scp2 changed to /bin/scp on decalpha
74     # 13/04/06 - Siggi - ostria admitted
75     # 18/04/06 - Siggi - new option -O for OpenMP usage
76     # 24/05/06 - Siggi - lctit admitted, ftpjob renamed scpjob
77     # 25/07/06 - Siggi - gfdl5 (ibmy) admitted for submitting jobs
78     # 27/09/06 - Siggi - breg/hreg extended with berni/hanni
79     # 25/10/06 - Siggi - data_limit set to 1.76 GByte on hanni and berni
80     # 28/11/06 - Siggi - levanto admitted
81     # 13/02/07 - Siggi - hpmuk releated code removed
82     # 01/03/07 - Siggi - adjustments for RIAM machines gate and NEC-SX8 (n-sx)
83     # 12/04/07 - Siggi - option -f (filetransfer protocol) removed, scp only
84     # 27/07/07 - Siggi - autan admitted
85     # 03/08/07 - Marcus- lcfimm admitted
86     # 08/10/07 - Siggi - further job classes added for hanni (csoloh...)
87     # 15/10/07 - Siggi - preliminary adjustments for lctit based on Jin's
88     #                    suggestions
89     # 19/10/07 - Marcus- add new optional argument -g group_number
90     # 19/10/07 - Siggi - a ";" was missing in the last change done by Marcus
91     # 30/10/07 - Marcus- further adjustments for queues on lctit
92     # 15/05/08 - Siggi - adjustments for lcxt4 (Bergen Center for Computational
93     #                    Science)
94     # 14/07/08 - Siggi - adjustments for lcsgih
95     # 23/09/08 - Gerald- paesano admitted
96     # 02/10/08 - Siggi - PBS adjustments for lcxt4
97     # 02/03/09 - Siggi - Adjustments for new NEC-SX9 at RIAM
98     # 16/04/09 - Marcus- Adjustments for lcsgib and lcsgih
99     # 21/04/09 - Siggi - adjustments for new IBM at DKRZ, which is now ibmh
100     # 18/05/09 - Siggi - Settings for serial jobs on lcsgi changed
101     # 24/06/09 - BjornM- adjustments for lcxt4 (loading modules manually)
102     # 08/07/09 - Siggi - option -e added (email notification on lcsgih/b)
103     # 20/07/09 - Siggi - On lcsgi, jobs for returning the job protocol are
104     #                    now run on the data nodes (feature=data)
105     # 25/08/09 - BjornM- adapted for lck
106     # 26/08/09 - Marcus- caurus admitted; optional qos feature hiprio on lcsgi
107     # 03/09/09 - Siggi - PBS sgi feature directive only used if explicitly
108     #                    set in the config file by the user
109     # 16/10/09 - Carolin-adjustments for archiving on SGI-ICE of binary files;
110     #                    adding special1q
111     # 01/12/09 - BjornM- re-adjustments for lcxt4, added sno (130.75.105.113)
112     # 16/10/09 - Carolin-adding permq
113     # 01/02/10 - Siggi - adapted for lcxt5m and lckyoto (Fujitsu HX600)
114     # 03/02/10 - Siggi - bug in serial jobs removed
115     # 26/02/10 - BjornM- re-adjustments for lcxt4 (new modules, email
116     #                    notification)
117     # 01/03/10 - Siggi - loading of modules controlled by environment variable
118     #                    module_calls
119     # 17/08/10 - BjornM- re-adjustments for lcxt4 (location of qsub)
120     # 25/08/10 - BjornM- account geofysisk replaced by guest for lcxt4
121     # 25/08/10 - Siggi - new variable project_account in pbs-statements for
122     #                    lcxt4
123     # 08/12/10 - Siggi - initialization of the module command changed for
124     #                    SGI-ICE/lcsgi
125     #                    adjustments for Kyushu Univ. (lcrte, ibmku)
126     # 14/12/10 - Siggi - adjustments for new Tsubame system at Tokyo
127     #                    institute of technology (lctit)
128     # 02/02/11 - Siggi - further asjustments for Tsubame concerning openMP
129
130
131
132
133    # VARIABLENVEREINBARUNGEN + DEFAULTWERTE
134 delete_dayfile=false
135 email_notification=none
136 group_number=none
137 locat=normal
138 no_default_queue=none
139 no_submit=false
140 job_catalog="~/job_queue"
141 job_name=none
142 local_user=$LOGNAME
143 node_usage=shared
144 numprocs=0
145 punkte="..........................................................."
146 submcom=qsub
147 queue=default
148 remote_host=none
149 remote_user=""
150 verify=true
151
152 typeset  -i   cputime=memory=Memory=0  minuten  resttime  sekunden  stunden
153 typeset  -i   inumprocs  nodes=processes_per_node=0 tasks_per_node=threads_per_task=1
154 typeset  -L20 spalte1
155 typeset  -R40 spalte2
156 typeset  -L60 spalte3
157
158
159
160    # FEHLERBEHANDLUNG
161    # BEI EXIT:
162 trap 'if [[ $locat != normal ]]
163       then
164          case  $locat  in
165             (option)  printf "\n  --> available optios can be displayed"
166                       printf " by typing:"
167                       printf "\n      \"subjob ?\" \n";;
168             (ftpcopy|parameter|scp|verify)  printf "\n";;
169             (*)       printf "\n  +++ unknown error"
170                       printf "\n      please inform S. Raasch!\n"
171          esac
172          [[ -f $job_to_send ]]  &&  rm  $job_to_send
173          printf "\n\n+++ SUBJOB killed \n\n"
174       fi' exit
175
176
177    # BEI TERMINAL-BREAK:
178 trap '[[ -f $job_to_send ]]  &&  rm  $job_to_send
179       printf "\n\n+++ SUBJOB killed \n\n"
180       exit
181      ' 2
182
183
184
185
186    # LOKALEN HOSTNAMEN FESTSTELLEN
187 local_host=$(hostname)
188
189
190
191    # HOSTSPEZIFISCHE VARIABLEN VEREINBAREN BZW. PRUEFEN, OB LOKALER HOST
192    # UEBERHAUPT ZULAESSIG IST
193 case  $local_host  in
194     (atmos)                 local_addres=172.20.25.35;   local_host=lcide;;
195     (autan)                 local_addres=130.75.105.57;  local_host=lcmuk;;
196     (bora)                  local_addres=130.75.105.103; local_host=lcmuk;;
197     (bd1)                   local_addres=130.73.232.64;  local_host=lcsgib;;
198     (bd2)                   local_addres=130.73.232.65;  local_host=lcsgib;;
199     (bd3)                   local_addres=130.73.232.66;  local_host=lcsgib;;
200     (bd4)                   local_addres=130.73.232.67;  local_host=lcsgib;;
201     (b01*|bicegate1)        local_addres=130.73.232.102; local_host=lcsgib;;
202     (bicegate2)             local_addres=130.73.232.103; local_host=lcsgib;;
203     (breva)                 local_addres=130.75.105.98;  local_host=lcmuk;;
204     (bicegate2)             local_addres=130.73.232.103; local_host=lcsgib;;
205     (caurus)                local_addres=130.75.105.19;  local_host=lcmuk;;
206     (compute-*.local)       local_addres=172.20.4.2;     local_host=lcfimm;;
207     (cs*)                   local_addres=136.172.44.131; local_host=nech;;
208     (elephanta)             local_addres=130.75.105.6;   local_host=lcmuk;;
209     (fimm.bccs.uib.no)      local_addres=172.20.4.2;     local_host=lcfimm;;
210     (node*)                 local_addres=165.132.26.61   local_host=lck;;
211     (gallego)               local_addres=130.75.105.10;  local_host=lcmuk;;
212     (gfdl5)                 local_addres=165.132.26.58;  local_host=ibmy;;
213     (gfdl3.yonsei.ac.kr)    local_addres=165.132.26.56;  local_host=decalpha;;
214     (gregale)               local_addres=130.75.105.109; local_host=lcmuk;;
215     (hababai)               local_addres=130.75.105.108; local_host=lcmuk;;
216     (hexagon.bccs.uib.no)   local_addres=129.177.20.113; local_host=lcxt4;;
217     (hd1)                   local_addres=130.75.4.104;   local_host=lcsgih;;
218     (hd2)                   local_addres=130.75.4.105;   local_host=lcsgih;;
219     (hd3)                   local_addres=130.75.4.106;   local_host=lcsgih;;
220     (hd4)                   local_addres=130.75.4.107;   local_host=lcsgih;;
221     (h01*|hicegate1)        local_addres=130.75.4.102;   local_host=lcsgih;;
222     (hicegate2)             local_addres=130.75.4.103;   local_host=lcsgih;;
223     (hx*)                   local_addres=133.3.51.11;    local_host=lckyoto;;
224     (blizzard1)             local_addres=136.172.40.15;  local_host=ibmh;;
225     (irifi)                 local_addres=130.75.105.104; local_host=lcmuk;;
226     (sno)                   local_addres=130.75.105.113; local_host=lcmuk;;
227     (levanto)               local_addres=130.75.105.45;  local_host=lcmuk;;
228     (maestro)               local_addres=130.75.105.2;   local_host=lcmuk;;
229     (meteo-login*)          local_addres=193.166.211.144;local_host=lcxt5m;;
230     (nid*)                  local_addres=129.177.20.113; local_host=lcxt4;;
231     (nobel*)                local_addres=150.183.5.101;  local_host=ibms;;
232     (orkan)                 local_addres=130.75.105.3;   local_host=lcmuk;;
233     (ostria)                local_addres=130.75.105.106; local_host=lcmuk;;
234     (paesano)               local_addres=130.75.105.46;  local_host=lcmuk;;
235     (quanero)               local_addres=130.75.105.107; local_host=lcmuk;;
236     (rte*)                  local_addres=133.5.185.60;   local_host=lcrte;;
237     (scirocco)              local_addres=172.20.25.41;   local_host=lcmuk;;
238     (sun1|sun2)             local_addres=130.75.6.1;     local_host=unics;;
239     (sx-*)                  local_addres=172.16.1.131;   local_host=necriam;;
240     (r1*)                   local_addres=130.75.4.102;   local_host=lcsgih;;
241     (r2*)                   local_addres=130.73.232.102; local_host=lcsgib;;
242     (t2a*)                  local_addres=10.1.6.165;     local_host=lctit;;
243     (vorias)                local_addres=172.20.25.43;   local_host=lcmuk;;
244     (*.cc.kyushu-u.ac.jp)   local_addres=133.5.4.129;    local_host=ibmku;;
245     (*)                     printf "\n  +++ \"$local_host\" unknown";
246                             printf "\n      please inform S. Raasch!";
247                             locat=parameter; exit;;
248 esac
249
250
251
252    # REMOTE HOST DEFAULTMAESSIG = LOCAL HOST SETZEN
253 remote_host=$local_host
254
255
256
257
258    # PROZEDUROPTIONEN EINLESEN
259 while  getopts  :c:dDe:g:h:m:n:N:O:q:t:T:u:vX:  option
260 do
261   case  $option  in
262       (c)   job_catalog=$OPTARG;;
263       (d)   delete_dayfile=true;;
264       (D)   no_submit=true;;
265       (e)   email_notification=$OPTARG;;
266       (g)   group_number=$OPTARG;;
267       (h)   remote_host=$OPTARG;;
268       (m)   memory=$OPTARG;;
269       (n)   job_name=$OPTARG;;
270       (N)   node_usage=$OPTARG;;
271       (O)   threads_per_task=$OPTARG;;
272       (q)   no_default_queue=$OPTARG;;
273       (t)   cputime=$OPTARG;;
274       (T)   tasks_per_node=$OPTARG;;
275       (u)   remote_user=$OPTARG;;
276       (v)   verify=false;;
277       (X)   numprocs=$OPTARG;;
278       (\?)  printf "\n  +++ Option $OPTARG unknown \n";
279             locat=option; exit;;
280   esac
281 done
282
283
284    # JOBDATEINAMEN ALS NAECHSTES ARGUMENT HOLEN
285 shift OPTIND-1; file_to_send=$1
286
287
288    # KURZE AUFRUFBESCHREIBUNG WIRD HIER AUSGEGEBEN
289 if [ "$1" = "?" ]
290 then
291   (printf "\n  *** subjob can be called as follows:\n"
292    printf "\n      subjob -c.. -d -D -h.. -m.. -q.. -t.. -u.. -v  <jobfile>\n"
293    printf "\n      Description of available options:\n"
294    printf "\n      Option  Description                         Default-Value"
295    printf "\n        -c    job-input- and output-catalog       ~/job_queue"
296    printf "\n        -d    no job-protocol will be created     ---"
297    printf "\n        -D    only the job-file will be created   ---"
298    printf "\n        -h    execution host, available hosts:    $remote_host"
299    printf "\n              ibm, ibmh, ibmku, ibms, ibmy, lc...,"
300    printf "\n              lctit, nech, necriam, unics"
301    printf "\n        -m    memory demand per process in MByte  ---"
302    printf "\n        -n    jobname                             <jobdatei>"
303    printf "\n        -O    threads per task (for OpenMP usage) 1"
304    printf "\n        -q    job-queue to be used                default"
305    printf "\n        -t    allowed cpu-time in seconds         ---"
306    printf "\n        -T    tasks per node (on parallel hosts)  ---"
307    printf "\n        -u    username on execution host          from .netrc"
308    printf "\n        -v    no prompt for confirmation          ---"
309    printf "\n        -X    # of processors (on parallel hosts) 1"
310    printf "\n "
311    printf "\n      The only possible positional parameter is <jobfile>:"
312    printf "\n      The complete NQS-job must be provided here."
313    printf "\n      <jobfile>=? creates this outline\n\n") | more
314    exit
315 fi
316
317
318
319    # PRUEFEN, OB JOBDATEI ANGEGEBEN WURDE UND OB SIE AUCH EXISTIERT
320 if [[ "$file_to_send" = "" ]]
321 then
322    printf "\n  +++ job-file missing"
323    locat=parameter; exit
324 else
325    if [[ -f $file_to_send ]]
326    then
327       true
328    else
329       printf "\n  +++ job-file: "
330       printf "\n           $file_to_send"
331       printf "\n      does not exist"
332       locat=parameter; exit
333    fi
334 fi
335
336
337
338    # FALLS KEIN JOBNAME ANGEGEBEN WURDE, WIRD JOBNAME = JOBDATEINAME
339    # GESETZT. VORAUSSETZUNG: JOBDATEINAME BEINHALTET KEINE PFADE
340 if [[ $job_name = none ]]
341 then
342    job_name=$file_to_send
343 fi
344 if [[ $(echo $job_name | grep -c "/") != 0 ]]
345 then
346    printf "\n  +++ job-file name: "
347    printf "\n           $job_name"
348    printf "\n      must not contain \"/\"-characters"
349    locat=parameter; exit
350 fi
351
352
353
354
355    # HOSTSPEZIFISCHE GROESSEN VEREINBAREN BZW. ABBRUCH BEI UNZULAESSIGEM HOST
356    # ODER WENN HOST NICHT ANGEGEBEN WURDE
357 if [[ $remote_host = none ]]
358 then
359    printf "\n  +++ host missing"
360    locat=option; exit
361 else
362    case  $remote_host  in
363        (ibm)     queue=p690_standard; remote_addres=134.76.99.81; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
364        (ibmh)    queue=no_class; remote_addres=136.172.40.15; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
365        (ibmku)   queue=s4; remote_addres=133.5.4.129; submcom=/usr/local/bin/llsubmit;;
366        (ibms)    queue=p_normal; remote_addres=150.183.5.101; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
367        (ibmy)    queue=parallel; remote_addres=165.132.26.58; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
368        (lcfimm)  remote_addres=172.20.4.2; submcom=/opt/torque/bin/qsub;;
369        (lckyoto) remote_addres=133.3.51.11; submcom=/thin/local/bin/qsub;;
370        (lcsgib)  queue=smallq; remote_addres=130.73.232.104; submcom=/opt/moab/bin/msub;;
371        (lcsgih)  queue=smallq; remote_addres=130.75.4.101; submcom=/opt/moab/bin/msub;;
372        (lck)     remote_addres=165.132.26.61; submcom=/usr/torque/bin/qsub;;
373        (lctit)   queue=S; remote_addres=10.1.6.165; submcom=/opt/pbs/tools/bin/t2sub;;
374        (lcxt4)   remote_addres=129.177.20.113; submcom=/opt/torque/2.4.9-snap.201005191035/bin/qsub;;
375        (lcxt5m)  remote_addres=193.166.211.144; submcom=/opt/pbs/10.1.0.91350/bin/qsub;;
376        (nech)    qsubmem=memsz_job; qsubtime=cputim_job; remote_addres=136.172.44.147; submcom="/usr/local/bin/qsub";;
377        (necriam) qsubmem=memsz_job; qsubtime=cputim_job; remote_addres=172.16.1.131; submcom="/usr/bin/nqsII/qsub";;
378        (vpp)     qsubmem=m; qsubtime=t; queue=vpp; remote_addres=130.75.4.130;;
379        (unics)   qsubmem=d; qsubtime=t; queue=unics; remote_addres=130.75.6.1;;
380        (*)       printf "\n  +++ hostname \"$remote_host\" not allowed";
381                  locat=parameter; exit;;
382    esac
383 fi
384
385
386    # EVTL. PRUEFEN, OB ANGEGEBENE QUEUE ZULAESSIG IST
387 if [[ $no_default_queue != none ]]
388 then
389    error=false
390    ndq=$no_default_queue
391    case  $remote_host  in
392        (ibm)    case  $ndq  in
393                     (p690_express|p690_standard|p690_long)  error=false;;
394                     (*)                                     error=true;;
395                 esac;;
396        (ibmh)   case  $ndq  in
397                     (no_class)  error=false;;
398                     (*)                                     error=true;;
399                 esac;;
400        (ibmku)  case  $ndq  in
401                     (sdbg1|sdbg2|sdbg4|s4|s16|s32|s32-s)    error=false;;
402                     (*)                                     error=true;;
403                 esac;;
404        (ibms)   case  $ndq  in
405                     (express|normal|p_express|p_normal|p_normal_1.3|p_normal_1.7|grand)     error=false;;
406                     (*)                                     error=true;;
407                 esac;;
408        (ibmy)   case  $ndq  in
409                     (parallel)                              error=false;;
410                     (*)                                     error=true;;
411                 esac;;
412        (lckyoto) case  $ndq  in
413                     (eh|ph)                                 error=false;;
414                     (*)                                     error=true;;
415                 esac;;
416        (lcsgib|lcsgih)   case  $ndq  in
417                     (testq|serialq|smallq|mediumq|bigq|workq|dataq|permq|special1q)       error=false;;
418                     (*)                                     error=true;;
419                 esac;;
420        (lctit)  case  $ndq  in
421                     (G|L128|L256|L512H|S|S96|V)             error=false;;
422                     (*)                                     error=true;;
423                 esac;;
424        (t3eb)   case  $ndq  in
425                     (berte|p50|p100|p392|forfree|p25himem)  error=false;;
426                     (*)    error=true;;
427                 esac;;
428        (necriam) case  $ndq  in
429                     (SP|SS|P6)  error=false;;
430                     (*)    error=true;;
431                 esac;;
432        (t3eh)   case  $ndq  in
433                     (para_t3e|em|k|l|lm|comp_t3e|c|p|ht)  error=false;;
434                     (*)    error=true;;
435                 esac;;
436        (t3ej2|t3ej5)  case  $ndq  in
437                     (low|normal|high)  error=false;;
438                     (*)    error=true;;
439                 esac;;
440        (t3es)  case  $ndq  in
441                     (batch|serial-4|pe4|p48|pe16|pe32|pe64|pe128)  error=false;;
442                     (*)    error=true;;
443                 esac;;
444        (unics)  case  $ndq  in
445                     (unics|ht)  error=false;;
446                     (*)         error=true;;
447                 esac;;
448    esac
449    if [[ $error = true ]]
450    then
451       printf "\n  +++ queue \"$no_default_queue\" on host \"$remote_host\" not allowed"
452       locat=parameter; exit
453    else
454       queue=$no_default_queue
455    fi
456 fi
457
458
459
460    # PRUEFEN DER CPU-ZEIT, ZEIT NACH STUNDEN, MINUTEN UND SEKUNDEN
461    # AUFTEILEN
462 done=false
463 while [[ $done = false ]]
464 do
465    if (( $cputime <= 0 ))
466    then
467       printf "\n  +++ wrong cpu-time or cpu-time missing"
468       printf "\n  >>> Please type cpu-time in seconds as INTEGER:"
469       printf "\n  >>> "
470       read  cputime  1>/dev/null  2>&1
471    else
472       done=true
473    fi
474 done
475 if [[ $remote_host = nech ]]
476 then
477    if (( tasks_per_node != 0 ))
478    then
479       (( cputime = cputime * tasks_per_node ))
480    elif [[ $numprocs != 0 ]]
481    then
482       (( cputime = cputime * numprocs ))
483    fi
484 fi
485 (( stunden  = cputime / 3600 ))
486 (( resttime = cputime - stunden * 3600 ))
487 (( minuten  = resttime / 60 ))
488 (( sekunden = resttime - minuten * 60 ))
489 timestring=${stunden}:${minuten}:${sekunden}
490
491
492
493    # PRUEFEN DER KERNSPEICHERANFORDERUNG
494 done=false
495 while [[ $done = false ]]
496 do
497    if (( memory <= 0 ))
498    then
499       printf "\n  +++ wrong memory demand or memory demand missing"
500       printf "\n  >>> Please type memory in  MByte per process  as INTEGER:"
501       printf "\n  >>> "
502       read  memory  1>/dev/null  2>&1
503    else
504       done=true
505    fi
506 done
507
508 if [[ $remote_host = nech  ||  $remote_host = necriam ]]
509 then
510    if (( tasks_per_node != 0 ))
511    then
512       (( Memory = memory * tasks_per_node / 1000 ))
513    elif [[ $numprocs != 0 ]]
514    then
515       (( Memory = memory * numprocs / 1000 ))
516    else
517       (( Memory = memory / 1000 ))
518    fi
519 elif [[ $remote_host = lctit ]]
520 then
521    (( Memory = memory * tasks_per_node / 1000 ))
522 fi
523
524
525    # SPEICHERBERECHNUNG BEI OPENMP-NUTZUNG
526 if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
527 then
528    (( memory = memory * threads_per_task ))
529 fi
530
531
532    # BERECHNUNG DER ANZAHL DER ZU VERWENDENDEN KNOTEN
533 if (( tasks_per_node != 0 ))
534 then
535    (( nodes = numprocs / ( tasks_per_node * threads_per_task ) ))
536 fi
537
538    # Calculate number of processes per node
539 (( processes_per_node = tasks_per_node * threads_per_task ))
540
541
542    # HEADER-AUSGABE
543 if [[ $verify = true ]]
544 then
545    printf "\n\n"
546    printf "#--------------------------------------------------------------# \n"
547    spalte1=SUBJOB;spalte2=$(date)
548    printf "| $spalte1$spalte2 | \n"
549    printf "|                                                              | \n"
550    printf "| values of parameters/options:                                | \n"
551    spalte1=local_host$punkte; spalte2=$punkte$local_host
552    printf "| $spalte1$spalte2 | \n"
553    spalte1=remote_host$punkte; spalte2=$punkte$remote_host
554    printf "| $spalte1$spalte2 | \n"
555    spalte1=queue$punkte; spalte2=$punkte$queue
556    printf "| $spalte1$spalte2 | \n"
557    spalte1=memory$punkte; spalte2="$punkte$memory mb"
558    printf "| $spalte1$spalte2 | \n"
559    spalte1=cputime$punkte; spalte2="$punkte$cputime sec"
560    printf "| $spalte1$spalte2 | \n"
561    spalte1=job_name$punkte; spalte2="$punkte$job_name"
562    printf "| $spalte1$spalte2 | \n"
563    printf "#--------------------------------------------------------------# \n\n"
564
565
566       # KONTROLLABFRAGE, OB ALLES O.K.
567    antwort="dummy"
568    while [[ $antwort != y  &&  $antwort != Y  &&  $antwort != n  &&  $antwort != N ]]
569    do
570       read antwort?" >>> continue (y/n) ? "
571    done
572    if [[ $antwort = n  ||  $antwort = N ]]
573    then
574       locat=verify; exit
575    fi
576    printf "\n"
577 fi
578
579
580
581    # ZUFALLSKENNUNG GENERIEREN UND JOBNAMEN AUF ZIELRECHNER BESTIMMEN
582 kennung=$RANDOM
583 job_on_remhost=${job_name}_${kennung}_$local_host
584 job_to_send=job_to_send_$kennung
585 if [[ $delete_dayfile = false ]]
586 then
587    remote_dayfile=${local_host}_${job_name}_result_$kennung
588    local_dayfile=${remote_host}_${job_name}
589 else
590    remote_dayfile=/dev/null
591    if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
592    then
593       notification='# @ notification = never'
594    fi
595 fi
596
597
598
599    # Generate the batch job scripts (qsub/msub/LoadLeveler)
600 if [[ $(echo $remote_host | cut -c1-3) = ibm  &&  $numprocs != 0 ]]
601 then
602
603       # General LoadLeveler settings
604    execute_in_shell="#!/bin/ksh"
605    use_shell="# @ shell = /bin/ksh"
606    consumable_memory="ConsumableMemory($memory mb)"
607    class="# @ class = $queue"
608    environment="# @ environment = OMP_NUM_THREADS=$threads_per_task; MP_SHARED_MEMORY=yes"
609    network_to_use="# @ network.mpi = sn_all,shared,us"
610    data_limit="# @ data_limit = 1.76gb"
611    image_size="# @ image_size = 50"
612
613
614    if [[ $remote_host = ibmh ]]
615    then
616       data_limit=""
617       network_to_use=""
618       class=""
619       environment=""
620    elif [[ $remote_host = ibmku ]]
621    then
622       execute_in_shell="#!/usr/bin/ksh"
623       use_shell="# @ shell = /usr/bin/ksh"
624       consumable_memory=""
625       environment=""
626       network_to_use="# @ network.mpi = sn_all,shared,us"
627       data_limit=""
628       image_size=""
629    elif [[ $remote_host = ibms ]]
630    then
631       network_to_use="# @ network.mpi = csss,shared,us"
632    elif [[ $remote_host = ibmy ]]
633    then
634       consumable_memory=""
635       network_to_use=""
636    fi
637
638    cat > $job_to_send << %%END%%
639$execute_in_shell
640$use_shell
641
642# @ job_type = parallel
643# @ job_name = palm
644# @ wall_clock_limit = ${timestring},$timestring
645# @ resources = ConsumableCpus($threads_per_task) $consumable_memory
646# @ output = $remote_dayfile
647# @ error = $remote_dayfile
648$image_size
649$class
650$environment
651$network_to_use
652$data_limit
653$notification
654
655%%END%%
656
657    if (( nodes > 0 ))
658    then
659
660       cat >> $job_to_send << %%END%%
661# @ node = $nodes
662# @ tasks_per_node = $processes_per_node
663# @ node_usage = $node_usage
664# @ queue
665
666%%END%%
667
668    else
669
670       if [[ $remote_host != ibmy ]]
671       then
672
673          cat >> $job_to_send << %%END%%
674# @ blocking = unlimited
675# @ total_tasks = $numprocs
676# @ node_usage = $node_usage
677# @ queue
678
679%%END%%
680
681       else
682
683          cat >> $job_to_send << %%END%%
684# @ node = 1
685# @ total_tasks = $numprocs
686# @ queue
687
688%%END%%
689
690       fi
691
692    fi
693
694 elif [[ $(echo $remote_host | cut -c1-3) = ibm  &&  $numprocs = 0 ]]
695 then
696
697    cat > $job_to_send << %%END%%
698#!/bin/ksh
699
700# @ job_type = serial
701# @ node_usage = $node_usage
702# @ job_name = palm
703# @ wall_clock_limit = ${timestring},$timestring
704# @ resources = ConsumableCpus(1) ConsumableMemory(1 gb)
705# @ output = $remote_dayfile
706# @ error = $remote_dayfile
707$class
708$notification
709
710# @ queue
711
712%%END%%
713
714 elif [[ $remote_host = lcfimm ]]
715 then
716
717    if [[ $numprocs != 0 ]]
718    then
719       cat > $job_to_send << %%END%%
720#!/bin/ksh
721#PBS -N $job_name
722#PBS -A $project_account
723#PBS -l walltime=$timestring
724#PBS -l nodes=${nodes}:ppn=$processes_per_node
725#PBS -l pmem=${memory}mb
726#PBS -m abe
727#PBS -o $remote_dayfile
728#PBS -j oe
729mpd &
730
731%%END%%
732
733    else
734       cat > $job_to_send << %%END%%
735#!/bin/ksh
736#PBS -N $job_name
737#PBS -A $project_account
738#PBS -l walltime=$timestring
739#PBS -l ncpus=1
740#PBS -l pmem=${memory}mb
741#PBS -m abe
742#PBS -o $remote_dayfile
743#PBS -j oe
744
745%%END%%
746
747    fi
748
749 elif [[ $remote_host = lck ]]
750 then
751
752    if [[ $numprocs != 0 ]]
753    then
754       cat > $job_to_send << %%END%%
755#!/bin/ksh
756#PBS -N $job_name
757#PBS -l walltime=$timestring
758#PBS -l ncpus=$numprocs
759#PBS -l pmem=${memory}mb
760#PBS -o $remote_dayfile
761#PBS -j oe
762
763mpd &
764
765%%END%%
766
767    else
768       cat > $job_to_send << %%END%%
769#!/bin/ksh
770#PBS -N $job_name
771#PBS -l walltime=$timestring
772#PBS -l ncpus=1
773#PBS -l pmem=${memory}mb
774#PBS -o $remote_dayfile
775#PBS -j oe
776
777%%END%%
778
779    fi
780
781 elif [[ $remote_host = lcsgih  ||  $remote_host = lcsgib ]]
782 then
783
784    if [[ "$sgi_feature" != "" ]]
785    then
786       feature_directive="#PBS -l feature=$sgi_feature"
787    else
788       feature_directive=""
789    fi
790   
791    if [[ $queue = dataq || $queue = permq ]]
792    then
793       feature_directive="#PBS -l feature=data"
794    fi
795
796    if [[ $queue = testq  ||  $queue = workq  ||  $queue = dataq  ||  $queue = permq ||  $queue = serialq  ||  $queue = special1q ]]
797    then
798       queue_directive="#PBS -q $queue"
799    else
800       queue_directive=""
801    fi
802
803    if [[ $email_notification = none ]]
804    then
805       email_directive=""
806    else
807       email_directive="#PBS -M $email_notification"
808    fi
809
810    if [[ $numprocs != 0 ]]
811    then
812       cat > $job_to_send << %%END%%
813#!/bin/bash
814#PBS -N $job_name
815#PBS -l walltime=$timestring
816#PBS -l nodes=$nodes:ppn=${processes_per_node}
817#PBS -l naccesspolicy=$node_usage
818#PBS -o $remote_dayfile
819#PBS -j oe
820$feature_directive
821$queue_directive
822$email_directive
823
824eval \`/sw/swdist/bin/modulesinit\`
825#. /usr/share/modules/init/bash
826$module_calls
827
828echo ld_library_path=\$LD_LIBRARY_PATH
829
830%%END%%
831
832    else
833       cat > $job_to_send << %%END%%
834#PBS -S /bin/bash
835#PBS -N $job_name
836#PBS -l walltime=$timestring
837#PBS -l ncpus=1
838#PBS -o $remote_dayfile
839#PBS -j oe
840$queue_directive
841$email_directive
842
843eval \`/sw/swdist/bin/modulesinit\`
844#. /usr/share/modules/init/bash
845$module_calls
846
847%%END%%
848
849    fi
850
851 elif [[ $remote_host = lcxt4 ]]
852 then
853
854    if [[ $numprocs != 0 ]]
855    then
856       cat > $job_to_send << %%END%%
857#!/bin/ksh
858#PBS -S /bin/ksh
859#PBS -N $job_name
860#PBS -A $project_account
861#PBS -j oe
862#PBS -l walltime=$timestring
863#PBS -l mppwidth=${numprocs}
864#PBS -l mppnppn=${processes_per_node}
865#PBS -m abe
866#PBS -o $remote_dayfile
867$email_directive
868
869. /opt/modules/default/init/ksh
870$module_calls
871
872%%END%%
873
874    else
875       cat > $job_to_send << %%END%%
876#!/bin/ksh
877#PBS -S /bin/ksh
878#PBS -N $job_name
879#PBS -A $project_account
880#PBS -j oe
881#PBS -l walltime=$timestring
882#PBS -l ncpus=1
883#PBS -l pmem=${memory}mb
884#PBS -m abe
885$email_directive
886#PBS -o $remote_dayfile
887
888. /opt/modules/default/init/ksh
889$module_calls
890
891%%END%%
892
893    fi
894
895 elif [[ $remote_host = lckyoto ]]
896 then
897
898       cat > $job_to_send << %%END%%
899#!/bin/ksh
900# @\$-o $remote_dayfile
901# @\$-eo -oi
902# @\$-lP 16
903# @\$-lp 1   
904# @\$-lm 28gb  -llm unlimited -ls unlimited
905# @\$-q $queue
906# @\$-Pvn abs_pack
907##for intel? @\$-Pvn abs_unpack -Pvs unpack -Pvc unpack
908#. /thin/local/etc/setprofile/intel-11.0.sh
909#. /thin/local/etc/setprofile/mvapich2-1.4+intel-11.0.sh
910. ~/.myprofile
911#. /home2/t/t51254/palm/current_version/myprofile
912#. /thin/apps/pgi/mpi.sh
913#
914env
915#
916set -x
917
918%%END%%
919
920 elif [[ $remote_host = lcxt5m ]]
921 then
922
923    if [[ $numprocs != 0 ]]
924    then
925       cat > $job_to_send << %%END%%
926#!/bin/ksh
927#PBS -S /bin/ksh
928#PBS -N $job_name
929#PBS -j oe
930#PBS -l walltime=$timestring
931#PBS -l mppwidth=${numprocs}
932#PBS -l mppnppn=${processes_per_node}
933#PBS -m abe
934#PBS -o $remote_dayfile
935
936. /opt/modules/default/init/ksh
937$module_calls
938
939%%END%%
940
941    else
942       cat > $job_to_send << %%END%%
943#!/bin/ksh
944#PBS -S /bin/ksh
945#PBS -N $job_name
946#PBS -j oe
947#PBS -l walltime=$timestring
948#PBS -l ncpus=1
949#PBS -l pmem=${memory}mb
950#PBS -m abe
951#PBS -o $remote_dayfile
952
953. /opt/modules/default/init/ksh
954$module_calls
955
956%%END%%
957
958    fi
959
960 elif [[ $remote_host = nech ]]
961 then
962
963    if (( nodes > 1 ))
964    then
965       cat > $job_to_send << %%END%%
966#!/bin/ksh
967#PBS -l cpunum_prc=$processes_per_node,cputim_job=$cputime
968#PBS -l ${qsubmem}=${Memory}gb
969#PBS -b $nodes
970#PBS -o $remote_dayfile
971#PBS -N palm
972#PBS -j o
973#PBS -T mpisx
974
975%%END%%
976
977    elif [[ $numprocs != 0 ]]
978    then
979       cat > $job_to_send << %%END%%
980#!/bin/ksh
981#PBS -l cpunum_prc=$processes_per_node,cputim_job=$cputime
982#PBS -l ${qsubmem}=${Memory}gb
983#PBS -o $remote_dayfile
984#PBS -N palm
985#PBS -j o
986
987%%END%%
988
989    else
990       cat > $job_to_send << %%END%%
991#!/bin/ksh
992#PBS -l ${qsubmem}=${Memory}gb,${qsubtime}=$cputime
993#PBS -o $remote_dayfile
994#PBS -j o
995
996%%END%%
997
998    fi
999
1000 elif [[ $remote_host = necriam ]]
1001 then
1002
1003    if (( nodes > 1 ))
1004    then
1005       cat > $job_to_send << %%END%%
1006#!/bin/ksh
1007#PBS -b $nodes
1008#PBS -o $remote_dayfile
1009#PBS -N $job_name
1010#PBS -j o
1011#PBS -v MPIPROGINV=YES
1012
1013%%END%%
1014
1015    elif [[ $numprocs != 0 ]]
1016    then
1017       cat > $job_to_send << %%END%%
1018#!/bin/ksh
1019#PBS -q ${queue}
1020#PBS -o $remote_dayfile
1021#PBS -N $job_name
1022#PBS -j o
1023#PBS -v MPIPROGINV=YES
1024
1025%%END%%
1026
1027    else
1028       cat > $job_to_send << %%END%%
1029#!/bin/ksh
1030#PBS -o $remote_dayfile
1031#PBS -j o
1032
1033%%END%%
1034
1035    fi
1036
1037 elif [[ $remote_host = lctit ]]
1038 then
1039    cat > $job_to_send << %%END%%
1040#!/bin/ksh
1041
1042$module_calls
1043
1044%%END%%
1045
1046       # OPTIONEN FUER SUBMIT-KOMMANDO ZUSAMMENSTELLEN
1047    if [[ $tasks_per_node != $processes_per_node ]]
1048    then
1049       submcom="$submcom -W group_list=$group_number -N $job_name -l walltime=$timestring -l select=$nodes:ncpus=$processes_per_node:mpiprocs=$tasks_per_node:mem=${Memory}gb -o $remote_dayfile -j oe -q $queue "
1050    else
1051       submcom="$submcom -W group_list=$group_number -N $job_name -l walltime=$timestring -l select=$nodes:ncpus=$processes_per_node:mpiprocs=$tasks_per_node:mem=${Memory}gb -l place=scatter -o $remote_dayfile -j oe -q $queue "
1052    fi
1053
1054 else
1055
1056    cat > $job_to_send << %%END%%
1057# @\$-q ${queue}
1058# @\$-l${qsubtime} $timestring
1059# @\$-l${qsubmem} ${memory}mb
1060# @\$-o $remote_dayfile
1061# @\$-eo
1062
1063%%END%%
1064
1065 fi
1066
1067
1068    # BEI RECHNUNG AUF REMOTE-MASCHINEN RUECKTRANSFER DES DAYFILES PER TRAP
1069    # BEI EXIT VERANLASSEN
1070    # VEKTORRECHNER MUSS EIGENEN JOB STARTEN, DA DORT NOHUP NICHT FUNKTIONIERT
1071    # AUF IBM IN SEOUL IST RUECKTRANSFER ZUR ZEIT GENERELL NICHT MOEGLICH
1072 if [[ $delete_dayfile = false  &&  $remote_host != $local_host ]]
1073 then
1074    echo "set +vx"                              >>  $job_to_send
1075    echo "trap '"                               >>  $job_to_send
1076    echo "set +vx"                              >>  $job_to_send
1077    if [[ $(echo $remote_host | cut -c1-3) = ibm  ||  $(echo $remote_host | cut -c1-5) = lcsgi  ||  $(echo $remote_host | cut -c1-3) = nec ]]
1078    then
1079       if [[ $remote_host = ibmh ]]
1080       then
1081          return_queue=c1
1082       elif [[ $remote_host = ibmku ]]
1083       then
1084          return_queue=sdbg2
1085       elif [[ $remote_host = ibms ]]
1086       then
1087          return_queue=p_normal
1088       elif [[ $remote_host = ibmy ]]
1089       then
1090          return_queue=serial
1091       elif [[ $remote_host = lcsgih  ||  $remote_host = lcsgib ]]
1092       then
1093          return_queue=serialq
1094       elif [[ $remote_host = necriam ]]
1095       then
1096          return_queue=SP
1097       else
1098          return_queue=unknown
1099       fi
1100
1101       if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
1102       then
1103
1104          if [[ $remote_host = ibmku ]]
1105          then
1106             echo "echo \"#!/usr/bin/ksh\" >> scpjob.$kennung"            >>  $job_to_send
1107             echo "echo \"# @ shell = /usr/bin/ksh\" >> scpjob.$kennung"  >>  $job_to_send
1108          else
1109             echo "echo \"#!/bin/ksh\" >> scpjob.$kennung"                >>  $job_to_send
1110          fi
1111          echo "echo \"# @ job_type = serial\" >> scpjob.$kennung"    >>  $job_to_send
1112          echo "echo \"# @ job_name = transfer\" >> scpjob.$kennung"  >>  $job_to_send
1113          echo "echo \"# @ resources = ConsumableCpus(1) ConsumableMemory(1 gb)\" >> scpjob.$kennung"  >>  $job_to_send
1114          echo "echo \"# @ wall_clock_limit = 00:10:00,00:10:00\" >> scpjob.$kennung "  >>  $job_to_send
1115          echo "echo \"# @ output = job_queue/last_job_transfer_protocol\" >> scpjob.$kennung"  >>  $job_to_send
1116          echo "echo \"# @ error = job_queue/last_job_transfer_protocol\" >> scpjob.$kennung"  >>  $job_to_send
1117          if [[ $host != "ibmh" ]]
1118          then
1119             echo "echo \"# @ class = $return_queue\" >> scpjob.$kennung"  >>  $job_to_send
1120          fi
1121          echo "echo \"# @ image_size = 10\" >> scpjob.$kennung"      >>  $job_to_send
1122          echo "echo \"# @ notification = never\" >> scpjob.$kennung" >>  $job_to_send
1123
1124          echo "echo \"# @ queue\" >> scpjob.$kennung"                >>  $job_to_send
1125          echo "echo \" \" >> scpjob.$kennung"                        >>  $job_to_send
1126
1127          echo "echo \"set -x\" >> scpjob.$kennung"                   >>  $job_to_send
1128          echo "echo \"batch_scp  -d  -w 10  -u $local_user  $local_addres  ${job_catalog}/$remote_dayfile  \\\"$job_catalog\\\"  $local_dayfile\" >> scpjob.$kennung"  >>  $job_to_send
1129          if [[ $remote_host = ibmku ]]
1130          then
1131             echo "echo \"rm  scpjob.$kennung\" >> scpjob.$kennung"   >>  $job_to_send
1132          fi
1133          echo "echo \"exit\" >> scpjob.$kennung"                     >>  $job_to_send
1134
1135       elif [[ $remote_host = nech ]]
1136       then
1137          echo "cd /pf/b/${remote_user}/job_queue" >>  $job_to_send
1138          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1139          echo "#PBS -l ${qsubmem}=1GB,${qsubtime}=100"  >>  $job_to_send
1140          echo "#PBS -o last_job_transfer_protocol"      >>  $job_to_send
1141          echo "#PBS -j o"                         >>  $job_to_send
1142          echo " "                                 >>  $job_to_send
1143          echo "set -x"                            >>  $job_to_send
1144          echo "cd /pf/b/${remote_user}/job_queue" >>  $job_to_send
1145          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  $remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1146          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1147          echo "%%END%%"                           >>  $job_to_send
1148
1149       elif [[ $remote_host = necriam ]]
1150       then
1151          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1152          echo "#PBS -q $return_queue"             >>  $job_to_send
1153          echo "#PBS -o last_job_transfer_protocol"      >>  $job_to_send
1154          echo "#PBS -j o"                         >>  $job_to_send
1155          echo " "                                 >>  $job_to_send
1156          echo "set -x"                            >>  $job_to_send
1157          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  $remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1158          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1159          echo "%%END%%"                           >>  $job_to_send
1160
1161       elif [[ $(echo $remote_host | cut -c1-5) = lcsgi ]]
1162       then
1163          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1164          echo "#!/bin/bash"                             >>  $job_to_send
1165          echo "#PBS -N job_protocol_transfer"           >>  $job_to_send
1166          echo "#PBS -l walltime=00:30:00"               >>  $job_to_send
1167          echo "#PBS -l nodes=1:ppn=1"                   >>  $job_to_send
1168          echo "#PBS -l feature=data"                    >>  $job_to_send
1169          echo "#PBS -o \$HOME/job_queue/last_job_transfer_protocol"      >>  $job_to_send
1170          echo "#PBS -j oe"                        >>  $job_to_send
1171          echo " "                                 >>  $job_to_send
1172          echo ". /usr/share/modules/init/bash"    >>  $job_to_send
1173          echo "set -x"                            >>  $job_to_send
1174          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1175          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1176          echo "%%END%%"                           >>  $job_to_send
1177
1178       else
1179
1180          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1181          echo "# @\\\$-q $return_queue"           >>  $job_to_send
1182          echo "# @\\\$-l${qsubtime} 10"           >>  $job_to_send
1183          echo "# @\\\$-l${qsubmem} 10mb"          >>  $job_to_send
1184          if [[ $remote_host = t3ej2  ||  $remote_host = t3ej5  ||  $remote_host = t3es ]]
1185          then
1186             echo "# @\$-l mpp_p=0"                >>  $job_to_send
1187          fi
1188          echo '# @\$-lF 10mb'                     >>  $job_to_send
1189#          echo '# @\$-o /dev/null'                 >>  $job_to_send
1190          echo '# @\$-o job_queue/last_job_transfer_protocol'    >>  $job_to_send
1191          echo '# @\\\$-eo'                          >>  $job_to_send
1192          echo " "                                 >>  $job_to_send
1193          if [[ $remote_host = t3ej2  ||  $remote_host = t3ej5 ]]
1194          then
1195             echo "set +vx"                        >>  $job_to_send
1196             echo ". .profile"                     >>  $job_to_send
1197          fi
1198          echo "set -x"                            >>  $job_to_send
1199          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile  >  /dev/null"  >>  $job_to_send
1200          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1201          echo "%%END%%"                           >>  $job_to_send
1202       fi
1203
1204       if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
1205       then
1206          echo "llsubmit  scpjob.$kennung"      >>  $job_to_send
1207       elif [[ $(echo $remote_host | cut -c1-5) = lcsgi ]]
1208       then
1209          echo "chmod  u+x  scpjob.$kennung"    >>  $job_to_send
1210          echo "msub  scpjob.$kennung"          >>  $job_to_send
1211       elif [[ $remote_host = t3eb  ||  $remote_host = t3eh  ||  $remote_host = t3ej2  ||  $remote_host = t3ej5 ]]
1212       then
1213          echo "qsub -J n  scpjob.$kennung"     >>  $job_to_send
1214       elif [[ $remote_host = t3es ]]
1215       then
1216          echo "qsub -J n  -s /bin/ksh  scpjob.$kennung"     >>  $job_to_send
1217       else
1218          echo "qsub  scpjob.$kennung"          >>  $job_to_send
1219       fi
1220       if [[ $remote_host != ibmku ]]
1221       then
1222          echo "rm  scpjob.$kennung"            >>  $job_to_send
1223       fi
1224       if [[ $remote_host = nech ]]
1225       then
1226          echo "cd -"                           >>  $job_to_send
1227       fi
1228    else
1229#       echo "ftpcopy  -d  $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1230       echo "nohup  ftpcopy  -d  -w 15  $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile  >  /dev/null  &"  >>  $job_to_send
1231    fi
1232    echo "set -x"                               >>  $job_to_send
1233    echo "     ' exit"                          >>  $job_to_send
1234    echo "set -x"                               >>  $job_to_send
1235 fi
1236
1237
1238
1239    # EIGENTLICHE JOB-DATEI AN QSUB-KOMMANDOS ANHAENGEN
1240 cat  $file_to_send  >>  $job_to_send
1241
1242 if [[ $remote_host = ibm ]]
1243 then
1244    echo " "         >>  $job_to_send
1245    echo "exit"      >>  $job_to_send
1246 fi
1247
1248    # remove job file
1249 if [[ $remote_host = lctit  ||  $remote_host = ibmku ]]
1250 then
1251    echo " "                               >>  $job_to_send
1252    echo "rm ~/job_queue/$job_on_remhost"  >>  $job_to_send
1253 fi
1254
1255
1256
1257    # USER-NAME AUF ZIELRECHNER AUS .NETRC-DATEI ERMITTELN
1258 if [[ -z $remote_user ]]
1259 then
1260    if [[ $remote_host = t3eb  ||  $remote_host = t3eh  ||  $remote_host = t3ej2  ||  $remote_host = t3ej5  ||  $remote_host = t3es  ||  $remote_host = vpp ]]
1261    then
1262       grep  $remote_addres  ~/.netrc | read dum dum dum remote_user dum dum
1263    fi
1264 fi
1265
1266
1267
1268    # JOB AUF ZIELRECHNER TRANSFERIEREN BZW. INS JOBVERZEICHNIS KOPIEREN
1269 if [[ $no_submit = false ]]
1270 then
1271    if [[ $remote_host != $local_host ]]
1272    then
1273       [[ $verify = true ]]  &&  printf "\n >>> transfering job to \"$remote_host\"..."
1274       if [[ $remote_host = ibms  ||  $remote_host = ibmy ]]    # ssh on ibms cannot handle "~/"
1275       then
1276          job_catalog_save=$job_catalog
1277          job_catalog=job_queue
1278       elif [[ $remote_host = nech ]]
1279       then
1280          job_catalog_save=$job_catalog
1281          job_catalog=/hpf/b/${remote_user}/job_queue
1282       fi
1283       if [[ $local_host = decalpha ]]
1284       then
1285             # VERWENDUNG VON SCP AUF DECALPHA FRAGT FEHLERHAFTERWEISE
1286             # PASSWORT AB
1287          /bin/scp  $job_to_send  ${remote_user}@${remote_addres}:${job_catalog}/$job_on_remhost
1288       elif [[ $remote_host = nech ]]
1289       then
1290             # DATEIEN KOENNEN NUR UEBER DEN ARCHIVE-SERVER DES DKRZ
1291             # TRANSFERIERT WERDEN
1292          scp  $job_to_send  ${remote_user}@136.172.44.205:${job_catalog}/$job_on_remhost
1293       else
1294          scp  $job_to_send  ${remote_user}@${remote_addres}:${job_catalog}/$job_on_remhost
1295       fi
1296       if [[ $? = 1 ]]
1297       then
1298          locat=scp; exit
1299       fi
1300       if [[ $remote_host = ibms ]]
1301       then
1302          job_catalog=$job_catalog_save
1303       fi
1304       [[ $verify = true ]]  &&  printf "\n >>> finished\n"
1305    else
1306       eval  job_catalog=$job_catalog
1307       cp  $job_to_send  ${job_catalog}/$job_on_remhost
1308    fi
1309
1310
1311
1312       # NQS- BZW. LOADLEVELER-JOB STARTEN
1313    if [[ $remote_host != $local_host ]]
1314    then
1315       [[ $verify = true ]]  &&  printf "\n >>> submitting job using \"qsub\"...\n"
1316
1317       if [[ $(echo $remote_host | cut -c1-5) = lcsgi  &&  $prio = true ]]
1318       then
1319          printf "\n >>> submit with HLRN qos-feature hiprio...\n"
1320          ssh  $remote_addres  -l $remote_user  "cd $job_catalog; $submcom -l qos=hiprio $job_on_remhost; rm $job_on_remhost"
1321       elif [[ $remote_host = ibmku ]]
1322       then
1323          ssh  $remote_addres  -l $remote_user  "cd $job_catalog; $submcom $job_on_remhost"
1324       else
1325          ssh  $remote_addres  -l $remote_user  "cd $job_catalog; $submcom $job_on_remhost; rm $job_on_remhost"
1326       fi
1327
1328       [[ $verify = true ]]  &&  printf " >>> o.k.\n"
1329    else
1330       cd  $job_catalog
1331       if [[ $(echo $local_host | cut -c1-5) = lcsgi  ||  $(echo $local_host | cut -c1-3) = ibm ]]
1332       then
1333          eval  $submcom  $job_on_remhost
1334       elif [[  $local_host = lcfimm  ||  $local_host = lctit  ||  $localhost = lcxt4 || $localhost = lck ]]
1335       then
1336          chmod  u+x  $job_on_remhost
1337          echo "$submcom  $job_on_remhost"
1338          eval  $submcom  $job_on_remhost
1339       elif [[ $local_host = nech ]]
1340       then
1341          if [[ $queue = default ]]
1342          then
1343             eval  $submcom  $job_on_remhost 
1344          else
1345             eval  $submcom  -q $queue  $job_on_remhost 
1346          fi
1347       else
1348          qsub  $job_on_remhost
1349       fi
1350
1351          # Jobfile must not be deleted on lctit/ibmku!! This will be done
1352          # only at the end of the job.
1353       if [[ $local_host != lctit  &&  $local_host != ibmku ]]
1354       then
1355          rm  $job_on_remhost
1356       fi
1357       cd  -  > /dev/null
1358    fi
1359 fi
1360
1361
1362
1363    # ABSCHLUSSARBEITEN
1364
1365 if [[ $no_submit = false ]]
1366 then
1367    rm  $job_to_send
1368 fi
1369 [[ $verify = true ]]  &&  printf "\n\n *** SUBJOB finished \n\n"
Note: See TracBrowser for help on using the repository browser.