source: palm/trunk/SCRIPTS/subjob @ 742

Last change on this file since 742 was 739, checked in by raasch, 13 years ago

hicegate0 added

  • Property svn:keywords set to Id Rev
File size: 49.4 KB
RevLine 
[1]1#!/bin/ksh
[82]2# subjob - Plot-Shellskript         Version:  @(#)SUBJOB 1.0
[169]3# $Id: subjob 739 2011-08-17 14:52:41Z raasch $
[1]4
5     # Prozedur zum automatischen Generieren von Batch-Jobs, die unter NQS
6     # laufen sollen und deren Ergebnis (Dayfile) zum Job-generierenden
7     # Host zurueckgeschickt werden sollen
8
9
10     # letzte Aenderung:
11     # 29/06/94 - Siggi - Beginn mit Erstellung der Originalversion
12     # 08/07/94 - Siggi - Originalversion abgeschlossen (Version 1.0)
13     # 06/02/98 - Siggi - berte validiert
14     # 27/01/01 - Siggi - ground.yonsei.ac.kr validiert, Jobs zur T3E in Korea
15     #                    moeglich
16     # 08/02/01 - Siggi - alle subjob-Meldungen ins englische uebersetzt
17     # 25/05/02 - Siggi - Unterstuetzung des LoadLeveler
18     # 30/05/02 - Siggi - Validierung fuer ibm-Rechner in Seoul (nobel) sowie
19     #                    allgemeine Anpassungen fuer ibm-Rechner
20     # 15/10/02 - Siggi - Neue Default-Jobklasse (p_normal) fuer IBM in Seoul
21     #                    Ruecktransfer des Jobprotokolls fuer diese
22     #                    Maschine abgeschaltet
23     # 31/10/02 - Siggi - berni validiert
24     # 06/11/02 - Siggi - Neue Jobklassen auf ibmb und ibmh
25     # 08/11/02 - Siggi - quanero validiert
26     # 11/12/02 - Siggi - Notification fuer Transfer-Jobs abgeschaltet
27     # 23/01/03 - Siggi - hostname nobel changed to nobela
28     # 06/02/03 - Siggi - gregale validated
29     # 12/02/03 - Siggi - orkan and maestro validated
30     # 21/02/03 - Siggi - all nobel nodes in Seoul validated
31     # 12/03/03 - Siggi - nec at DKRZ validated
32     # 13/03/03 - Siggi - new nqs resource variable Memory
33     # 07/04/03 - Siggi - processor request option -c on nech needs tasks per
34     #                    node
35     # 11/04/03 - Siggi - network on ibms has attribute "shared"
36     # 31/07/03 - Siggi - nqs2 on nech implemented (provisional: -h nech2)
37     #                    cxxl added to ibmh
38     # 29/08/03 - Siggi - changes in job queues and communication system on
39     #                    ibms
40     # 24/10/03 - Siggi - using alternate hanni address 130.75.4.2
41     # 30/10/03 - Siggi - nech is not supported any more
42     # 10/11/03 - Siggi - nech2 renamed to nech
43     # 20/11/03 - Siggi - submit command on nech changed from qsub.test to qsub
44     # 29/03/04 - Siggi - ground not supported any more, gfdl3 validated
45     # 31/03/04 - Siggi - new option -N for node usage
46     # 12/04/04 - Siggi - scp2 instead of scp used for transfer from decalpha
47     #                    due to error in ssh installation (otherwise a prompt
48     #                    for the password appears)
49     # 23/07/04 - Siggi - changes due to the new berni configuration
50     #                    (federation switch)
51     # 01/09/04 - Gerald  new job-classes on hanni
52     # 08/09/04 - Siggi - hanni IP address changed to 130.75.4.10
53     # 23/11/04 - Siggi - new job class cdata on hanni and berni
54     # 03/12/04 - Siggi - notification on ibm switched of in case of
55     #                    delete_dayfile = true, node usage in cdev set to
56     #                    shared
57     # 16/02/05 - Gerald  hababai validated
58     # 29/03/05 - Micha - new job class channi on hanni
59     # 11/05/05 - Siggi - ConsumableMemory is now required as resource keyword
60     #                    on ibms
61     # 24/05/05 - Siggi - Default queue on ibms changed from p_normal_1.3 to
62     #                    p_normal
63     # 30/06/05 - Siggi - network changed for queue cdev from "us" to "ip"
64     # 12/07/05 - Siggi - in network.mpi on ibmh/ibmb "csss" changed to
65     #                    "sn_all", new job class cexp
66     # 08/09/05 - Siggi - IP-address of gfdl3 changed
67     # 31/10/05 - Siggi - new job class pp on hurricane, serial jobs on
68     #                    hurricane (with -X0)
69     # 01/11/05 - Siggi - missing queue for jobs submitted on nech (for nech)
70     #                    added
71     # 30/12/05 - Siggi - change of IP adresses in subnet 130.75.105
72     # 09/02/06 - Siggi - ibmy admitted
73     # 10/02/06 - Siggi - scp2 changed to /bin/scp on decalpha
74     # 13/04/06 - Siggi - ostria admitted
75     # 18/04/06 - Siggi - new option -O for OpenMP usage
76     # 24/05/06 - Siggi - lctit admitted, ftpjob renamed scpjob
77     # 25/07/06 - Siggi - gfdl5 (ibmy) admitted for submitting jobs
78     # 27/09/06 - Siggi - breg/hreg extended with berni/hanni
79     # 25/10/06 - Siggi - data_limit set to 1.76 GByte on hanni and berni
80     # 28/11/06 - Siggi - levanto admitted
[5]81     # 13/02/07 - Siggi - hpmuk releated code removed
[35]82     # 01/03/07 - Siggi - adjustments for RIAM machines gate and NEC-SX8 (n-sx)
[82]83     # 12/04/07 - Siggi - option -f (filetransfer protocol) removed, scp only
[102]84     # 27/07/07 - Siggi - autan admitted
[108]85     # 03/08/07 - Marcus- lcfimm admitted
[113]86     # 08/10/07 - Siggi - further job classes added for hanni (csoloh...)
[118]87     # 15/10/07 - Siggi - preliminary adjustments for lctit based on Jin's
88     #                    suggestions
[122]89     # 19/10/07 - Marcus- add new optional argument -g group_number
[125]90     # 19/10/07 - Siggi - a ";" was missing in the last change done by Marcus
[129]91     # 30/10/07 - Marcus- further adjustments for queues on lctit
[164]92     # 15/05/08 - Siggi - adjustments for lcxt4 (Bergen Center for Computational
93     #                    Science)
[179]94     # 14/07/08 - Siggi - adjustments for lcsgih
[205]95     # 23/09/08 - Gerald- paesano admitted
[206]96     # 02/10/08 - Siggi - PBS adjustments for lcxt4
[251]97     # 02/03/09 - Siggi - Adjustments for new NEC-SX9 at RIAM
[292]98     # 16/04/09 - Marcus- Adjustments for lcsgib and lcsgih
[312]99     # 21/04/09 - Siggi - adjustments for new IBM at DKRZ, which is now ibmh
[325]100     # 18/05/09 - Siggi - Settings for serial jobs on lcsgi changed
[343]101     # 24/06/09 - BjornM- adjustments for lcxt4 (loading modules manually)
[352]102     # 08/07/09 - Siggi - option -e added (email notification on lcsgih/b)
[366]103     # 20/07/09 - Siggi - On lcsgi, jobs for returning the job protocol are
104     #                    now run on the data nodes (feature=data)
[367]105     # 25/08/09 - BjornM- adapted for lck
[372]106     # 26/08/09 - Marcus- caurus admitted; optional qos feature hiprio on lcsgi
[376]107     # 03/09/09 - Siggi - PBS sgi feature directive only used if explicitly
108     #                    set in the config file by the user
[416]109     # 16/10/09 - Carolin-adjustments for archiving on SGI-ICE of binary files;
110     #                    adding special1q
[407]111     # 01/12/09 - BjornM- re-adjustments for lcxt4, added sno (130.75.105.113)
[416]112     # 16/10/09 - Carolin-adding permq
[440]113     # 01/02/10 - Siggi - adapted for lcxt5m and lckyoto (Fujitsu HX600)
[475]114     # 03/02/10 - Siggi - bug in serial jobs removed
[492]115     # 26/02/10 - BjornM- re-adjustments for lcxt4 (new modules, email
116     #                    notification)
[493]117     # 01/03/10 - Siggi - loading of modules controlled by environment variable
118     #                    module_calls
[551]119     # 17/08/10 - BjornM- re-adjustments for lcxt4 (location of qsub)
120     # 25/08/10 - BjornM- account geofysisk replaced by guest for lcxt4
[552]121     # 25/08/10 - Siggi - new variable project_account in pbs-statements for
122     #                    lcxt4
[622]123     # 08/12/10 - Siggi - initialization of the module command changed for
124     #                    SGI-ICE/lcsgi
125     #                    adjustments for Kyushu Univ. (lcrte, ibmku)
[635]126     # 14/12/10 - Siggi - adjustments for new Tsubame system at Tokyo
127     #                    institute of technology (lctit)
[678]128     # 02/02/11 - Siggi - further asjustments for Tsubame concerning openMP
[693]129     # 06/03/11 - Siggi - adjustments for ibmkisti
[696]130     # 17/03/11 - Siggi - adjustments for openmp usage on ibmkisti
[717]131     # 03/04/11 - Micha - added lckordi
[739]132     # 17/08/11 - Siggi - hicegate0 added
[1]133
[437]134
[552]135
[1]136    # VARIABLENVEREINBARUNGEN + DEFAULTWERTE
[352]137 delete_dayfile=false
138 email_notification=none
[122]139 group_number=none
[1]140 locat=normal
141 no_default_queue=none
142 no_submit=false
143 job_catalog="~/job_queue"
144 job_name=none
145 local_user=$LOGNAME
146 node_usage=shared
[475]147 numprocs=0
[1]148 punkte="..........................................................."
149 submcom=qsub
150 queue=default
151 remote_host=none
152 remote_user=""
153 verify=true
154
155 typeset  -i   cputime=memory=Memory=0  minuten  resttime  sekunden  stunden
[696]156 typeset  -i   inumprocs  mpi_tasks=nodes=processes_per_node=0 tasks_per_node=threads_per_task=1
[1]157 typeset  -L20 spalte1
158 typeset  -R40 spalte2
159 typeset  -L60 spalte3
160
161
162
163    # FEHLERBEHANDLUNG
164    # BEI EXIT:
165 trap 'if [[ $locat != normal ]]
166       then
167          case  $locat  in
168             (option)  printf "\n  --> available optios can be displayed"
169                       printf " by typing:"
170                       printf "\n      \"subjob ?\" \n";;
171             (ftpcopy|parameter|scp|verify)  printf "\n";;
172             (*)       printf "\n  +++ unknown error"
173                       printf "\n      please inform S. Raasch!\n"
174          esac
175          [[ -f $job_to_send ]]  &&  rm  $job_to_send
176          printf "\n\n+++ SUBJOB killed \n\n"
177       fi' exit
178
179
180    # BEI TERMINAL-BREAK:
181 trap '[[ -f $job_to_send ]]  &&  rm  $job_to_send
182       printf "\n\n+++ SUBJOB killed \n\n"
183       exit
184      ' 2
185
186
187
188
189    # LOKALEN HOSTNAMEN FESTSTELLEN
190 local_host=$(hostname)
191
192
193
194    # HOSTSPEZIFISCHE VARIABLEN VEREINBAREN BZW. PRUEFEN, OB LOKALER HOST
195    # UEBERHAUPT ZULAESSIG IST
[717]196    # Note: One of the entries for "lck" or "lckordi" always has to be
197    # comment out, because the hostname (node*) is same for both machines
[1]198 case  $local_host  in
199     (atmos)                 local_addres=172.20.25.35;   local_host=lcide;;
[102]200     (autan)                 local_addres=130.75.105.57;  local_host=lcmuk;;
[5]201     (bora)                  local_addres=130.75.105.103; local_host=lcmuk;;
[400]202     (bd1)                   local_addres=130.73.232.64;  local_host=lcsgib;;
203     (bd2)                   local_addres=130.73.232.65;  local_host=lcsgib;;
204     (bd3)                   local_addres=130.73.232.66;  local_host=lcsgib;;
205     (bd4)                   local_addres=130.73.232.67;  local_host=lcsgib;;
206     (b01*|bicegate1)        local_addres=130.73.232.102; local_host=lcsgib;;
[291]207     (bicegate2)             local_addres=130.73.232.103; local_host=lcsgib;;
[12]208     (breva)                 local_addres=130.75.105.98;  local_host=lcmuk;;
[292]209     (bicegate2)             local_addres=130.73.232.103; local_host=lcsgib;;
[372]210     (caurus)                local_addres=130.75.105.19;  local_host=lcmuk;;
[693]211     (climate*)              local_addres=165.132.26.68;  local_host=lcyon;;
[108]212     (compute-*.local)       local_addres=172.20.4.2;     local_host=lcfimm;;
[1]213     (cs*)                   local_addres=136.172.44.131; local_host=nech;;
[5]214     (elephanta)             local_addres=130.75.105.6;   local_host=lcmuk;;
[108]215     (fimm.bccs.uib.no)      local_addres=172.20.4.2;     local_host=lcfimm;;
[367]216     (node*)                 local_addres=165.132.26.61   local_host=lck;;
[717]217   #  (node*)                 local_addres=210.219.61.8    local_host=lckordi;;
[693]218     (gaia*)                 local_addres=150.183.146.24; local_host=ibmkisti;;
[101]219     (gallego)               local_addres=130.75.105.10;  local_host=lcmuk;;
[1]220     (gfdl5)                 local_addres=165.132.26.58;  local_host=ibmy;;
221     (gfdl3.yonsei.ac.kr)    local_addres=165.132.26.56;  local_host=decalpha;;
[5]222     (gregale)               local_addres=130.75.105.109; local_host=lcmuk;;
223     (hababai)               local_addres=130.75.105.108; local_host=lcmuk;;
[164]224     (hexagon.bccs.uib.no)   local_addres=129.177.20.113; local_host=lcxt4;;
[400]225     (hd1)                   local_addres=130.75.4.104;   local_host=lcsgih;;
226     (hd2)                   local_addres=130.75.4.105;   local_host=lcsgih;;
227     (hd3)                   local_addres=130.75.4.106;   local_host=lcsgih;;
228     (hd4)                   local_addres=130.75.4.107;   local_host=lcsgih;;
[739]229     (hicegate0)             local_addres=130.75.4.101;   local_host=lcsgih;;
[292]230     (h01*|hicegate1)        local_addres=130.75.4.102;   local_host=lcsgih;;
[210]231     (hicegate2)             local_addres=130.75.4.103;   local_host=lcsgih;;
[440]232     (hx*)                   local_addres=133.3.51.11;    local_host=lckyoto;;
[312]233     (blizzard1)             local_addres=136.172.40.15;  local_host=ibmh;;
[5]234     (irifi)                 local_addres=130.75.105.104; local_host=lcmuk;;
[407]235     (sno)                   local_addres=130.75.105.113; local_host=lcmuk;;
[5]236     (levanto)               local_addres=130.75.105.45;  local_host=lcmuk;;
237     (maestro)               local_addres=130.75.105.2;   local_host=lcmuk;;
[437]238     (meteo-login*)          local_addres=193.166.211.144;local_host=lcxt5m;;
[164]239     (nid*)                  local_addres=129.177.20.113; local_host=lcxt4;;
[1]240     (nobel*)                local_addres=150.183.5.101;  local_host=ibms;;
[5]241     (orkan)                 local_addres=130.75.105.3;   local_host=lcmuk;;
242     (ostria)                local_addres=130.75.105.106; local_host=lcmuk;;
[205]243     (paesano)               local_addres=130.75.105.46;  local_host=lcmuk;;
[5]244     (quanero)               local_addres=130.75.105.107; local_host=lcmuk;;
[622]245     (rte*)                  local_addres=133.5.185.60;   local_host=lcrte;;
[1]246     (scirocco)              local_addres=172.20.25.41;   local_host=lcmuk;;
247     (sun1|sun2)             local_addres=130.75.6.1;     local_host=unics;;
[259]248     (sx-*)                  local_addres=172.16.1.131;   local_host=necriam;;
[181]249     (r1*)                   local_addres=130.75.4.102;   local_host=lcsgih;;
[196]250     (r2*)                   local_addres=130.73.232.102; local_host=lcsgib;;
[635]251     (t2a*)                  local_addres=10.1.6.165;     local_host=lctit;;
[1]252     (vorias)                local_addres=172.20.25.43;   local_host=lcmuk;;
[622]253     (*.cc.kyushu-u.ac.jp)   local_addres=133.5.4.129;    local_host=ibmku;;
[1]254     (*)                     printf "\n  +++ \"$local_host\" unknown";
255                             printf "\n      please inform S. Raasch!";
256                             locat=parameter; exit;;
257 esac
258
259
260
261    # REMOTE HOST DEFAULTMAESSIG = LOCAL HOST SETZEN
262 remote_host=$local_host
263
264
265
266
267    # PROZEDUROPTIONEN EINLESEN
[352]268 while  getopts  :c:dDe:g:h:m:n:N:O:q:t:T:u:vX:  option
[1]269 do
270   case  $option  in
271       (c)   job_catalog=$OPTARG;;
272       (d)   delete_dayfile=true;;
273       (D)   no_submit=true;;
[352]274       (e)   email_notification=$OPTARG;;
[125]275       (g)   group_number=$OPTARG;;
[1]276       (h)   remote_host=$OPTARG;;
277       (m)   memory=$OPTARG;;
278       (n)   job_name=$OPTARG;;
279       (N)   node_usage=$OPTARG;;
280       (O)   threads_per_task=$OPTARG;;
281       (q)   no_default_queue=$OPTARG;;
282       (t)   cputime=$OPTARG;;
283       (T)   tasks_per_node=$OPTARG;;
284       (u)   remote_user=$OPTARG;;
285       (v)   verify=false;;
286       (X)   numprocs=$OPTARG;;
287       (\?)  printf "\n  +++ Option $OPTARG unknown \n";
288             locat=option; exit;;
289   esac
290 done
291
292
293    # JOBDATEINAMEN ALS NAECHSTES ARGUMENT HOLEN
294 shift OPTIND-1; file_to_send=$1
295
296
297    # KURZE AUFRUFBESCHREIBUNG WIRD HIER AUSGEGEBEN
298 if [ "$1" = "?" ]
299 then
300   (printf "\n  *** subjob can be called as follows:\n"
301    printf "\n      subjob -c.. -d -D -h.. -m.. -q.. -t.. -u.. -v  <jobfile>\n"
302    printf "\n      Description of available options:\n"
303    printf "\n      Option  Description                         Default-Value"
304    printf "\n        -c    job-input- and output-catalog       ~/job_queue"
305    printf "\n        -d    no job-protocol will be created     ---"
306    printf "\n        -D    only the job-file will be created   ---"
307    printf "\n        -h    execution host, available hosts:    $remote_host"
[693]308    printf "\n              ibm, ibmh, ibmkisti, ibmku, ibms, ibmy, lc...,"
[251]309    printf "\n              lctit, nech, necriam, unics"
[1]310    printf "\n        -m    memory demand per process in MByte  ---"
311    printf "\n        -n    jobname                             <jobdatei>"
312    printf "\n        -O    threads per task (for OpenMP usage) 1"
313    printf "\n        -q    job-queue to be used                default"
314    printf "\n        -t    allowed cpu-time in seconds         ---"
315    printf "\n        -T    tasks per node (on parallel hosts)  ---"
316    printf "\n        -u    username on execution host          from .netrc"
317    printf "\n        -v    no prompt for confirmation          ---"
318    printf "\n        -X    # of processors (on parallel hosts) 1"
319    printf "\n "
320    printf "\n      The only possible positional parameter is <jobfile>:"
321    printf "\n      The complete NQS-job must be provided here."
322    printf "\n      <jobfile>=? creates this outline\n\n") | more
323    exit
324 fi
325
326
327
328    # PRUEFEN, OB JOBDATEI ANGEGEBEN WURDE UND OB SIE AUCH EXISTIERT
329 if [[ "$file_to_send" = "" ]]
330 then
331    printf "\n  +++ job-file missing"
332    locat=parameter; exit
333 else
334    if [[ -f $file_to_send ]]
335    then
336       true
337    else
338       printf "\n  +++ job-file: "
339       printf "\n           $file_to_send"
340       printf "\n      does not exist"
341       locat=parameter; exit
342    fi
343 fi
344
345
346
347    # FALLS KEIN JOBNAME ANGEGEBEN WURDE, WIRD JOBNAME = JOBDATEINAME
348    # GESETZT. VORAUSSETZUNG: JOBDATEINAME BEINHALTET KEINE PFADE
349 if [[ $job_name = none ]]
350 then
351    job_name=$file_to_send
352 fi
353 if [[ $(echo $job_name | grep -c "/") != 0 ]]
354 then
355    printf "\n  +++ job-file name: "
356    printf "\n           $job_name"
357    printf "\n      must not contain \"/\"-characters"
358    locat=parameter; exit
359 fi
360
361
362
363
364    # HOSTSPEZIFISCHE GROESSEN VEREINBAREN BZW. ABBRUCH BEI UNZULAESSIGEM HOST
365    # ODER WENN HOST NICHT ANGEGEBEN WURDE
366 if [[ $remote_host = none ]]
367 then
368    printf "\n  +++ host missing"
369    locat=option; exit
370 else
371    case  $remote_host  in
[251]372        (ibm)     queue=p690_standard; remote_addres=134.76.99.81; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
[312]373        (ibmh)    queue=no_class; remote_addres=136.172.40.15; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
[693]374        (ibmkisti) queue=class.32plus; remote_addres=150.183.146.24; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
[622]375        (ibmku)   queue=s4; remote_addres=133.5.4.129; submcom=/usr/local/bin/llsubmit;;
[251]376        (ibms)    queue=p_normal; remote_addres=150.183.5.101; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
377        (ibmy)    queue=parallel; remote_addres=165.132.26.58; submcom=/usr/lpp/LoadL/full/bin/llsubmit;;
378        (lcfimm)  remote_addres=172.20.4.2; submcom=/opt/torque/bin/qsub;;
[440]379        (lckyoto) remote_addres=133.3.51.11; submcom=/thin/local/bin/qsub;;
[540]380        (lcsgib)  queue=smallq; remote_addres=130.73.232.104; submcom=/opt/moab/bin/msub;;
381        (lcsgih)  queue=smallq; remote_addres=130.75.4.101; submcom=/opt/moab/bin/msub;;
[367]382        (lck)     remote_addres=165.132.26.61; submcom=/usr/torque/bin/qsub;;
[717]383        (lckordi) remote_addres=210.219.61.8; submcom=/usr/torque/bin/qsub;;
[635]384        (lctit)   queue=S; remote_addres=10.1.6.165; submcom=/opt/pbs/tools/bin/t2sub;;
[544]385        (lcxt4)   remote_addres=129.177.20.113; submcom=/opt/torque/2.4.9-snap.201005191035/bin/qsub;;
[437]386        (lcxt5m)  remote_addres=193.166.211.144; submcom=/opt/pbs/10.1.0.91350/bin/qsub;;
[693]387        (lcyon)   remote_addres=165.132.26.68; submcom=/usr/torque/bin/qsub;;
[251]388        (nech)    qsubmem=memsz_job; qsubtime=cputim_job; remote_addres=136.172.44.147; submcom="/usr/local/bin/qsub";;
389        (necriam) qsubmem=memsz_job; qsubtime=cputim_job; remote_addres=172.16.1.131; submcom="/usr/bin/nqsII/qsub";;
390        (vpp)     qsubmem=m; qsubtime=t; queue=vpp; remote_addres=130.75.4.130;;
391        (unics)   qsubmem=d; qsubtime=t; queue=unics; remote_addres=130.75.6.1;;
392        (*)       printf "\n  +++ hostname \"$remote_host\" not allowed";
393                  locat=parameter; exit;;
[1]394    esac
395 fi
396
397
398    # EVTL. PRUEFEN, OB ANGEGEBENE QUEUE ZULAESSIG IST
399 if [[ $no_default_queue != none ]]
400 then
401    error=false
402    ndq=$no_default_queue
403    case  $remote_host  in
404        (ibm)    case  $ndq  in
405                     (p690_express|p690_standard|p690_long)  error=false;;
406                     (*)                                     error=true;;
407                 esac;;
408        (ibmh)   case  $ndq  in
[312]409                     (no_class)  error=false;;
[1]410                     (*)                                     error=true;;
411                 esac;;
[693]412        (ibmkisti)   case  $ndq  in
413                     (class.32plus|class.1-2|class.2-32)  error=false;;
414                     (*)                                     error=true;;
415                 esac;;
[622]416        (ibmku)  case  $ndq  in
417                     (sdbg1|sdbg2|sdbg4|s4|s16|s32|s32-s)    error=false;;
418                     (*)                                     error=true;;
419                 esac;;
[1]420        (ibms)   case  $ndq  in
421                     (express|normal|p_express|p_normal|p_normal_1.3|p_normal_1.7|grand)     error=false;;
422                     (*)                                     error=true;;
423                 esac;;
424        (ibmy)   case  $ndq  in
425                     (parallel)                              error=false;;
426                     (*)                                     error=true;;
427                 esac;;
[440]428        (lckyoto) case  $ndq  in
429                     (eh|ph)                                 error=false;;
430                     (*)                                     error=true;;
431                 esac;;
[191]432        (lcsgib|lcsgih)   case  $ndq  in
[416]433                     (testq|serialq|smallq|mediumq|bigq|workq|dataq|permq|special1q)       error=false;;
[191]434                     (*)                                     error=true;;
435                 esac;;
[1]436        (lctit)  case  $ndq  in
[635]437                     (G|L128|L256|L512H|S|S96|V)             error=false;;
[1]438                     (*)                                     error=true;;
439                 esac;;
440        (t3eb)   case  $ndq  in
441                     (berte|p50|p100|p392|forfree|p25himem)  error=false;;
442                     (*)    error=true;;
443                 esac;;
[251]444        (necriam) case  $ndq  in
[253]445                     (SP|SS|P6)  error=false;;
[251]446                     (*)    error=true;;
447                 esac;;
[1]448        (t3eh)   case  $ndq  in
449                     (para_t3e|em|k|l|lm|comp_t3e|c|p|ht)  error=false;;
450                     (*)    error=true;;
451                 esac;;
452        (t3ej2|t3ej5)  case  $ndq  in
453                     (low|normal|high)  error=false;;
454                     (*)    error=true;;
455                 esac;;
456        (t3es)  case  $ndq  in
457                     (batch|serial-4|pe4|p48|pe16|pe32|pe64|pe128)  error=false;;
458                     (*)    error=true;;
459                 esac;;
460        (unics)  case  $ndq  in
461                     (unics|ht)  error=false;;
462                     (*)         error=true;;
463                 esac;;
464    esac
465    if [[ $error = true ]]
466    then
467       printf "\n  +++ queue \"$no_default_queue\" on host \"$remote_host\" not allowed"
468       locat=parameter; exit
469    else
470       queue=$no_default_queue
471    fi
472 fi
473
474
475
476    # PRUEFEN DER CPU-ZEIT, ZEIT NACH STUNDEN, MINUTEN UND SEKUNDEN
477    # AUFTEILEN
478 done=false
479 while [[ $done = false ]]
480 do
481    if (( $cputime <= 0 ))
482    then
483       printf "\n  +++ wrong cpu-time or cpu-time missing"
484       printf "\n  >>> Please type cpu-time in seconds as INTEGER:"
485       printf "\n  >>> "
486       read  cputime  1>/dev/null  2>&1
487    else
488       done=true
489    fi
490 done
491 if [[ $remote_host = nech ]]
492 then
493    if (( tasks_per_node != 0 ))
494    then
495       (( cputime = cputime * tasks_per_node ))
496    elif [[ $numprocs != 0 ]]
497    then
498       (( cputime = cputime * numprocs ))
499    fi
500 fi
501 (( stunden  = cputime / 3600 ))
502 (( resttime = cputime - stunden * 3600 ))
503 (( minuten  = resttime / 60 ))
504 (( sekunden = resttime - minuten * 60 ))
505 timestring=${stunden}:${minuten}:${sekunden}
506
507
508
509    # PRUEFEN DER KERNSPEICHERANFORDERUNG
510 done=false
511 while [[ $done = false ]]
512 do
513    if (( memory <= 0 ))
514    then
515       printf "\n  +++ wrong memory demand or memory demand missing"
516       printf "\n  >>> Please type memory in  MByte per process  as INTEGER:"
517       printf "\n  >>> "
518       read  memory  1>/dev/null  2>&1
519    else
520       done=true
521    fi
522 done
523
[251]524 if [[ $remote_host = nech  ||  $remote_host = necriam ]]
[1]525 then
526    if (( tasks_per_node != 0 ))
527    then
528       (( Memory = memory * tasks_per_node / 1000 ))
529    elif [[ $numprocs != 0 ]]
530    then
531       (( Memory = memory * numprocs / 1000 ))
532    else
533       (( Memory = memory / 1000 ))
534    fi
[635]535 elif [[ $remote_host = lctit ]]
536 then
537    (( Memory = memory * tasks_per_node / 1000 ))
[1]538 fi
539
540
541    # SPEICHERBERECHNUNG BEI OPENMP-NUTZUNG
542 if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
543 then
544    (( memory = memory * threads_per_task ))
545 fi
546
547
548    # BERECHNUNG DER ANZAHL DER ZU VERWENDENDEN KNOTEN
549 if (( tasks_per_node != 0 ))
550 then
[622]551    (( nodes = numprocs / ( tasks_per_node * threads_per_task ) ))
[1]552 fi
553
[622]554    # Calculate number of processes per node
555 (( processes_per_node = tasks_per_node * threads_per_task ))
[1]556
[696]557    # Calculate number of MPI tasks
558 (( mpi_tasks = numprocs / threads_per_task ))
[1]559
[696]560
[1]561    # HEADER-AUSGABE
562 if [[ $verify = true ]]
563 then
564    printf "\n\n"
565    printf "#--------------------------------------------------------------# \n"
566    spalte1=SUBJOB;spalte2=$(date)
567    printf "| $spalte1$spalte2 | \n"
568    printf "|                                                              | \n"
569    printf "| values of parameters/options:                                | \n"
570    spalte1=local_host$punkte; spalte2=$punkte$local_host
571    printf "| $spalte1$spalte2 | \n"
572    spalte1=remote_host$punkte; spalte2=$punkte$remote_host
573    printf "| $spalte1$spalte2 | \n"
574    spalte1=queue$punkte; spalte2=$punkte$queue
575    printf "| $spalte1$spalte2 | \n"
576    spalte1=memory$punkte; spalte2="$punkte$memory mb"
577    printf "| $spalte1$spalte2 | \n"
578    spalte1=cputime$punkte; spalte2="$punkte$cputime sec"
579    printf "| $spalte1$spalte2 | \n"
580    spalte1=job_name$punkte; spalte2="$punkte$job_name"
581    printf "| $spalte1$spalte2 | \n"
582    printf "#--------------------------------------------------------------# \n\n"
583
584
585       # KONTROLLABFRAGE, OB ALLES O.K.
586    antwort="dummy"
587    while [[ $antwort != y  &&  $antwort != Y  &&  $antwort != n  &&  $antwort != N ]]
588    do
589       read antwort?" >>> continue (y/n) ? "
590    done
591    if [[ $antwort = n  ||  $antwort = N ]]
592    then
593       locat=verify; exit
594    fi
595    printf "\n"
596 fi
597
598
599
600    # ZUFALLSKENNUNG GENERIEREN UND JOBNAMEN AUF ZIELRECHNER BESTIMMEN
601 kennung=$RANDOM
602 job_on_remhost=${job_name}_${kennung}_$local_host
603 job_to_send=job_to_send_$kennung
604 if [[ $delete_dayfile = false ]]
605 then
606    remote_dayfile=${local_host}_${job_name}_result_$kennung
607    local_dayfile=${remote_host}_${job_name}
608 else
609    remote_dayfile=/dev/null
610 fi
611
612
613
[622]614    # Generate the batch job scripts (qsub/msub/LoadLeveler)
[1]615 if [[ $(echo $remote_host | cut -c1-3) = ibm  &&  $numprocs != 0 ]]
616 then
617
[622]618       # General LoadLeveler settings
619    execute_in_shell="#!/bin/ksh"
620    use_shell="# @ shell = /bin/ksh"
621    consumable_memory="ConsumableMemory($memory mb)"
622    class="# @ class = $queue"
623    environment="# @ environment = OMP_NUM_THREADS=$threads_per_task; MP_SHARED_MEMORY=yes"
624    network_to_use="# @ network.mpi = sn_all,shared,us"
625    data_limit="# @ data_limit = 1.76gb"
626    image_size="# @ image_size = 50"
[693]627    wall_clock_limit="# @ wall_clock_limit = ${timestring},$timestring"
[312]628
[693]629    if [[ $email_notification = none ]]
630    then
631       notify_user=""
632    else
633       notify_user="# @ notify_user = $email_notification"
634       if [[ $delete_dayfile = true ]]
635       then
636          notification='# @ notification = never'
637       fi
638    fi
[622]639
[312]640    if [[ $remote_host = ibmh ]]
[1]641    then
[312]642       data_limit=""
643       network_to_use=""
644       class=""
645       environment=""
[693]646    elif [[ $remote_host = ibmkisti ]]
647    then
648       network_to_use="# @ network.MPI = sn_all,shared,US"
649       wall_clock_limit="# @ wall_clock_limit = $timestring"
[696]650       if [[ $threads_per_task = 1 ]]
651       then
652          rset="# @ rset = RSET_MCM_AFFINITY"
653          mcm_affinity_options="# @ mcm_affinity_options = mcm_mem_pref mcm_sni_none mcm_distribute"
654       fi
[693]655       environment=""
656       use_shell=""
657       data_limit=""
658       image_size=""
[622]659    elif [[ $remote_host = ibmku ]]
660    then
661       execute_in_shell="#!/usr/bin/ksh"
662       use_shell="# @ shell = /usr/bin/ksh"
663       consumable_memory=""
664       environment=""
665       network_to_use="# @ network.mpi = sn_all,shared,us"
666       data_limit=""
667       image_size=""
668    elif [[ $remote_host = ibms ]]
669    then
670       network_to_use="# @ network.mpi = csss,shared,us"
671    elif [[ $remote_host = ibmy ]]
672    then
673       consumable_memory=""
674       network_to_use=""
[1]675    fi
676
677    cat > $job_to_send << %%END%%
[622]678$execute_in_shell
679$use_shell
[1]680
681# @ job_type = parallel
[693]682# @ job_name = $job_name
[1]683# @ resources = ConsumableCpus($threads_per_task) $consumable_memory
684# @ output = $remote_dayfile
685# @ error = $remote_dayfile
[693]686$wall_clock_limit
[622]687$image_size
[312]688$class
689$environment
[1]690$network_to_use
691$data_limit
[693]692$rset
693$mcm_affinity_options
[1]694$notification
[693]695$notify_user
[1]696
697%%END%%
698
699    if (( nodes > 0 ))
700    then
701
[693]702       if [[ $remote_host != ibmkisti ]]
703       then
704
705          cat >> $job_to_send << %%END%%
[1]706# @ node = $nodes
[622]707# @ tasks_per_node = $processes_per_node
[1]708# @ node_usage = $node_usage
709# @ queue
710
711%%END%%
712
[693]713       else
714
715          cat >> $job_to_send << %%END%%
[696]716# @ total_tasks = $mpi_tasks
[693]717# @ blocking = unlimited
718# @ queue
719
720%%END%%
721
722       fi
723
[1]724    else
725
726       if [[ $remote_host != ibmy ]]
727       then
728
729          cat >> $job_to_send << %%END%%
730# @ blocking = unlimited
731# @ total_tasks = $numprocs
732# @ node_usage = $node_usage
733# @ queue
734
735%%END%%
736
737       else
738
739          cat >> $job_to_send << %%END%%
740# @ node = 1
741# @ total_tasks = $numprocs
742# @ queue
743
744%%END%%
745
746       fi
747
748    fi
749
[696]750       # workaround because of silly job filter on ibmkisti
751    if [[ $remote_host = ibmkisti  &&  $threads_per_task != 1 ]]
752    then
753       echo  "export OMP_NUM_THREADS=$threads_per_task"  >>  $job_to_send
754    fi
755
[1]756 elif [[ $(echo $remote_host | cut -c1-3) = ibm  &&  $numprocs = 0 ]]
757 then
758
759    cat > $job_to_send << %%END%%
760#!/bin/ksh
761
762# @ job_type = serial
763# @ node_usage = $node_usage
764# @ job_name = palm
765# @ wall_clock_limit = ${timestring},$timestring
766# @ resources = ConsumableCpus(1) ConsumableMemory(1 gb)
767# @ output = $remote_dayfile
768# @ error = $remote_dayfile
[312]769$class
[1]770$notification
771
772# @ queue
773
774%%END%%
775
[108]776 elif [[ $remote_host = lcfimm ]]
777 then
778
779    if [[ $numprocs != 0 ]]
780    then
781       cat > $job_to_send << %%END%%
782#!/bin/ksh
783#PBS -N $job_name
[552]784#PBS -A $project_account
[108]785#PBS -l walltime=$timestring
[622]786#PBS -l nodes=${nodes}:ppn=$processes_per_node
[108]787#PBS -l pmem=${memory}mb
788#PBS -m abe
789#PBS -o $remote_dayfile
790#PBS -j oe
791mpd &
792
793%%END%%
794
[168]795    else
796       cat > $job_to_send << %%END%%
797#!/bin/ksh
798#PBS -N $job_name
[552]799#PBS -A $project_account
[168]800#PBS -l walltime=$timestring
801#PBS -l ncpus=1
802#PBS -l pmem=${memory}mb
803#PBS -m abe
804#PBS -o $remote_dayfile
805#PBS -j oe
806
807%%END%%
808
809    fi
810
[717]811 elif [[ $remote_host = lck || $remote_host = lckordi ]]
[368]812 then
813
814    if [[ $numprocs != 0 ]]
815    then
816       cat > $job_to_send << %%END%%
817#!/bin/ksh
818#PBS -N $job_name
819#PBS -l walltime=$timestring
820#PBS -l ncpus=$numprocs
821#PBS -l pmem=${memory}mb
822#PBS -o $remote_dayfile
823#PBS -j oe
824
825mpd &
826
827%%END%%
828
829    else
830       cat > $job_to_send << %%END%%
831#!/bin/ksh
832#PBS -N $job_name
833#PBS -l walltime=$timestring
834#PBS -l ncpus=1
835#PBS -l pmem=${memory}mb
836#PBS -o $remote_dayfile
837#PBS -j oe
838
839%%END%%
840
841    fi
842
[693]843 elif [[ $remote_host = lcyon ]]
844 then
845
846    if [[ $numprocs != 0 ]]
847    then
848       cat > $job_to_send << %%END%%
849#!/bin/ksh
850#PBS -N $job_name
851#PBS -l walltime=$timestring
852#PBS -l ncpus=$numprocs
853#PBS -l pmem=${memory}mb
854#PBS -o $remote_dayfile
855#PBS -j oe
856
857%%END%%
858
859    else
860       cat > $job_to_send << %%END%%
861#!/bin/ksh
862#PBS -N $job_name
863#PBS -l walltime=$timestring
864#PBS -l ncpus=1
865#PBS -l pmem=${memory}mb
866#PBS -o $remote_dayfile
867#PBS -j oe
868
869%%END%%
870
871    fi
872
[181]873 elif [[ $remote_host = lcsgih  ||  $remote_host = lcsgib ]]
[179]874 then
875
[376]876    if [[ "$sgi_feature" != "" ]]
877    then
878       feature_directive="#PBS -l feature=$sgi_feature"
879    else
880       feature_directive=""
881    fi
[399]882   
[416]883    if [[ $queue = dataq || $queue = permq ]]
[399]884    then
885       feature_directive="#PBS -l feature=data"
886    fi
[376]887
[416]888    if [[ $queue = testq  ||  $queue = workq  ||  $queue = dataq  ||  $queue = permq ||  $queue = serialq  ||  $queue = special1q ]]
[191]889    then
890       queue_directive="#PBS -q $queue"
891    else
892       queue_directive=""
893    fi
894
[352]895    if [[ $email_notification = none ]]
896    then
897       email_directive=""
898    else
899       email_directive="#PBS -M $email_notification"
900    fi
901
[179]902    if [[ $numprocs != 0 ]]
903    then
904       cat > $job_to_send << %%END%%
[181]905#!/bin/bash
[179]906#PBS -N $job_name
907#PBS -l walltime=$timestring
[622]908#PBS -l nodes=$nodes:ppn=${processes_per_node}
[181]909#PBS -l naccesspolicy=$node_usage
[179]910#PBS -o $remote_dayfile
911#PBS -j oe
[376]912$feature_directive
[191]913$queue_directive
[352]914$email_directive
[179]915
[622]916eval \`/sw/swdist/bin/modulesinit\`
917#. /usr/share/modules/init/bash
[493]918$module_calls
[374]919
[181]920echo ld_library_path=\$LD_LIBRARY_PATH
[179]921
922%%END%%
923
924    else
925       cat > $job_to_send << %%END%%
926#PBS -S /bin/bash
927#PBS -N $job_name
928#PBS -l walltime=$timestring
929#PBS -l ncpus=1
930#PBS -o $remote_dayfile
[475]931#PBS -j oe
[400]932$queue_directive
933$email_directive
[179]934
[622]935eval \`/sw/swdist/bin/modulesinit\`
936#. /usr/share/modules/init/bash
[493]937$module_calls
[475]938
[179]939%%END%%
940
941    fi
942
[164]943 elif [[ $remote_host = lcxt4 ]]
944 then
945
946    if [[ $numprocs != 0 ]]
947    then
948       cat > $job_to_send << %%END%%
949#!/bin/ksh
950#PBS -S /bin/ksh
951#PBS -N $job_name
[552]952#PBS -A $project_account
[206]953#PBS -j oe
[164]954#PBS -l walltime=$timestring
955#PBS -l mppwidth=${numprocs}
[622]956#PBS -l mppnppn=${processes_per_node}
[164]957#PBS -m abe
958#PBS -o $remote_dayfile
[492]959$email_directive
[164]960
[343]961. /opt/modules/default/init/ksh
[493]962$module_calls
[343]963
[164]964%%END%%
965
[108]966    else
967       cat > $job_to_send << %%END%%
968#!/bin/ksh
[168]969#PBS -S /bin/ksh
[108]970#PBS -N $job_name
[552]971#PBS -A $project_account
[206]972#PBS -j oe
[108]973#PBS -l walltime=$timestring
974#PBS -l ncpus=1
975#PBS -l pmem=${memory}mb
976#PBS -m abe
[492]977$email_directive
[108]978#PBS -o $remote_dayfile
979
[343]980. /opt/modules/default/init/ksh
[493]981$module_calls
[343]982
[108]983%%END%%
984
985    fi
986
[440]987 elif [[ $remote_host = lckyoto ]]
[437]988 then
989
[440]990       cat > $job_to_send << %%END%%
991#!/bin/ksh
992# @\$-o $remote_dayfile
993# @\$-eo -oi
994# @\$-lP 16
995# @\$-lp 1   
996# @\$-lm 28gb  -llm unlimited -ls unlimited
997# @\$-q $queue
998# @\$-Pvn abs_pack
999##for intel? @\$-Pvn abs_unpack -Pvs unpack -Pvc unpack
1000#. /thin/local/etc/setprofile/intel-11.0.sh
1001#. /thin/local/etc/setprofile/mvapich2-1.4+intel-11.0.sh
1002. ~/.myprofile
1003#. /home2/t/t51254/palm/current_version/myprofile
1004#. /thin/apps/pgi/mpi.sh
1005#
1006env
1007#
1008set -x
1009
1010%%END%%
1011
1012 elif [[ $remote_host = lcxt5m ]]
1013 then
1014
[437]1015    if [[ $numprocs != 0 ]]
1016    then
1017       cat > $job_to_send << %%END%%
1018#!/bin/ksh
1019#PBS -S /bin/ksh
1020#PBS -N $job_name
1021#PBS -j oe
1022#PBS -l walltime=$timestring
1023#PBS -l mppwidth=${numprocs}
[622]1024#PBS -l mppnppn=${processes_per_node}
[437]1025#PBS -m abe
1026#PBS -o $remote_dayfile
1027
1028. /opt/modules/default/init/ksh
[493]1029$module_calls
[437]1030
1031%%END%%
1032
1033    else
1034       cat > $job_to_send << %%END%%
1035#!/bin/ksh
1036#PBS -S /bin/ksh
1037#PBS -N $job_name
1038#PBS -j oe
1039#PBS -l walltime=$timestring
1040#PBS -l ncpus=1
1041#PBS -l pmem=${memory}mb
1042#PBS -m abe
1043#PBS -o $remote_dayfile
1044
1045. /opt/modules/default/init/ksh
[493]1046$module_calls
[437]1047
1048%%END%%
1049
1050    fi
1051
[1]1052 elif [[ $remote_host = nech ]]
1053 then
1054
1055    if (( nodes > 1 ))
1056    then
1057       cat > $job_to_send << %%END%%
1058#!/bin/ksh
[622]1059#PBS -l cpunum_prc=$processes_per_node,cputim_job=$cputime
[1]1060#PBS -l ${qsubmem}=${Memory}gb
1061#PBS -b $nodes
1062#PBS -o $remote_dayfile
1063#PBS -N palm
1064#PBS -j o
1065#PBS -T mpisx
1066
1067%%END%%
1068
1069    elif [[ $numprocs != 0 ]]
1070    then
1071       cat > $job_to_send << %%END%%
1072#!/bin/ksh
[622]1073#PBS -l cpunum_prc=$processes_per_node,cputim_job=$cputime
[1]1074#PBS -l ${qsubmem}=${Memory}gb
1075#PBS -o $remote_dayfile
1076#PBS -N palm
1077#PBS -j o
1078
1079%%END%%
1080
1081    else
1082       cat > $job_to_send << %%END%%
1083#!/bin/ksh
1084#PBS -l ${qsubmem}=${Memory}gb,${qsubtime}=$cputime
1085#PBS -o $remote_dayfile
1086#PBS -j o
1087
1088%%END%%
1089
1090    fi
1091
[251]1092 elif [[ $remote_host = necriam ]]
[35]1093 then
1094
1095    if (( nodes > 1 ))
1096    then
1097       cat > $job_to_send << %%END%%
1098#!/bin/ksh
1099#PBS -b $nodes
1100#PBS -o $remote_dayfile
[253]1101#PBS -N $job_name
[35]1102#PBS -j o
[251]1103#PBS -v MPIPROGINV=YES
[35]1104
1105%%END%%
1106
1107    elif [[ $numprocs != 0 ]]
1108    then
1109       cat > $job_to_send << %%END%%
1110#!/bin/ksh
1111#PBS -q ${queue}
1112#PBS -o $remote_dayfile
[253]1113#PBS -N $job_name
[35]1114#PBS -j o
[251]1115#PBS -v MPIPROGINV=YES
[35]1116
1117%%END%%
1118
1119    else
1120       cat > $job_to_send << %%END%%
1121#!/bin/ksh
1122#PBS -o $remote_dayfile
1123#PBS -j o
1124
1125%%END%%
1126
1127    fi
1128
[1]1129 elif [[ $remote_host = lctit ]]
1130 then
1131    cat > $job_to_send << %%END%%
[635]1132#!/bin/ksh
[1]1133
[678]1134$module_calls
1135
[1]1136%%END%%
1137
1138       # OPTIONEN FUER SUBMIT-KOMMANDO ZUSAMMENSTELLEN
[678]1139    if [[ $tasks_per_node != $processes_per_node ]]
1140    then
1141       submcom="$submcom -W group_list=$group_number -N $job_name -l walltime=$timestring -l select=$nodes:ncpus=$processes_per_node:mpiprocs=$tasks_per_node:mem=${Memory}gb -o $remote_dayfile -j oe -q $queue "
1142    else
1143       submcom="$submcom -W group_list=$group_number -N $job_name -l walltime=$timestring -l select=$nodes:ncpus=$processes_per_node:mpiprocs=$tasks_per_node:mem=${Memory}gb -l place=scatter -o $remote_dayfile -j oe -q $queue "
1144    fi
[1]1145
1146 else
1147
1148    cat > $job_to_send << %%END%%
1149# @\$-q ${queue}
1150# @\$-l${qsubtime} $timestring
1151# @\$-l${qsubmem} ${memory}mb
1152# @\$-o $remote_dayfile
1153# @\$-eo
1154
1155%%END%%
1156
1157 fi
1158
1159
1160    # BEI RECHNUNG AUF REMOTE-MASCHINEN RUECKTRANSFER DES DAYFILES PER TRAP
1161    # BEI EXIT VERANLASSEN
1162    # VEKTORRECHNER MUSS EIGENEN JOB STARTEN, DA DORT NOHUP NICHT FUNKTIONIERT
1163    # AUF IBM IN SEOUL IST RUECKTRANSFER ZUR ZEIT GENERELL NICHT MOEGLICH
1164 if [[ $delete_dayfile = false  &&  $remote_host != $local_host ]]
1165 then
1166    echo "set +vx"                              >>  $job_to_send
1167    echo "trap '"                               >>  $job_to_send
1168    echo "set +vx"                              >>  $job_to_send
[635]1169    if [[ $(echo $remote_host | cut -c1-3) = ibm  ||  $(echo $remote_host | cut -c1-5) = lcsgi  ||  $(echo $remote_host | cut -c1-3) = nec ]]
[1]1170    then
[622]1171       if [[ $remote_host = ibmh ]]
[1]1172       then
1173          return_queue=c1
[693]1174       elif [[ $remote_host = ibmkisti ]]
1175       then
1176          return_queue=class.1-2
[622]1177       elif [[ $remote_host = ibmku ]]
1178       then
1179          return_queue=sdbg2
[1]1180       elif [[ $remote_host = ibms ]]
1181       then
1182          return_queue=p_normal
1183       elif [[ $remote_host = ibmy ]]
1184       then
1185          return_queue=serial
[325]1186       elif [[ $remote_host = lcsgih  ||  $remote_host = lcsgib ]]
1187       then
[326]1188          return_queue=serialq
[251]1189       elif [[ $remote_host = necriam ]]
[1]1190       then
[253]1191          return_queue=SP
[1]1192       else
1193          return_queue=unknown
1194       fi
1195
1196       if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
1197       then
1198
[622]1199          if [[ $remote_host = ibmku ]]
1200          then
1201             echo "echo \"#!/usr/bin/ksh\" >> scpjob.$kennung"            >>  $job_to_send
1202             echo "echo \"# @ shell = /usr/bin/ksh\" >> scpjob.$kennung"  >>  $job_to_send
1203          else
1204             echo "echo \"#!/bin/ksh\" >> scpjob.$kennung"                >>  $job_to_send
1205          fi
[1]1206          echo "echo \"# @ job_type = serial\" >> scpjob.$kennung"    >>  $job_to_send
1207          echo "echo \"# @ job_name = transfer\" >> scpjob.$kennung"  >>  $job_to_send
1208          echo "echo \"# @ resources = ConsumableCpus(1) ConsumableMemory(1 gb)\" >> scpjob.$kennung"  >>  $job_to_send
1209          echo "echo \"# @ wall_clock_limit = 00:10:00,00:10:00\" >> scpjob.$kennung "  >>  $job_to_send
1210          echo "echo \"# @ output = job_queue/last_job_transfer_protocol\" >> scpjob.$kennung"  >>  $job_to_send
1211          echo "echo \"# @ error = job_queue/last_job_transfer_protocol\" >> scpjob.$kennung"  >>  $job_to_send
[312]1212          if [[ $host != "ibmh" ]]
1213          then
1214             echo "echo \"# @ class = $return_queue\" >> scpjob.$kennung"  >>  $job_to_send
1215          fi
[1]1216          echo "echo \"# @ image_size = 10\" >> scpjob.$kennung"      >>  $job_to_send
1217          echo "echo \"# @ notification = never\" >> scpjob.$kennung" >>  $job_to_send
1218
1219          echo "echo \"# @ queue\" >> scpjob.$kennung"                >>  $job_to_send
1220          echo "echo \" \" >> scpjob.$kennung"                        >>  $job_to_send
1221
1222          echo "echo \"set -x\" >> scpjob.$kennung"                   >>  $job_to_send
1223          echo "echo \"batch_scp  -d  -w 10  -u $local_user  $local_addres  ${job_catalog}/$remote_dayfile  \\\"$job_catalog\\\"  $local_dayfile\" >> scpjob.$kennung"  >>  $job_to_send
[622]1224          if [[ $remote_host = ibmku ]]
1225          then
1226             echo "echo \"rm  scpjob.$kennung\" >> scpjob.$kennung"   >>  $job_to_send
1227          fi
[1]1228          echo "echo \"exit\" >> scpjob.$kennung"                     >>  $job_to_send
1229
1230       elif [[ $remote_host = nech ]]
1231       then
1232          echo "cd /pf/b/${remote_user}/job_queue" >>  $job_to_send
1233          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1234          echo "#PBS -l ${qsubmem}=1GB,${qsubtime}=100"  >>  $job_to_send
1235          echo "#PBS -o last_job_transfer_protocol"      >>  $job_to_send
1236          echo "#PBS -j o"                         >>  $job_to_send
1237          echo " "                                 >>  $job_to_send
1238          echo "set -x"                            >>  $job_to_send
1239          echo "cd /pf/b/${remote_user}/job_queue" >>  $job_to_send
1240          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  $remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1241          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1242          echo "%%END%%"                           >>  $job_to_send
1243
[251]1244       elif [[ $remote_host = necriam ]]
[35]1245       then
1246          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1247          echo "#PBS -q $return_queue"             >>  $job_to_send
1248          echo "#PBS -o last_job_transfer_protocol"      >>  $job_to_send
1249          echo "#PBS -j o"                         >>  $job_to_send
1250          echo " "                                 >>  $job_to_send
1251          echo "set -x"                            >>  $job_to_send
1252          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  $remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1253          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1254          echo "%%END%%"                           >>  $job_to_send
1255
[181]1256       elif [[ $(echo $remote_host | cut -c1-5) = lcsgi ]]
1257       then
1258          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1259          echo "#!/bin/bash"                             >>  $job_to_send
1260          echo "#PBS -N job_protocol_transfer"           >>  $job_to_send
[325]1261          echo "#PBS -l walltime=00:30:00"               >>  $job_to_send
[181]1262          echo "#PBS -l nodes=1:ppn=1"                   >>  $job_to_send
[366]1263          echo "#PBS -l feature=data"                    >>  $job_to_send
[181]1264          echo "#PBS -o \$HOME/job_queue/last_job_transfer_protocol"      >>  $job_to_send
1265          echo "#PBS -j oe"                        >>  $job_to_send
1266          echo " "                                 >>  $job_to_send
1267          echo ". /usr/share/modules/init/bash"    >>  $job_to_send
1268          echo "set -x"                            >>  $job_to_send
1269          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1270          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1271          echo "%%END%%"                           >>  $job_to_send
1272
[1]1273       else
1274
1275          echo "cat > scpjob.$kennung << %%END%%"  >>  $job_to_send
1276          echo "# @\\\$-q $return_queue"           >>  $job_to_send
1277          echo "# @\\\$-l${qsubtime} 10"           >>  $job_to_send
1278          echo "# @\\\$-l${qsubmem} 10mb"          >>  $job_to_send
1279          if [[ $remote_host = t3ej2  ||  $remote_host = t3ej5  ||  $remote_host = t3es ]]
1280          then
1281             echo "# @\$-l mpp_p=0"                >>  $job_to_send
1282          fi
1283          echo '# @\$-lF 10mb'                     >>  $job_to_send
1284#          echo '# @\$-o /dev/null'                 >>  $job_to_send
1285          echo '# @\$-o job_queue/last_job_transfer_protocol'    >>  $job_to_send
1286          echo '# @\\\$-eo'                          >>  $job_to_send
1287          echo " "                                 >>  $job_to_send
1288          if [[ $remote_host = t3ej2  ||  $remote_host = t3ej5 ]]
1289          then
1290             echo "set +vx"                        >>  $job_to_send
1291             echo ". .profile"                     >>  $job_to_send
1292          fi
1293          echo "set -x"                            >>  $job_to_send
1294          echo "batch_scp  -d  -w 10  -u $local_user $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile  >  /dev/null"  >>  $job_to_send
1295          echo "[[ \"\$for_subjob_to_do\" != \"\" ]]  &&  eval \$for_subjob_to_do"  >>  $job_to_send
1296          echo "%%END%%"                           >>  $job_to_send
1297       fi
1298
1299       if [[ $(echo $remote_host | cut -c1-3) = ibm ]]
1300       then
1301          echo "llsubmit  scpjob.$kennung"      >>  $job_to_send
[181]1302       elif [[ $(echo $remote_host | cut -c1-5) = lcsgi ]]
1303       then
1304          echo "chmod  u+x  scpjob.$kennung"    >>  $job_to_send
1305          echo "msub  scpjob.$kennung"          >>  $job_to_send
[1]1306       elif [[ $remote_host = t3eb  ||  $remote_host = t3eh  ||  $remote_host = t3ej2  ||  $remote_host = t3ej5 ]]
1307       then
1308          echo "qsub -J n  scpjob.$kennung"     >>  $job_to_send
1309       elif [[ $remote_host = t3es ]]
1310       then
1311          echo "qsub -J n  -s /bin/ksh  scpjob.$kennung"     >>  $job_to_send
1312       else
1313          echo "qsub  scpjob.$kennung"          >>  $job_to_send
1314       fi
[622]1315       if [[ $remote_host != ibmku ]]
1316       then
1317          echo "rm  scpjob.$kennung"            >>  $job_to_send
1318       fi
[1]1319       if [[ $remote_host = nech ]]
1320       then
1321          echo "cd -"                           >>  $job_to_send
1322       fi
1323    else
1324#       echo "ftpcopy  -d  $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile"  >>  $job_to_send
1325       echo "nohup  ftpcopy  -d  -w 15  $local_addres  ${job_catalog}/$remote_dayfile  \"$job_catalog\"  $local_dayfile  >  /dev/null  &"  >>  $job_to_send
1326    fi
1327    echo "set -x"                               >>  $job_to_send
1328    echo "     ' exit"                          >>  $job_to_send
1329    echo "set -x"                               >>  $job_to_send
1330 fi
1331
1332
1333
1334    # EIGENTLICHE JOB-DATEI AN QSUB-KOMMANDOS ANHAENGEN
1335 cat  $file_to_send  >>  $job_to_send
[69]1336
[1]1337 if [[ $remote_host = ibm ]]
1338 then
1339    echo " "         >>  $job_to_send
1340    echo "exit"      >>  $job_to_send
1341 fi
[635]1342
1343    # remove job file
[622]1344 if [[ $remote_host = lctit  ||  $remote_host = ibmku ]]
[69]1345 then
1346    echo " "                               >>  $job_to_send
1347    echo "rm ~/job_queue/$job_on_remhost"  >>  $job_to_send
1348 fi
[1]1349
1350
1351
1352    # USER-NAME AUF ZIELRECHNER AUS .NETRC-DATEI ERMITTELN
1353 if [[ -z $remote_user ]]
1354 then
1355    if [[ $remote_host = t3eb  ||  $remote_host = t3eh  ||  $remote_host = t3ej2  ||  $remote_host = t3ej5  ||  $remote_host = t3es  ||  $remote_host = vpp ]]
1356    then
1357       grep  $remote_addres  ~/.netrc | read dum dum dum remote_user dum dum
1358    fi
1359 fi
1360
1361
1362
1363    # JOB AUF ZIELRECHNER TRANSFERIEREN BZW. INS JOBVERZEICHNIS KOPIEREN
1364 if [[ $no_submit = false ]]
1365 then
1366    if [[ $remote_host != $local_host ]]
1367    then
1368       [[ $verify = true ]]  &&  printf "\n >>> transfering job to \"$remote_host\"..."
[82]1369       if [[ $remote_host = ibms  ||  $remote_host = ibmy ]]    # ssh on ibms cannot handle "~/"
[1]1370       then
[82]1371          job_catalog_save=$job_catalog
1372          job_catalog=job_queue
1373       elif [[ $remote_host = nech ]]
1374       then
1375          job_catalog_save=$job_catalog
1376          job_catalog=/hpf/b/${remote_user}/job_queue
1377       fi
1378       if [[ $local_host = decalpha ]]
1379       then
1380             # VERWENDUNG VON SCP AUF DECALPHA FRAGT FEHLERHAFTERWEISE
1381             # PASSWORT AB
1382          /bin/scp  $job_to_send  ${remote_user}@${remote_addres}:${job_catalog}/$job_on_remhost
1383       elif [[ $remote_host = nech ]]
1384       then
1385             # DATEIEN KOENNEN NUR UEBER DEN ARCHIVE-SERVER DES DKRZ
1386             # TRANSFERIERT WERDEN
1387          scp  $job_to_send  ${remote_user}@136.172.44.205:${job_catalog}/$job_on_remhost
[1]1388       else
[82]1389          scp  $job_to_send  ${remote_user}@${remote_addres}:${job_catalog}/$job_on_remhost
[1]1390       fi
[82]1391       if [[ $? = 1 ]]
1392       then
1393          locat=scp; exit
1394       fi
1395       if [[ $remote_host = ibms ]]
1396       then
1397          job_catalog=$job_catalog_save
1398       fi
[1]1399       [[ $verify = true ]]  &&  printf "\n >>> finished\n"
1400    else
1401       eval  job_catalog=$job_catalog
1402       cp  $job_to_send  ${job_catalog}/$job_on_remhost
1403    fi
1404
1405
1406
1407       # NQS- BZW. LOADLEVELER-JOB STARTEN
1408    if [[ $remote_host != $local_host ]]
1409    then
1410       [[ $verify = true ]]  &&  printf "\n >>> submitting job using \"qsub\"...\n"
[635]1411
1412       if [[ $(echo $remote_host | cut -c1-5) = lcsgi  &&  $prio = true ]]
[1]1413       then
[635]1414          printf "\n >>> submit with HLRN qos-feature hiprio...\n"
1415          ssh  $remote_addres  -l $remote_user  "cd $job_catalog; $submcom -l qos=hiprio $job_on_remhost; rm $job_on_remhost"
1416       elif [[ $remote_host = ibmku ]]
1417       then
1418          ssh  $remote_addres  -l $remote_user  "cd $job_catalog; $submcom $job_on_remhost"
[1]1419       else
[635]1420          ssh  $remote_addres  -l $remote_user  "cd $job_catalog; $submcom $job_on_remhost; rm $job_on_remhost"
[82]1421       fi
[1]1422
1423       [[ $verify = true ]]  &&  printf " >>> o.k.\n"
1424    else
1425       cd  $job_catalog
[210]1426       if [[ $(echo $local_host | cut -c1-5) = lcsgi  ||  $(echo $local_host | cut -c1-3) = ibm ]]
[1]1427       then
1428          eval  $submcom  $job_on_remhost
[717]1429       elif [[  $local_host = lcfimm  ||  $local_host = lctit  ||  $localhost = lcxt4  ||  $localhost = lck  || $localhost = lckordi||  $localhost = lcyon ]]
[108]1430       then
[635]1431          chmod  u+x  $job_on_remhost
1432          echo "$submcom  $job_on_remhost"
[108]1433          eval  $submcom  $job_on_remhost
[1]1434       elif [[ $local_host = nech ]]
1435       then
1436          if [[ $queue = default ]]
1437          then
1438             eval  $submcom  $job_on_remhost 
1439          else
1440             eval  $submcom  -q $queue  $job_on_remhost 
1441          fi
1442       else
1443          qsub  $job_on_remhost
1444       fi
[622]1445
1446          # Jobfile must not be deleted on lctit/ibmku!! This will be done
1447          # only at the end of the job.
1448       if [[ $local_host != lctit  &&  $local_host != ibmku ]]
1449       then
1450          rm  $job_on_remhost
1451       fi
[1]1452       cd  -  > /dev/null
1453    fi
1454 fi
1455
1456
1457
1458    # ABSCHLUSSARBEITEN
1459
1460 if [[ $no_submit = false ]]
1461 then
1462    rm  $job_to_send
1463 fi
1464 [[ $verify = true ]]  &&  printf "\n\n *** SUBJOB finished \n\n"
Note: See TracBrowser for help on using the repository browser.