b09c041a57d667a083edb652061d0f4b50f3cf31
[occt.git] / src / DrawResources / TestCommands.tcl
1 # Copyright (c) 2012 OPEN CASCADE SAS
2 #
3 # The content of this file is subject to the Open CASCADE Technology Public
4 # License Version 6.5 (the "License"). You may not use the content of this file
5 # except in compliance with the License. Please obtain a copy of the License
6 # at http://www.opencascade.org and read it completely before using this file.
7 #
8 # The Initial Developer of the Original Code is Open CASCADE S.A.S., having its
9 # main offices at: 1, place des Freres Montgolfier, 78280 Guyancourt, France.
10 #
11 # The Original Code and all software distributed under the License is
12 # distributed on an "AS IS" basis, without warranty of any kind, and the
13 # Initial Developer hereby disclaims all such warranties, including without
14 # limitation, any warranties of merchantability, fitness for a particular
15 # purpose or non-infringement. Please see the License for the specific terms
16 # and conditions governing the rights and limitations under the License.
17
18 ############################################################################
19 # This file defines scripts for execution of OCCT tests.
20 # It should be loaded automatically when DRAW is started, and provides
21 # three top-level commands: 'test', 'testgrid', and 'testdiff'.
22 # See OCCT Tests User Guide for description of the test system.
23 #
24 # Note: procedures with names starting with underscore are for internal use 
25 # inside the test system.
26 ############################################################################
27
28 # Default verbose level for command _run_test
29 set _tests_verbose 0
30
31 # regexp for parsing test case results in summary log
32 set _test_case_regexp {^CASE\s+([\w.-]+)\s+([\w.-]+)\s+([\w.-]+)\s*:\s*([\w]+)(.*)}
33
34 # Basic command to run indicated test case in DRAW
35 help test {Run specified test case
36     Use: test group grid casename [echo=0]
37     - If echo is set to 0 (default), log is stored in memory and only summary
38       is output (the log can be obtained with command \'dlog get\')
39     - If echo is set to 1, all commands and results are echoed immediately,
40       thus log is not saved and summary is not produced}
41 proc test {group grid casename {echo 0}} {
42     # get test case paths (will raise error if input is invalid)
43     _get_test $group $grid $casename dir gridname casefile
44
45     # run test
46     uplevel _run_test $dir $group $gridname $casefile $echo
47
48     # check log
49     if { ! $echo } {
50         _check_log $dir $group $gridname $casename [dlog get]
51     }
52
53     return
54 }
55
56 # Basic command to run indicated test case in DRAW
57 help testgrid {Run all tests, or specified group, or one grid
58     Use: testgrid logdir [group [grid]] [options...]
59     Log directory should be empty (or non-existing)
60     Allowed options are:
61     -parallel N: run in parallel mode with up to N processes (default 0)
62     -refresh N: save summary logs every N seconds (default 60, minimal 1, 0 to disable)
63     -overwrite: force writing logs in existing non-empty directory
64     -xml filename: write XML report for Jenkins (in JUnit-like format)
65 }
66 proc testgrid {logdir args} {
67     global env tcl_platform _tests_verbose
68
69     ######################################################
70     # check arguments
71     ######################################################
72
73     # check that environment variable defining paths to test scripts is defined
74     if { ! [info exists env(CSF_TestScriptsPath)] || 
75          [llength $env(CSF_TestScriptsPath)] <= 0 } {
76         error "Error: Environment variable CSF_TestScriptsPath is not defined"
77     }
78
79     # treat options
80     set parallel 0
81     set refresh 60
82     set overwrite 0
83     set xmlfile ""
84     for {set narg 0} {$narg < [llength $args]} {incr narg} {
85         set arg [lindex $args $narg]
86
87         # parallel execution
88         if { $arg == "-parallel" } {
89             incr narg
90             if { $narg < [llength $args] } { 
91                 set parallel [expr [lindex $args $narg]]
92             } else {
93                 set parallel 2
94             }
95             continue
96         }
97
98         # refresh logs time
99         if { $arg == "-refresh" } {
100             incr narg
101             if { $narg < [llength $args] } { 
102                 set refresh [expr [lindex $args $narg]]
103             } else {
104                 set refresh 10
105             }
106             continue
107         }
108
109         # allow overwrite logs 
110         if { $arg == "-overwrite" } {
111             set overwrite 1
112             continue
113         }
114
115         # refresh logs time
116         if { $arg == "-xml" } {
117             incr narg
118             if { $narg < [llength $args] } { 
119                 set xmlfile [lindex $args $narg]
120             }
121             if { $xmlfile == "" } {
122                 set xmlfile TESTS-summary.xml
123             }
124             continue
125         }
126
127         # unsupported option
128         if { [regexp {^-} $arg] } {
129             error "Error: unsupported option \"$arg\""
130         }
131
132         # treat arguments not recognized as options as group and grid names
133         if { ! [info exists groupname] } {
134             set groupname $arg
135         } elseif { ! [info exists gridname] } {
136             set gridname $arg
137         } else {
138             error "Error: cannot interpret argument $narg ($arg): both group and grid names are already defined by previous args!"
139         }
140     }
141
142     # check that target log directory is empty or does not exist
143     set logdir [file normalize [string trim $logdir]]
144     if { $logdir == "" } {
145         # if specified logdir is empty string, generate unique name like "results_2010-12-31T23:59:59"
146         set logdir "results_[clock format [clock seconds] -format {%Y-%m-%dT%H%M}]"
147         set logdir [file normalize $logdir]
148     }
149     if { [file isdirectory $logdir] && ! $overwrite && ! [catch {glob -directory $logdir *}] } {
150         error "Error: Specified log directory \"$logdir\" is not empty; please clean it before running tests"
151     } 
152     if { [catch {file mkdir $logdir}] || ! [file writable $logdir] } {
153         error "Error: Cannot create directory \"$logdir\", or it is not writable"
154     }
155
156     ######################################################
157     # prepare list of tests to be performed
158     ######################################################
159
160     # list of tests, each defined by a list of:
161     # test scripts directory
162     # group (subfolder) name
163     # grid (subfolder) name
164     # test case name
165     # path to test case file
166     set tests_list {}
167
168     # iterate by all script paths
169     foreach dir [_split_path $env(CSF_TestScriptsPath)] {
170         # protection against empty paths
171         set dir [string trim $dir]
172         if { $dir == "" } { continue }
173
174         if { $_tests_verbose > 0 } { _log_and_puts log "Examining tests directory $dir" }
175
176         # check that directory exists
177         if { ! [file isdirectory $dir] } {
178             _log_and_puts log "Warning: directory $dir listed in CSF_TestScriptsPath does not exist, skipped"
179             continue
180         }
181
182         # if test group is specified, check that directory with given name exists in this dir
183         # if not, continue to the next test dir
184         if { [info exists groupname] && $groupname != "" } {
185             if { [file isdirectory $dir/$groupname] } { 
186                 set groups $groupname
187             } else {
188                 continue 
189             }
190         } else {
191             # else search all directories in the current dir
192             if [catch {glob -directory $dir -tail -types d *} groups] { continue }
193         }
194
195         # iterate by groups
196         if { $_tests_verbose > 0 } { _log_and_puts log "Groups to be executed: $groups" }
197         foreach group [lsort -dictionary $groups] {
198             if { $_tests_verbose > 0 } { _log_and_puts log "Examining group directory $group" }
199
200             # file grids.list must exist: it defines sequence of grids in the group
201             if { ! [file exists $dir/$group/grids.list] } {
202                 _log_and_puts log "Warning: directory $dir/$group does not contain file grids.list, skipped"
203                 continue
204             }
205
206             # read grids.list file and make a list of grids to be executed
207             set gridlist {}
208             set fd [open $dir/$group/grids.list]
209             set nline 0
210             while { [gets $fd line] >= 0 } {
211                 incr nline
212
213                 # skip comments and empty lines
214                 if { [regexp "\[ \t\]*\#.*" $line] } { continue }
215                 if { [string trim $line] == "" } { continue }
216
217                 # get grid id and name
218                 if { ! [regexp "^\(\[0-9\]+\)\[ \t\]*\(\[A-Za-z0-9_.-\]+\)\$" $line res gridid grid] } {
219                     _log_and_puts log "Warning: cannot recognize line $nline in file $dir/$group/grids.list as \"gridid gridname\"; ignored"
220                     continue
221                 }
222                 
223                 # if specific grid is requested, check that it is present; otherwise make complete list
224                 if { ! [info exists gridname] || $gridname == "" || $gridname == $gridid || $gridname == $grid } {
225                     lappend gridlist $grid
226                 }
227             }
228             close $fd
229             
230             # iterate by all grids
231             foreach grid $gridlist {
232
233                 # check if this grid is aliased to another one
234                 set griddir $dir/$group/$grid
235                 if { [file exists $griddir/cases.list] } {
236                     set fd [open $griddir/cases.list]
237                     if { [gets $fd line] >= 0 } {
238                         set griddir [file normalize $dir/$group/$grid/[string trim $line]]
239                     }
240                     close $fd
241                 }
242
243                 # check if grid directory actually exists
244                 if { ! [file isdirectory $griddir] } { 
245                     _log_and_puts log "Error: tests directory for grid $grid ($griddir) is missing; skipped"
246                     continue 
247                 }
248
249                 # create directory for logging test results
250                 if { $logdir != "" } { file mkdir $logdir/$group/$grid }
251
252                 # iterate by all tests in the grid directory
253                 if { [catch {glob -directory $griddir -type f *} testfiles] } { continue }
254                 foreach casefile [lsort -dictionary $testfiles] {
255                     # filter out begin and end files
256                     set casename [file tail $casefile]
257                     if { $casename == "begin" || $casename == "end" } { continue }
258
259                     lappend tests_list [list $dir $group $grid $casename $casefile]
260                 }
261             }
262         }
263     }
264     if { [llength $tests_list] < 1 } {
265         error "Error: no tests are found, check you input arguments and variable CSF_TestScriptsPath!"
266     }
267
268     ######################################################
269     # run tests
270     ######################################################
271     
272     # log command arguments and environment
273     set log "Command: testgrid $args\nHost: [info hostname]\nStarted on: [clock format [clock seconds] -format {%Y-%m-%d %H:%M:%S}]\n"
274     set log "$log\nEnvironment:\n"
275     foreach envar [array names env] {
276         set log "$log$envar=\"$env($envar)\"\n"
277     }
278     set log "$log\n"
279
280     set refresh_timer [clock seconds]
281     uplevel dchrono _timer reset
282     uplevel dchrono _timer start
283
284     # if parallel execution is requested, allocate thread pool
285     if { $parallel > 0 } {
286         if { ! [info exists tcl_platform(threaded)] || [catch {package require Thread}] } {
287             _log_and_puts log "Warning: Tcl package Thread is not available, running in sequential mode"
288             set parallel 0
289         } else {
290             set worker [tpool::create -minworkers $parallel -maxworkers $parallel]
291             # suspend the pool until all jobs are posted, to prevent blocking of the process
292             # of starting / processing jobs by running threads
293             tpool::suspend $worker
294             if { $_tests_verbose > 0 } { _log_and_puts log "Executing tests in (up to) $parallel threads" }
295         }
296     }
297
298     # start test cases
299     foreach test_def $tests_list {
300         set dir       [lindex $test_def 0]
301         set group     [lindex $test_def 1]
302         set grid      [lindex $test_def 2]
303         set casename  [lindex $test_def 3]
304         set casefile  [lindex $test_def 4]
305
306         # command to set tests for generation of image in results directory
307         set imgdir_cmd ""
308         if { $logdir != "" } { set imgdir_cmd "set imagedir $logdir/$group/$grid" }
309
310         # prepare command file for running test case in separate instance of DRAW
311         set fd_cmd [open $logdir/$group/$grid/${casename}.tcl w]
312         puts $fd_cmd "$imgdir_cmd"
313         puts $fd_cmd "set test_image $casename"
314         puts $fd_cmd "_run_test $dir $group $grid $casefile 1"
315
316         # use dlog command to obtain complete output of the test when it is absent (i.e. since OCCT 6.6.0)
317         # note: this is not needed if echo is set to 1 in call to _run_test above
318         if { ! [catch {dlog get}] } {
319             puts $fd_cmd "puts \[dlog get\]"
320         } else {
321             # else try to use old-style QA_ variables to get more output...
322             set env(QA_DUMP) 1
323             set env(QA_DUP) 1
324             set env(QA_print_command) 1
325         }
326
327         # final 'exit' is needed when running on Linux under VirtualGl
328         puts $fd_cmd "exit"
329         close $fd_cmd
330
331         # commant to run DRAW with a command file;
332         # note that empty string is passed as standard input to avoid possible 
333         # hang-ups due to waiting for stdin of the launching process
334         set command "exec <<{} DRAWEXE -f $logdir/$group/$grid/${casename}.tcl"
335
336         # alternative method to run without temporary file; disabled as it needs too many backslashes
337 #       else {
338 #           set command "exec <<\"\" DRAWEXE -c $imgdir_cmd\\\; set test_image $casename\\\; \
339 #                        _run_test $dir $group $grid $casefile\\\; \
340 #                        puts \\\[dlog get\\\]\\\; exit"
341 #       }
342
343         # run test case, either in parallel or sequentially
344         if { $parallel > 0 } {
345             # parallel execution
346             set job [tpool::post -nowait $worker "catch \"$command\" output; return \$output"]
347             set job_def($job) [list $logdir $dir $group $grid $casename]
348         } else {
349             # sequential execution
350             catch {eval $command} output
351             _log_test_case $output $logdir $dir $group $grid $casename log
352
353             # update summary log with requested period
354             if { $logdir != "" && $refresh > 0 && [expr [clock seconds] - $refresh_timer > $refresh] } {
355                 # update and dump summary
356                 _log_summarize $logdir $log
357                 set refresh_timer [clock seconds]
358             }
359         }
360     }
361
362     # get results of started threads
363     if { $parallel > 0 } {
364         tpool::resume $worker
365         while { [llength [array names job_def]] > 0 } {
366             foreach job [tpool::wait $worker [array names job_def]] {
367                 eval _log_test_case \[tpool::get $worker $job\] $job_def($job) log
368                 unset job_def($job)
369             }
370
371             # update summary log with requested period
372             if { $logdir != "" && $refresh > 0 && [clock seconds] > $refresh_timer + $refresh } {
373                 _log_summarize $logdir $log
374                 set refresh_timer [clock seconds]
375             }
376         }
377         # release thread pool
378         tpool::release $worker
379     }
380
381     uplevel dchrono _timer stop
382     set time [lindex [split [uplevel dchrono _timer show] "\n"] 0]
383
384     ######################################################
385     # output summary logs and exit
386     ######################################################
387
388     _log_summarize $logdir $log $time
389     if { $logdir != "" } {
390         puts "Detailed logs are saved in $logdir"
391     }
392     if { $logdir != "" && $xmlfile != "" } {
393         # XML output file is assumed relative to log dir unless it is absolute
394         if { [ file pathtype $xmlfile] == "relative" } {
395             set xmlfile [file normalize $logdir/$xmlfile]
396         }
397         _log_xml_summary $logdir $xmlfile $log 0
398         puts "XML summary is saved to $xmlfile"
399     }
400
401     return
402 }
403
404 # Procedure to compare results of two runs of test cases
405 help testdiff {Compare results of two executions of tests (CPU times, ...)
406     Use: testdiff dir1 dir2 [options...]
407     Where dir1 and dir2 are directories containing logs of two test runs.
408     Allowed options are:
409     -save filename: save resulting log in specified file
410     -subdir name: compare only specified subdirectory (can be nested)
411     -status {same|ok|all}: filter cases for comparing by their status:
412             same - only cases with same status are compared (default)
413             ok   - only cases with OK status in both logs are compared
414             all  - results are compared regardless of status
415     -verbose level: 
416             1 - output only differences 
417             2 - output list of logs and directories present in one of dirs only
418             3 - (default) output progress messages 
419 }
420 proc testdiff {dir1 dir2 args} {
421     if { "$dir1" == "$dir2" } {
422         error "Input directories are the same"
423     }
424
425     ######################################################
426     # check arguments
427     ######################################################
428
429     # treat options
430     set logfile ""
431     set basename ""
432     set status "same"
433     set verbose 3
434     for {set narg 0} {$narg < [llength $args]} {incr narg} {
435         set arg [lindex $args $narg]
436
437         # log file name
438         if { $arg == "-save" } {
439             incr narg
440             if { $narg < [llength $args] } { 
441                 set logfile [lindex $args $narg]
442             } else {
443                 error "Error: Option -save must be followed by log file name"
444             } 
445             continue
446         }
447
448         # subdirectory to compare
449         if { $arg == "-subdir" } {
450             incr narg
451             if { $narg < [llength $args] } { 
452                 set basename [lindex $args $narg]
453             } else {
454                 error "Error: Option -subdir must be followed by subdirectory path"
455             }
456             continue
457         }
458
459         # status filter
460         if { $arg == "-status" } {
461             incr narg
462             if { $narg < [llength $args] } { 
463                 set status [lindex $args $narg]
464             } else { set status "" }
465             if { "$status" != "same" && "$status" != "all" && "$status" != "ok" } {
466                 error "Error: Option -status must be followed by one of \"same\", \"all\", or \"ok\""
467             }
468             continue
469         }
470
471         # verbose level
472         if { $arg == "-verbose" } {
473             incr narg
474             if { $narg < [llength $args] } { 
475                 set verbose [expr [lindex $args $narg]]
476             }
477             continue
478         }
479
480 #       if { [regexp {^-} $arg] } {
481             error "Error: unsupported option \"$arg\""
482 #       }
483     }
484
485     # run diff procedure (recursive)
486     _test_diff $dir1 $dir2 $basename $status $verbose log
487
488     # save result to log file
489     if { "$logfile" != "" } {
490         _log_save $logfile $log
491     }
492
493     return
494 }
495
496 # Internal procedure to find test case indicated by group, grid, and test case names;
497 # returns:
498 # - dir: path to the base directory of the tests group
499 # - gridname: actual name of the grid
500 # - casefile: path to the test case script 
501 # if no such test is found, raises error with appropriate message
502 proc _get_test {group grid casename _dir _gridname _casefile} {
503     upvar $_dir dir
504     upvar $_gridname gridname
505     upvar $_casefile casefile
506
507     global env
508  
509     # check that environment variable defining paths to test scripts is defined
510     if { ! [info exists env(CSF_TestScriptsPath)] || 
511          [llength $env(CSF_TestScriptsPath)] <= 0 } {
512         error "Error: Environment variable CSF_TestScriptsPath is not defined"
513     }
514
515     # iterate by all script paths
516     foreach dir [_split_path $env(CSF_TestScriptsPath)] {
517         # protection against empty paths
518         set dir [string trim $dir]
519         if { $dir == "" } { continue }
520
521         # check that directory exists
522         if { ! [file isdirectory $dir] } {
523             puts "Warning: directory $dir listed in CSF_TestScriptsPath does not exist, skipped"
524             continue
525         }
526
527         # check if test group with given name exists in this dir
528         # if not, continue to the next test dir
529         if { ! [file isdirectory $dir/$group] } { continue }
530
531         # check that grid with given name (possibly alias) exists; stop otherwise
532         set gridname $grid
533         if { ! [file isdirectory $dir/$group/$gridname] } {
534             # check if grid is named by alias rather than by actual name
535             if { [file exists $dir/$group/grids.list] } {
536                 set fd [open $dir/$group/grids.list]
537                 while { [gets $fd line] >= 0 } {
538                     if { [regexp "\[ \t\]*\#.*" $line] } { continue }
539                     if { [regexp "^$grid\[ \t\]*\(\[A-Za-z0-9_.-\]+\)\$" $line res gridname] } {
540                         break
541                     }
542                 }
543                 close $fd
544             }
545         }
546         if { ! [file isdirectory $dir/$group/$gridname] } { continue }
547
548         # get actual file name of the script; stop if it cannot be found
549         set casefile $dir/$group/$gridname/$casename
550         if { ! [file exists $casefile] } {
551             # check if this grid is aliased to another one
552             if { [file exists $dir/$group/$gridname/cases.list] } {
553                 set fd [open $dir/$group/$gridname/cases.list]
554                 if { [gets $fd line] >= 0 } {
555                     set casefile [file normalize $dir/$group/$gridname/[string trim $line]/$casename]
556                 }
557                 close $fd
558             }
559         }
560         if { [file exists $casefile] } { 
561             # normal return
562             return 
563         }
564     }
565
566     # coming here means specified test is not found; report error
567     error [join [list "Error: test case $group / $grid / $casename is not found in paths listed in variable" \
568                      "CSF_TestScriptsPath (current value is \"$env(CSF_TestScriptsPath)\")"] "\n"]
569 }
570
571 # Internal procedure to run test case indicated by base directory, 
572 # grid and grid names, and test case file path.
573 # The log can be obtained by command "dlog get".
574 proc _run_test {scriptsdir group gridname casefile echo} {
575     global env
576
577     # start timer
578     uplevel dchrono _timer reset
579     uplevel dchrono _timer start
580
581     # enable commands logging; switch to old-style mode if dlog command is not present
582     set dlog_exists 1
583     if { [catch {dlog reset}] } {
584         set dlog_exists 0
585     } elseif { $echo } {
586         decho on
587     } else {
588         dlog reset
589         dlog on
590         rename puts puts-saved
591         proc puts args { 
592             global _tests_verbose
593
594             # log only output to stdout and stderr, not to file!
595             if {[llength $args] > 1} {
596                 set optarg [lindex $args end-1]
597                 if { $optarg == "stdout" || $optarg == "stderr" || $optarg == "-newline" } {
598                     dlog add [lindex $args end]
599                 }
600             } else {
601                 dlog add [lindex $args end]
602             }
603
604             # reproduce original puts
605             if { $_tests_verbose } {
606                 eval puts-saved $args
607             }
608         }
609     }
610
611     # evaluate test case 
612     if [catch {
613         uplevel set casename [file tail $casefile]
614         uplevel set groupname $group
615         uplevel set gridname $gridname
616
617         if { [file exists $scriptsdir/$group/begin] } {
618             puts "Executing $scriptsdir/$group/begin..."; flush stdout
619             uplevel source $scriptsdir/$group/begin
620         }
621         if { [file exists $scriptsdir/$group/$gridname/begin] } {
622             puts "Executing $scriptsdir/$group/$gridname/begin..."; flush stdout
623             uplevel source $scriptsdir/$group/$gridname/begin
624         }
625         
626         puts "Executing $casefile..."; flush stdout
627         uplevel source $casefile
628         
629         if { [file exists $scriptsdir/$group/$gridname/end] } {
630             puts "Executing $scriptsdir/$group/$gridname/end..."; flush stdout
631             uplevel source $scriptsdir/$group/$gridname/end
632         }
633         if { [file exists $scriptsdir/$group/end] } {
634             puts "Executing $scriptsdir/$group/end..."; flush stdout
635             uplevel source $scriptsdir/$group/end
636         }
637     } res] {
638         puts "Tcl Exception: $res"
639     }
640
641     # stop logging
642     if { $dlog_exists } {
643         if { $echo } {
644             decho off
645         } else {
646             rename puts {}
647             rename puts-saved puts
648             dlog off
649         }
650     }
651
652     # stop cpulimit killer if armed by the test
653     cpulimit
654
655     # add timing info
656     uplevel dchrono _timer stop
657     set time [uplevel dchrono _timer show]
658     if [regexp -nocase {CPU user time:[ \t]*([0-9.e-]+)} $time res cpu] {
659         if { $dlog_exists && ! $echo } {
660             dlog add "TOTAL CPU TIME: $cpu sec"
661         } else {
662             puts "TOTAL CPU TIME: $cpu sec"
663         }
664     }
665 }
666
667 # Internal procedure to check log of test execution and decide if it passed or failed
668 proc _check_log {dir group gridname casename log {_summary {}} {_html_log {}}} {
669     global env
670     if { $_summary != "" } { upvar $_summary summary }
671     if { $_html_log != "" } { upvar $_html_log html_log }
672     set summary ""
673     set html_log ""
674
675 if [catch {
676
677     # load definition of 'bad words' indicating test failure
678     # note that rules are loaded in the order of decreasing priority (grid - group - common),
679     # thus grid rules will override group ones
680     set badwords {}
681     foreach rulesfile [list $dir/$group/$gridname/parse.rules $dir/$group/parse.rules $dir/parse.rules] {
682         if [catch {set fd [open $rulesfile r]}] { continue }
683         while { [gets $fd line] >= 0 } {
684             # skip comments and empty lines
685             if { [regexp "\[ \t\]*\#.*" $line] } { continue }
686             if { [string trim $line] == "" } { continue }
687             # extract regexp
688             if { ! [regexp {^([^/]*)/([^/]*)/(.*)$} $line res status rexp comment] } { 
689                 puts "Warning: cannot recognize parsing rule \"$line\" in file $rulesfile"
690                 continue 
691             }
692             set status [string trim $status]
693             if { $comment != "" } { set status "$status ([string trim $comment])" }
694             set rexp [regsub -all {\\b} $rexp {\\y}] ;# convert regexp from Perl to Tcl style
695             lappend badwords [list $status $rexp]
696         }
697         close $fd
698     }
699     if { [llength $badwords] <= 0 } { 
700         puts "Warning: no definition of error indicators found (check files parse.rules)" 
701     }
702
703     # analyse log line-by-line
704     set todos {}
705     set status ""
706     foreach line [split $log "\n"] {
707         # check if line defines specific treatment of some messages
708         if [regexp -nocase {^[ \t]*TODO ([^:]*):(.*)$} $line res platforms pattern] {
709             if { ! [regexp -nocase {\mAll\M} $platforms] && 
710                  ! [regexp -nocase "\\m$env(os_type)\\M" $platforms] } {
711                 set html_log "$html_log\n$line"
712                 continue ;# TODO statement is for another platform
713             }
714
715             # record TODOs that mark unstable cases
716             if { [regexp {[\?]} $platforms] } {
717                 set todos_unstable([llength $todos]) 1
718             }
719
720             lappend todos [regsub -all {\\b} [string trim $pattern] {\\y}] ;# convert regexp from Perl to Tcl style
721             set html_log "$html_log\n[_html_highlight BAD $line]"
722             continue
723         }
724
725         # check for presence of messages indicating test result
726         set ismarked 0
727         foreach bw $badwords {
728             if { [regexp [lindex $bw 1] $line] } { 
729                 # check if this is known bad case
730                 set is_known 0
731                 for {set i 0} {$i < [llength $todos]} {incr i} {
732                     if { [regexp [lindex $todos $i] $line] } {
733                         set is_known 1
734                         incr todo_count($i)
735                         set html_log "$html_log\n[_html_highlight BAD $line]"
736                         break
737                     }
738                 }
739
740                 # if it is not in todo, define status
741                 if { ! $is_known } {
742                     set stat [lindex $bw 0 0]
743                     set html_log "$html_log\n[_html_highlight $stat $line]"
744                     if { $status == "" && $stat != "OK" && ! [regexp -nocase {^IGNOR} $stat] } {
745                         set status [lindex $bw 0]
746                     }
747                 }
748                 set ismarked 1
749                 break
750             }
751         }
752         if { ! $ismarked } { 
753             set html_log "$html_log\n$line"
754         }
755     }
756
757     # check for presence of TEST COMPLETED statement
758     if { $status == "" && ! [regexp {TEST COMPLETED} $log] } {
759         # check whether absence of TEST COMPLETED is known problem
760         set i [lsearch $todos "TEST INCOMPLETE"]
761         if { $i >= 0 } {
762             incr todo_count($i)
763         } else {
764             set status "FAILED (no final message is found)"
765         }
766     }
767
768     # check declared bad cases and diagnose possible improvement 
769     # (bad case declared but not detected).
770     # Note that absence of the problem marked by TODO with question mark
771     # (unstable) is not reported as improvement.
772     if { $status == "" } {
773         for {set i 0} {$i < [llength $todos]} {incr i} {
774             if { ! [info exists todos_unstable($i)] &&
775                  (! [info exists todo_count($i)] || $todo_count($i) <= 0) } {
776                 set status "IMPROVEMENT (expected problem TODO no. [expr $i + 1] is not detected)"
777                 break;
778             }
779         }
780     }
781
782     # report test as known bad if at least one of expected problems is found
783     if { $status == "" && [llength [array names todo_count]] > 0 } {
784         set status "BAD (known problem)"
785     }
786
787     # report normal OK
788     if { $status == "" } {set status "OK" }
789
790 } res] {
791     set status "FAILED ($res)"
792 }
793
794     # put final message
795     _log_and_puts summary "CASE $group $gridname $casename: $status"
796     set html_log "[_html_highlight [lindex $status 0] $summary]\n$html_log"
797 }
798
799 # Auxiliary procedure putting message to both cout and log variable (list)
800 proc _log_and_puts {logvar message} {
801     if { $logvar != "" } { 
802         upvar $logvar log
803         if [info exists log] { 
804             set log "$log$message\n"
805         } else {
806             set log "$message\n"
807         }
808     }
809     puts $message
810 }
811
812 # Auxiliary procedure to log result on single test case
813 proc _log_test_case {output logdir dir group grid casename logvar} {
814     upvar $logvar log
815
816     # check result and make HTML log
817     _check_log $dir $group $grid $casename $output summary html_log
818     set log "$log$summary"
819
820     # save log to file
821     if { $logdir != "" } {
822         _log_html $logdir/$group/$grid/$casename.html $html_log "Test $group $grid $casename"
823         _log_save $logdir/$group/$grid/$casename.log "$output\n$summary" "Test $group $grid $casename"
824     }
825 }
826
827 # Auxiliary procedure to save log to file
828 proc _log_save {file log {title {}}} {
829     # create missing directories as needed
830     catch {file mkdir [file dirname $file]}
831
832     # try to open a file
833     if [catch {set fd [open $file w]} res] {
834         error "Error saving log file $file: $res"
835     }
836     
837     # dump log and close
838     puts $fd "$title\n"
839     puts $fd $log
840     close $fd
841     return
842 }
843
844 # Auxiliary procedure to save log to file
845 proc _log_html {file log {title {}}} {
846     # create missing directories as needed
847     catch {file mkdir [file dirname $file]}
848
849     # try to open a file
850     if [catch {set fd [open $file w]} res] {
851         error "Error saving log file $file: $res"
852     }
853     
854     # print header
855     puts $fd "<html><head><title>$title</title><head><body><h1>$title</h1>"
856
857     # add images if present
858     set imgbasename [file rootname [file tail $file]]
859     foreach img [lsort [glob -nocomplain -directory [file dirname $file] -tails ${imgbasename}*.gif ${imgbasename}*.png ${imgbasename}*.jpg]] {
860         puts $fd "<p><img src=\"$img\"/><p>"
861     }
862
863     # print body, then end and close
864     puts $fd "<pre>"
865     puts $fd $log
866     puts $fd "</pre></body></html>"
867
868     close $fd
869     return
870 }
871
872 # Auxiliary method to make text with HTML highlighting according to status
873 proc _html_color {status} {
874     # choose a color for the cell according to result
875     if { $status == "OK" } { 
876         return lightgreen
877     } elseif { [regexp -nocase {^FAIL} $status] } { 
878         return red
879     } elseif { [regexp -nocase {^BAD} $status] } { 
880         return yellow
881     } elseif { [regexp -nocase {^IMP} $status] } { 
882         return orange
883     } elseif { [regexp -nocase {^SKIP} $status] } { 
884         return gray
885     } elseif { [regexp -nocase {^IGNOR} $status] } { 
886         return gray
887     } else {
888         puts "Warning: no color defined for status $status, using red as if FAILED"
889         return red
890     }
891 }
892
893 # Format text line in HTML to be colored according to the status
894 proc _html_highlight {status line} {
895     return "<table><tr><td bgcolor=\"[_html_color $status]\">$line</td></tr></table>"
896 }
897
898 # Internal procedure to generate HTML page presenting log of the tests
899 # execution in tabular form, with links to reports on individual cases
900 proc _log_html_summary {logdir log totals regressions improvements total_time} {
901     global _test_case_regexp
902
903      # create missing directories as needed
904     catch {file mkdir $logdir}
905
906     # try to open a file and start HTML
907     if [catch {set fd [open $logdir/summary.html w]} res] {
908         error "Error creating log file: $res"
909     }
910
911     # write HRML header, including command to refresh log if still in progress
912     puts $fd "<html><head>"
913     puts $fd "<title>Tests summary</title>"
914     if { $total_time == "" } {
915         puts $fd "<meta http-equiv=\"refresh\" content=\"10\">"
916     }
917     puts $fd "<meta http-equiv=\"pragma\" content=\"NO-CACHE\">"
918     puts $fd "</head><body>"
919
920     # put summary
921     set legend(OK)          "Test passed OK"
922     set legend(FAILED)      "Test failed (regression)"
923     set legend(BAD)         "Known problem"
924     set legend(IMPROVEMENT) "Possible improvement (expected problem not detected)"
925     set legend(SKIPPED)     "Test skipped due to lack of data file"
926     puts $fd "<h1>Summary</h1><table>"
927     foreach nbstat $totals {
928         set status [lindex $nbstat 1]
929         if { [info exists legend($status)] } { 
930             set comment $legend($status) 
931         } else {
932             set comment "User-defined status"
933         }
934         puts $fd "<tr><td align=\"right\">[lindex $nbstat 0]</td><td bgcolor=\"[_html_color $status]\">$status</td><td>$comment</td></tr>"
935     }
936     puts $fd "</table>"
937
938     # time stamp and elapsed time info
939     if { $total_time != "" } { 
940         puts $fd "<p>Generated on [clock format [clock seconds] -format {%Y-%m-%d %H:%M:%S}] on [info hostname] <p> $total_time" 
941     } else {
942         puts $fd "<p>NOTE: This is intermediate summary; the tests are still running! This page will refresh automatically until tests are finished."
943     }
944    
945     # print regressions and improvements
946     foreach featured [list $regressions $improvements] {
947         if { [llength $featured] <= 1 } { continue }
948         set status [string trim [lindex $featured 0] { :}]
949         puts $fd "<h2>$status</h2>"
950         puts $fd "<table>"
951         set groupgrid ""
952         foreach test [lrange $featured 1 end] {
953             if { ! [regexp {^(.*)\s+([\w.]+)$} $test res gg name] } {
954                 set gg UNKNOWN
955                 set name "Error building short list; check details"
956             }
957             if { $gg != $groupgrid } {
958                 if { $groupgrid != "" } { puts $fd "</tr>" }
959                 set groupgrid $gg
960                 puts $fd "<tr><td>$gg</td>"
961             }
962             puts $fd "<td bgcolor=\"[_html_color $status]\"><a href=\"[regsub -all { } $gg /]/${name}.html\">$name</a></td>"
963         }
964         if { $groupgrid != "" } { puts $fd "</tr>" }
965         puts $fd "</table>"
966     }
967
968     # put detailed log
969     puts $fd "<h1>Details</h1>"
970
971     # process log line-by-line
972     set group {}
973     set letter {}
974     foreach line [lsort -dictionary [split $log "\n"]] {
975         # check that the line is case report in the form "CASE group grid name: result (explanation)"
976         if { ! [regexp $_test_case_regexp $line res grp grd casename result message] } {
977             continue
978         }
979
980         # start new group
981         if { $grp != $group } {
982             if { $letter != "" } { puts $fd "</tr></table>" }
983             set letter {}
984             set group $grp
985             set grid {}
986             puts $fd "<h2>Group $group</h2>"
987         }
988
989         # start new grid
990         if { $grd != $grid } {
991             if { $letter != "" } { puts $fd "</tr></table>" }
992             set letter {}
993             set grid $grd
994             puts $fd "<h3>Grid $grid</h3>"
995         }
996
997         # check if test case name is <letter><digit>; 
998         # if not, set alnum to period "." to recognize non-standard test name
999         if { ! [regexp {([A-Za-z]+)([0-9]+)} $casename res alnum number] } {
1000             set alnum .
1001         }
1002
1003         # start new row when letter changes or for non-standard names
1004         if { $alnum != $letter || $alnum == "." } {
1005             if { $letter != "" } { 
1006                 puts $fd "</tr><tr>" 
1007             } else {
1008                 puts $fd "<table><tr>"
1009             }
1010             set letter $alnum
1011         }           
1012
1013         puts $fd "<td bgcolor=\"[_html_color $result]\"><a href=\"$group/$grid/${casename}.html\">$casename</a></td>"
1014     }
1015     puts $fd "</tr></table>"
1016
1017     # add remaining lines of log as plain text
1018     puts $fd "<h2>Plain text messages</h2>\n<pre>"
1019     foreach line [split $log "\n"] {
1020         if { ! [regexp $_test_case_regexp $line] } {
1021             puts $fd "$line"
1022         }
1023     }
1024     puts $fd "</pre>"
1025
1026     # close file and exit
1027     puts $fd "</body>"
1028     close $fd
1029     return
1030 }
1031
1032 # Procedure to dump summary logs of tests
1033 proc _log_summarize {logdir log {total_time {}}} {
1034
1035     # sort log records alphabetically to have the same behavior on Linux and Windows 
1036     # (also needed if tests are run in parallel)
1037     set loglist [lsort -dictionary [split $log "\n"]]
1038
1039     # classify test cases by status
1040     foreach line $loglist {
1041         if { [regexp {^CASE ([^:]*): ([[:alnum:]]+).*$} $line res caseid status] } {
1042             lappend stat($status) $caseid
1043         }
1044     }
1045     set totals {}
1046     set improvements {Improvements:}
1047     set regressions {Failed:}
1048     if { [info exists stat] } {
1049         foreach status [lsort [array names stat]] {
1050             lappend totals [list [llength $stat($status)] $status]
1051
1052             # separately count improvements (status starting with IMP) and regressions (all except IMP, OK, BAD, and SKIP)
1053             if { [regexp -nocase {^IMP} $status] } {
1054                 eval lappend improvements $stat($status)
1055             } elseif { $status != "OK" && ! [regexp -nocase {^BAD} $status] && ! [regexp -nocase {^SKIP} $status] } {
1056                 eval lappend regressions $stat($status)
1057             }
1058         }
1059     }
1060
1061     # if time is specified, add totals
1062     if { $total_time != "" } {
1063         if { [llength $improvements] > 1 } {
1064             _log_and_puts log [join $improvements "\n  "]
1065         }
1066         if { [llength $regressions] > 1 } {
1067             _log_and_puts log [join $regressions "\n  "]
1068         }
1069         if { [llength $improvements] == 1 && [llength $regressions] == 1 } {
1070             _log_and_puts log "No regressions"
1071         }
1072         _log_and_puts log "Total cases: [join $totals {, }]"
1073         _log_and_puts log $total_time
1074     }
1075
1076     # save log to files
1077     if { $logdir != "" } {
1078         _log_html_summary $logdir $log $totals $regressions $improvements $total_time
1079         _log_save $logdir/tests.log $log "Tests summary"
1080     }
1081
1082     return
1083 }
1084
1085 # Internal procedure to generate XML log in JUnit style, for further
1086 # consumption by Jenkins or similar systems.
1087 #
1088 # The output is intended to conform to XML schema supported by Jenkins found at
1089 # https://svn.jenkins-ci.org/trunk/hudson/dtkit/dtkit-format/dtkit-junit-model/src/main/resources/com/thalesgroup/dtkit/junit/model/xsd/junit-4.xsd
1090 #
1091 # The mapping of the fields is inspired by annotated schema of Apache Ant JUnit XML format found at
1092 # http://windyroad.org/dl/Open%20Source/JUnit.xsd
1093 proc _log_xml_summary {logdir filename log include_cout} {
1094     global _test_case_regexp
1095
1096     catch {file mkdir [file dirname $filename]}
1097
1098     # try to open a file and start XML
1099     if [catch {set fd [open $filename w]} res] {
1100         error "Error creating XML summary file $filename: $res"
1101     }
1102     puts $fd "<?xml version='1.0' encoding='utf-8'?>"
1103     puts $fd "<testsuites>"
1104
1105     # prototype for command to generate test suite tag
1106     set time_and_host "timestamp=\"[clock format [clock seconds] -format {%Y-%m-%dT%H:%M:%S}]\" hostname=\"[info hostname]\""
1107     set cmd_testsuite {puts $fd "<testsuite name=\"$group $grid\" tests=\"$nbtests\" failures=\"$nbfail\" errors=\"$nberr\" time=\"$time\" skipped=\"$nbskip\" $time_and_host>\n$testcases\n</testsuite>\n"}
1108
1109     # sort log and process it line-by-line
1110     set group {}
1111     foreach line [lsort -dictionary [split $log "\n"]] {
1112         # check that the line is case report in the form "CASE group grid name: result (explanation)"
1113         if { ! [regexp $_test_case_regexp $line res grp grd casename result message] } {
1114             continue
1115         }
1116         set message [string trim $message " \t\r\n()"]
1117
1118         # start new testsuite for each grid
1119         if { $grp != $group || $grd != $grid } {
1120
1121             # write previous test suite
1122             if [info exists testcases] { eval $cmd_testsuite }
1123
1124             set testcases {}
1125             set nbtests 0
1126             set nberr 0
1127             set nbfail 0
1128             set nbskip 0
1129             set time 0.
1130
1131             set group $grp
1132             set grid $grd
1133         }
1134
1135         incr nbtests
1136          
1137         # parse test log and get its CPU time
1138         set testout {}
1139         set add_cpu {}
1140         if { [catch {set fdlog [open $logdir/$group/$grid/${casename}.log r]} ret] } { 
1141             puts "Error: cannot open $logdir/$group/$grid/${casename}.log: $ret"
1142         } else {
1143             while { [gets $fdlog logline] >= 0 } {
1144                 if { $include_cout } {
1145                     set testout "$testout$logline\n"
1146                 }
1147                 if [regexp -nocase {TOTAL CPU TIME:\s*([\d.]+)\s*sec} $logline res cpu] {
1148                     set add_cpu " time=\"$cpu\""
1149                     set time [expr $time + $cpu]
1150                 }
1151             }
1152             close $fdlog
1153         }
1154         if { ! $include_cout } {
1155             set testout "$line\n"
1156         }
1157
1158         # record test case with its output and status
1159         # Mapping is: SKIPPED, BAD, and OK to OK, all other to failure
1160         set testcases "$testcases\n  <testcase name=\"$casename\"$add_cpu status=\"$result\">\n"
1161         set testcases "$testcases\n    <system-out>\n$testout    </system-out>"
1162         if { $result != "OK" } {
1163             if { [regexp -nocase {^SKIP} $result] } {
1164                 incr nberr
1165                 set testcases "$testcases\n    <error name=\"$result\" message=\"$message\"/>"
1166             } elseif { [regexp -nocase {^BAD} $result] } {
1167                 incr nbskip
1168                 set testcases "$testcases\n    <skipped>$message</skipped>"
1169             } else {
1170                 incr nbfail
1171                 set testcases "$testcases\n    <failure name=\"$result\" message=\"$message\"/>"
1172             }
1173         }
1174         set testcases "$testcases\n  </testcase>"
1175     }
1176
1177     # write last test suite
1178     if [info exists testcases] { eval $cmd_testsuite }
1179
1180     # the end
1181     puts $fd "</testsuites>"
1182     close $fd
1183     return
1184 }
1185
1186 # define custom platform name 
1187 proc _tests_platform_def {} {
1188     global env tcl_platform
1189
1190     if [info exists env(os_type)] { return }
1191
1192     set env(os_type) $tcl_platform(platform)
1193
1194     # use detailed mapping for various versions of Lunix
1195     # (note that mapping is rather non-uniform, for historical reasons)
1196     if { $env(os_type) == "unix" && ! [catch {exec cat /etc/issue} issue] } {
1197         if { [regexp {Mandriva[ \tA-Za-z]+([0-9]+)} $issue res num] } {
1198             set env(os_type) Mandriva$num
1199         } elseif { [regexp {Red Hat[ \tA-Za-z]+([0-9]+)} $issue res num] } {
1200             set env(os_type) RedHat$num
1201         } elseif { [regexp {Debian[ \tA-Za-z/]+([0-9]+)[.]([0-9]+)} $issue res num subnum] } {
1202             set env(os_type) Debian$num$subnum
1203         } elseif { [regexp {CentOS[ \tA-Za-z]+([0-9]+)[.]([0-9]+)} $issue res num subnum] } {
1204             set env(os_type) CentOS$num$subnum
1205         } elseif { [regexp {Scientific[ \tA-Za-z]+([0-9]+)[.]([0-9]+)} $issue res num subnum] } {
1206             set env(os_type) SL$num$subnum
1207         } elseif { [regexp {Fedora Core[ \tA-Za-z]+([0-9]+)} $issue res num] } {
1208             set env(os_type) FedoraCore$num
1209         }
1210         if { [exec uname -m] == "x86_64" } {
1211             set env(os_type) "$env(os_type)-64"
1212         }
1213     }
1214 }
1215 _tests_platform_def
1216
1217 # Auxiliary procedure to split path specification (usually defined by
1218 # environment variable) into list of directories or files
1219 proc _split_path {pathspec} {
1220     global tcl_platform
1221
1222     # first replace all \ (which might occur on Windows) by /  
1223     regsub -all "\\\\" $pathspec "/" pathspec
1224
1225     # split path by platform-specific separator
1226     return [split $pathspec [_path_separator]]
1227 }
1228
1229 # Auxiliary procedure to define platform-specific separator for directories in
1230 # path specification
1231 proc _path_separator {} {
1232     global tcl_platform
1233
1234     # split path by platform-specific separator
1235     if { $tcl_platform(platform) == "windows" } {
1236         return ";"
1237     } else {
1238         return ":"
1239     }
1240 }
1241
1242 # Procedure to locate data file for test given its name.
1243 # The search is performed assuming that the function is called 
1244 # from the test case script; the search order is:
1245 # - subdirectories in environment variable CSF_TestDataPath  
1246 # If file is not found, raises Tcl error.
1247 proc locate_data_file {filename} {
1248     global env groupname gridname casename
1249
1250     set scriptfile [info script]
1251     if { $scriptfile == "" } {
1252         error "Error: This procedure (locate_data_file) is for use only in test scripts!"
1253     }
1254
1255         # check sub-directories in paths indicated by CSF_TestDataPath
1256         if { [info exists env(CSF_TestDataPath)] } {
1257         foreach dir [_split_path $env(CSF_TestDataPath)] {
1258                 while {[llength $dir] != 0} { 
1259                         set dir [lassign $dir name]
1260                         lappend dir {*}[glob -nocomplain -directory $name -type d *]
1261                         if { [file exists $name/$filename] } {
1262                         return [file normalize $name/$filename]
1263                         }
1264                 }
1265         }
1266         }
1267         
1268     # check datadir
1269     if { [file exists [uplevel datadir]/$filename] } {
1270         return [uplevel datadir]/$filename
1271     }
1272
1273     # raise error
1274     error [join [list "Error: file $filename could not be found neither in script" \
1275                       "directories nor in paths indicated by CSF_TestDataPath environment variable"] "\n"]
1276 }
1277
1278 # Procedure to make a diff and common of two lists
1279 proc _list_diff {list1 list2 _in1 _in2 _common} {
1280     upvar $_in1 in1
1281     upvar $_in2 in2
1282     upvar $_common common
1283
1284     set in1 {}
1285     set in2 {}
1286     set common {}
1287     foreach item $list1 {
1288         if { [lsearch -exact $list2 $item] >= 0 } {
1289             lappend common $item
1290         } else {
1291             lappend in1 $item
1292         }
1293     }
1294     foreach item $list2 {
1295         if { [lsearch -exact $common $item] < 0 } {
1296             lappend in2 $item
1297         }
1298     }
1299     return
1300 }
1301
1302 # procedure to load a file to Tcl string
1303 proc _read_file {filename} {
1304     set fd [open $filename r]
1305     set result [read -nonewline $fd]
1306     close $fd
1307     return $result
1308 }
1309
1310 # Procedure to compare results of two runs of test cases
1311 proc _test_diff {dir1 dir2 basename status verbose _logvar {_statvar ""}} {
1312     upvar $_logvar log
1313
1314     # prepare variable (array) for collecting statistics
1315     if { "$_statvar" != "" } {
1316         upvar $_statvar stat
1317     } else {
1318         set stat(cpu1) 0
1319         set stat(cpu2) 0
1320         set log {}
1321     }
1322
1323     # first check subdirectories
1324     set path1 [file join $dir1 $basename]
1325     set path2 [file join $dir2 $basename]
1326     set list1 [glob -directory $path1 -types d -tails -nocomplain *]
1327     set list2 [glob -directory $path2 -types d -tails -nocomplain *]
1328     if { [llength $list1] >0 || [llength $list2] > 0 } {
1329         _list_diff $list1 $list2 in1 in2 common
1330         if { "$verbose" > 1 } {
1331             if { [llength $in1] > 0 } { _log_and_puts log "Only in $path1: $in1" }
1332             if { [llength $in2] > 0 } { _log_and_puts log "Only in $path2: $in2" }
1333         }
1334         foreach subdir $common {
1335             if { "$verbose" > 2 } {
1336                 _log_and_puts log "Checking [file join $basename $subdir]"
1337             }
1338             _test_diff $dir1 $dir2 [file join $basename $subdir] $status $verbose log stat
1339         }
1340     } else {
1341         # check log files (only if directory has no subdirs)
1342         set list1 [glob -directory $path1 -types f -tails -nocomplain *.log]
1343         set list2 [glob -directory $path2 -types f -tails -nocomplain *.log]
1344         _list_diff $list1 $list2 in1 in2 common
1345         if { "$verbose" > 1 } {
1346             if { [llength $in1] > 0 } { _log_and_puts log "Only in $path1: $in1" }
1347             if { [llength $in2] > 0 } { _log_and_puts log "Only in $path2: $in2" }
1348         }
1349         foreach logfile $common {
1350             # load two logs
1351             set log1 [_read_file [file join $dir1 $basename $logfile]]
1352             set log2 [_read_file [file join $dir2 $basename $logfile]]
1353
1354             # check execution statuses
1355             set status1 UNDEFINED
1356             set status2 UNDEFINED
1357             if { ! [regexp {CASE [^:]*:\s*([\w]+)} $log1 res1 status1] ||
1358                  ! [regexp {CASE [^:]*:\s*([\w]+)} $log2 res2 status2] ||
1359                  "$status1" != "$status2" } {
1360                 _log_and_puts log "STATUS [split $basename /] [file rootname $logfile]: $status1 / $status2"
1361
1362                 # if test statuses are different, further comparison makes 
1363                 # no sense unless explicitly requested
1364                 if { "$status" != "all" } {
1365                     continue
1366                 }
1367             }
1368             if { "$status" == "ok" && "$status1" != "OK" } { 
1369                 continue
1370             }
1371
1372             # check CPU times
1373             set cpu1 UNDEFINED
1374             set cpu2 UNDEFINED
1375             if { [regexp {TOTAL CPU TIME:\s*([\d.]+)} $log1 res1 cpu1] &&
1376                  [regexp {TOTAL CPU TIME:\s*([\d.]+)} $log2 res1 cpu2] } {
1377                 set stat(cpu1) [expr $stat(cpu1) + $cpu1]
1378                 set stat(cpu2) [expr $stat(cpu2) + $cpu2]
1379
1380                 # compare CPU times with 10% precision (but not less 0.5 sec)
1381                 if { [expr abs ($cpu1 - $cpu2) > 0.5 + 0.05 * abs ($cpu1 + $cpu2)] } {
1382                     _log_and_puts log "CPU [split $basename /] [file rootname $logfile]: $cpu1 / $cpu2"
1383                 }
1384             }
1385         }
1386     }
1387
1388     if { "$_statvar" == "" } {
1389         _log_and_puts log "Total CPU difference: $stat(cpu1) / $stat(cpu2)"
1390     }
1391 }