0023439: Integration of test grid "xigs" into the new testing system
[occt.git] / src / DrawResources / TestCommands.tcl
1 # Copyright (c) 2012 OPEN CASCADE SAS
2 #
3 # The content of this file is subject to the Open CASCADE Technology Public
4 # License Version 6.5 (the "License"). You may not use the content of this file
5 # except in compliance with the License. Please obtain a copy of the License
6 # at http://www.opencascade.org and read it completely before using this file.
7 #
8 # The Initial Developer of the Original Code is Open CASCADE S.A.S., having its
9 # main offices at: 1, place des Freres Montgolfier, 78280 Guyancourt, France.
10 #
11 # The Original Code and all software distributed under the License is
12 # distributed on an "AS IS" basis, without warranty of any kind, and the
13 # Initial Developer hereby disclaims all such warranties, including without
14 # limitation, any warranties of merchantability, fitness for a particular
15 # purpose or non-infringement. Please see the License for the specific terms
16 # and conditions governing the rights and limitations under the License.
17
18 ############################################################################
19 # This file defines scripts for execution of OCCT tests.
20 # It should be loaded automatically when DRAW is started, and provides
21 # top-level commands starting with 'test'. Type 'help test' to get their
22 # synopsys.
23 # See OCCT Tests User Guide for description of the test system.
24 #
25 # Note: procedures with names starting with underscore are for internal use 
26 # inside the test system.
27 ############################################################################
28
29 # Default verbose level for command _run_test
30 set _tests_verbose 0
31
32 # regexp for parsing test case results in summary log
33 set _test_case_regexp {^CASE\s+([\w.-]+)\s+([\w.-]+)\s+([\w.-]+)\s*:\s*([\w]+)(.*)}
34
35 # Basic command to run indicated test case in DRAW
36 help test {
37   Run specified test case
38   Use: test group grid casename [echo=0]
39   - If echo is set to 0 (default), log is stored in memory and only summary
40     is output (the log can be obtained with command "dlog get")
41   - If echo is set to 1 or "-echo", all commands and results are echoed 
42     immediately, but log is not saved and summary is not produced
43 }
44 proc test {group grid casename {echo 0}} {
45     # get test case paths (will raise error if input is invalid)
46     _get_test $group $grid $casename dir gridname casefile
47
48     # if echo specified as "-echo", convert it to bool
49     if { "$echo" == "-echo" } { set echo t }
50
51     # run test
52     uplevel _run_test $dir $group $gridname $casefile $echo 
53
54     # check log
55     if { ! $echo } {
56         _check_log $dir $group $gridname $casename [dlog get]
57     }
58
59     return
60 }
61
62 # Basic command to run indicated test case in DRAW
63 help testgrid {
64   Run all tests, or specified group, or one grid
65   Use: testgrid [group [grid]] [options...]
66   Allowed options are:
67   -parallel N: run N parallel processes (default is number of CPUs, 0 to disable)
68   -refresh N: save summary logs every N seconds (default 60, minimal 1, 0 to disable)
69   -outdir dirname: set log directory (should be empty or non-existing)
70   -overwrite: force writing logs in existing non-empty directory
71   -xml filename: write XML report for Jenkins (in JUnit-like format)
72 }
73 proc testgrid {args} {
74     global env tcl_platform _tests_verbose
75
76     ######################################################
77     # check arguments
78     ######################################################
79
80     # check that environment variable defining paths to test scripts is defined
81     if { ! [info exists env(CSF_TestScriptsPath)] || 
82          [llength $env(CSF_TestScriptsPath)] <= 0 } {
83         error "Error: Environment variable CSF_TestScriptsPath is not defined"
84     }
85
86     # treat options
87     set parallel [_get_nb_cpus]
88     set refresh 60
89     set logdir ""
90     set overwrite 0
91     set xmlfile ""
92     for {set narg 0} {$narg < [llength $args]} {incr narg} {
93         set arg [lindex $args $narg]
94
95         # parallel execution
96         if { $arg == "-parallel" } {
97             incr narg
98             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
99                 set parallel [expr [lindex $args $narg]]
100             } else {
101                 error "Option -parallel requires argument"
102             }
103             continue
104         }
105
106         # refresh logs time
107         if { $arg == "-refresh" } {
108             incr narg
109             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
110                 set refresh [expr [lindex $args $narg]]
111             } else {
112                 error "Option -refresh requires argument"
113             }
114             continue
115         }
116
117         # output directory
118         if { $arg == "-outdir" } {
119             incr narg
120             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
121                 set logdir [lindex $args $narg]
122             } else {
123                 error "Option -outdir requires argument"
124             }
125             continue
126         }
127
128         # allow overwrite logs 
129         if { $arg == "-overwrite" } {
130             set overwrite 1
131             continue
132         }
133
134         # refresh logs time
135         if { $arg == "-xml" } {
136             incr narg
137             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
138                 set xmlfile [lindex $args $narg]
139             }
140             if { $xmlfile == "" } {
141                 set xmlfile TESTS-summary.xml
142             }
143             continue
144         }
145
146         # unsupported option
147         if { [regexp {^-} $arg] } {
148             error "Error: unsupported option \"$arg\""
149         }
150
151         # treat arguments not recognized as options as group and grid names
152         if { ! [info exists groupname] } {
153             set groupname $arg
154         } elseif { ! [info exists gridname] } {
155             set gridname $arg
156         } else {
157             error "Error: cannot interpret argument $narg ($arg): both group and grid names are already defined by previous args!"
158         }
159     }
160
161     # check that target log directory is empty or does not exist
162     set logdir [file normalize [string trim $logdir]]
163     if { $logdir == "" } {
164         # if specified logdir is empty string, generate unique name like 
165         # results_<branch>_<timestamp>
166         set prefix "results"
167         if { ! [catch {exec git branch} gitout] &&
168              [regexp {[*] ([\w]+)} $gitout res branch] } {
169             set prefix "${prefix}_$branch"
170         }
171         set logdir "${prefix}_[clock format [clock seconds] -format {%Y-%m-%dT%H%M}]"
172         set logdir [file normalize $logdir]
173     }
174     if { [file isdirectory $logdir] && ! $overwrite && ! [catch {glob -directory $logdir *}] } {
175         error "Error: Specified log directory \"$logdir\" is not empty; please clean it before running tests"
176     } 
177     if { [catch {file mkdir $logdir}] || ! [file writable $logdir] } {
178         error "Error: Cannot create directory \"$logdir\", or it is not writable"
179     }
180
181     ######################################################
182     # prepare list of tests to be performed
183     ######################################################
184
185     # list of tests, each defined by a list of:
186     # test scripts directory
187     # group (subfolder) name
188     # grid (subfolder) name
189     # test case name
190     # path to test case file
191     set tests_list {}
192
193     # iterate by all script paths
194     foreach dir [_split_path $env(CSF_TestScriptsPath)] {
195         # protection against empty paths
196         set dir [string trim $dir]
197         if { $dir == "" } { continue }
198
199         if { $_tests_verbose > 0 } { _log_and_puts log "Examining tests directory $dir" }
200
201         # check that directory exists
202         if { ! [file isdirectory $dir] } {
203             _log_and_puts log "Warning: directory $dir listed in CSF_TestScriptsPath does not exist, skipped"
204             continue
205         }
206
207         # if test group is specified, check that directory with given name exists in this dir
208         # if not, continue to the next test dir
209         if { [info exists groupname] && $groupname != "" } {
210             if { [file isdirectory $dir/$groupname] } { 
211                 set groups $groupname
212             } else {
213                 continue 
214             }
215         } else {
216             # else search all directories in the current dir
217             if [catch {glob -directory $dir -tail -types d *} groups] { continue }
218         }
219
220         # iterate by groups
221         if { $_tests_verbose > 0 } { _log_and_puts log "Groups to be executed: $groups" }
222         foreach group [lsort -dictionary $groups] {
223             if { $_tests_verbose > 0 } { _log_and_puts log "Examining group directory $group" }
224
225             # file grids.list must exist: it defines sequence of grids in the group
226             if { ! [file exists $dir/$group/grids.list] } {
227                 _log_and_puts log "Warning: directory $dir/$group does not contain file grids.list, skipped"
228                 continue
229             }
230
231             # read grids.list file and make a list of grids to be executed
232             set gridlist {}
233             set fd [open $dir/$group/grids.list]
234             set nline 0
235             while { [gets $fd line] >= 0 } {
236                 incr nline
237
238                 # skip comments and empty lines
239                 if { [regexp "\[ \t\]*\#.*" $line] } { continue }
240                 if { [string trim $line] == "" } { continue }
241
242                 # get grid id and name
243                 if { ! [regexp "^\(\[0-9\]+\)\[ \t\]*\(\[A-Za-z0-9_.-\]+\)\$" $line res gridid grid] } {
244                     _log_and_puts log "Warning: cannot recognize line $nline in file $dir/$group/grids.list as \"gridid gridname\"; ignored"
245                     continue
246                 }
247                 
248                 # if specific grid is requested, check that it is present; otherwise make complete list
249                 if { ! [info exists gridname] || $gridname == "" || $gridname == $gridid || $gridname == $grid } {
250                     lappend gridlist $grid
251                 }
252             }
253             close $fd
254             
255             # iterate by all grids
256             foreach grid $gridlist {
257
258                 # check if this grid is aliased to another one
259                 set griddir $dir/$group/$grid
260                 if { [file exists $griddir/cases.list] } {
261                     set fd [open $griddir/cases.list]
262                     if { [gets $fd line] >= 0 } {
263                         set griddir [file normalize $dir/$group/$grid/[string trim $line]]
264                     }
265                     close $fd
266                 }
267
268                 # check if grid directory actually exists
269                 if { ! [file isdirectory $griddir] } { 
270                     _log_and_puts log "Error: tests directory for grid $grid ($griddir) is missing; skipped"
271                     continue 
272                 }
273
274                 # create directory for logging test results
275                 if { $logdir != "" } { file mkdir $logdir/$group/$grid }
276
277                 # iterate by all tests in the grid directory
278                 if { [catch {glob -directory $griddir -type f *} testfiles] } { continue }
279                 foreach casefile [lsort -dictionary $testfiles] {
280                     # filter out begin and end files
281                     set casename [file tail $casefile]
282                     if { $casename == "begin" || $casename == "end" } { continue }
283
284                     lappend tests_list [list $dir $group $grid $casename $casefile]
285                 }
286             }
287         }
288     }
289     if { [llength $tests_list] < 1 } {
290         error "Error: no tests are found, check you input arguments and variable CSF_TestScriptsPath!"
291     }
292
293     ######################################################
294     # run tests
295     ######################################################
296     
297     # log command arguments and environment
298     set log "Command: testgrid $args\nHost: [info hostname]\nStarted on: [clock format [clock seconds] -format {%Y-%m-%d %H:%M:%S}]\n"
299     catch {set log "$log\nDRAW build:\n[dversion]\n" }
300     set log "$log\nEnvironment:\n"
301     foreach envar [lsort [array names env]] {
302         set log "$log$envar=\"$env($envar)\"\n"
303     }
304     set log "$log\n"
305
306     set refresh_timer [clock seconds]
307     uplevel dchrono _timer reset
308     uplevel dchrono _timer start
309
310     # if parallel execution is requested, allocate thread pool
311     if { $parallel > 0 } {
312         if { ! [info exists tcl_platform(threaded)] || [catch {package require Thread}] } {
313             _log_and_puts log "Warning: Tcl package Thread is not available, running in sequential mode"
314             set parallel 0
315         } else {
316             set worker [tpool::create -minworkers $parallel -maxworkers $parallel]
317             # suspend the pool until all jobs are posted, to prevent blocking of the process
318             # of starting / processing jobs by running threads
319             catch {tpool::suspend $worker}
320             if { $_tests_verbose > 0 } { _log_and_puts log "Executing tests in (up to) $parallel threads" }
321         }
322     }
323
324     # start test cases
325     set userbreak 0
326     foreach test_def $tests_list {
327         # check for user break
328         if { "[info commands dbreak]" == "dbreak" && [catch dbreak] } {
329             set userbreak 1
330             break
331         }
332
333         set dir       [lindex $test_def 0]
334         set group     [lindex $test_def 1]
335         set grid      [lindex $test_def 2]
336         set casename  [lindex $test_def 3]
337         set casefile  [lindex $test_def 4]
338
339         # command to set tests for generation of image in results directory
340         set imgdir_cmd ""
341         if { $logdir != "" } { set imgdir_cmd "set imagedir $logdir/$group/$grid" }
342
343         # prepare command file for running test case in separate instance of DRAW
344         set fd_cmd [open $logdir/$group/$grid/${casename}.tcl w]
345         puts $fd_cmd "$imgdir_cmd"
346         puts $fd_cmd "set test_image $casename"
347         puts $fd_cmd "_run_test $dir $group $grid $casefile t"
348
349         # use dlog command to obtain complete output of the test when it is absent (i.e. since OCCT 6.6.0)
350         # note: this is not needed if echo is set to 1 in call to _run_test above
351         if { ! [catch {dlog get}] } {
352             puts $fd_cmd "puts \[dlog get\]"
353         } else {
354             # else try to use old-style QA_ variables to get more output...
355             set env(QA_DUMP) 1
356             set env(QA_DUP) 1
357             set env(QA_print_command) 1
358         }
359
360         # final 'exit' is needed when running on Linux under VirtualGl
361         puts $fd_cmd "exit"
362         close $fd_cmd
363
364         # commant to run DRAW with a command file;
365         # note that empty string is passed as standard input to avoid possible 
366         # hang-ups due to waiting for stdin of the launching process
367         set command "exec <<{} DRAWEXE -f $logdir/$group/$grid/${casename}.tcl"
368
369         # alternative method to run without temporary file; disabled as it needs too many backslashes
370 #       else {
371 #           set command "exec <<\"\" DRAWEXE -c $imgdir_cmd\\\; set test_image $casename\\\; \
372 #                        _run_test $dir $group $grid $casefile\\\; \
373 #                        puts \\\[dlog get\\\]\\\; exit"
374 #       }
375
376         # run test case, either in parallel or sequentially
377         if { $parallel > 0 } {
378             # parallel execution
379             set job [tpool::post -nowait $worker "catch \"$command\" output; return \$output"]
380             set job_def($job) [list $logdir $dir $group $grid $casename]
381         } else {
382             # sequential execution
383             catch {eval $command} output
384             _log_test_case $output $logdir $dir $group $grid $casename log
385
386             # update summary log with requested period
387             if { $logdir != "" && $refresh > 0 && [expr [clock seconds] - $refresh_timer > $refresh] } {
388                 # update and dump summary
389                 _log_summarize $logdir $log
390                 set refresh_timer [clock seconds]
391             }
392         }
393     }
394
395     # get results of started threads
396     if { $parallel > 0 } {
397         catch {tpool::resume $worker}
398         while { ! $userbreak && [llength [array names job_def]] > 0 } {
399             foreach job [tpool::wait $worker [array names job_def]] {
400                 eval _log_test_case \[tpool::get $worker $job\] $job_def($job) log
401                 unset job_def($job)
402             }
403
404             # check for user break
405             if { "[info commands dbreak]" == "dbreak" && [catch dbreak] } {
406                 set userbreak 1
407             }
408
409             # update summary log with requested period
410             if { $logdir != "" && $refresh > 0 && [clock seconds] > $refresh_timer + $refresh } {
411                 _log_summarize $logdir $log
412                 set refresh_timer [clock seconds]
413             }
414         }
415         # release thread pool
416         tpool::cancel $worker [array names job_def]
417         tpool::release $worker
418     }
419
420     uplevel dchrono _timer stop
421     set time [lindex [split [uplevel dchrono _timer show] "\n"] 0]
422
423     if { $userbreak } {
424         puts "*********** Stopped by user break ***********"
425         set time "${time} \nNote: the process is not finished, stopped by user break!"
426     }
427
428     ######################################################
429     # output summary logs and exit
430     ######################################################
431
432     _log_summarize $logdir $log $time
433     if { $logdir != "" } {
434         puts "Detailed logs are saved in $logdir"
435     }
436     if { $logdir != "" && $xmlfile != "" } {
437         # XML output file is assumed relative to log dir unless it is absolute
438         if { [ file pathtype $xmlfile] == "relative" } {
439             set xmlfile [file normalize $logdir/$xmlfile]
440         }
441         _log_xml_summary $logdir $xmlfile $log 0
442         puts "XML summary is saved to $xmlfile"
443     }
444
445     return
446 }
447
448 # Procedure to regenerate summary log from logs of test cases
449 help testsummarize {
450   Regenerate summary log in the test directory from logs of test cases.
451   This can be necessary if test grids are executed separately (e.g. on
452   different stations) or some grids have been re-executed.
453   Use: testsummarize dir
454 }
455 proc testsummarize {dir} {
456     global _test_case_regexp
457
458     if { ! [file isdirectory $dir] } {
459         error "Error: \"$dir\" is not a directory"
460     }
461
462     # get summary statements from all test cases in one log
463     set log ""
464
465     # to avoid huge listing of logs, first find all subdirectories and iterate
466     # by them, parsing log files in each subdirectory independently 
467     foreach grid [glob -directory $dir -types d -tails */*] {
468         foreach caselog [glob -nocomplain -directory [file join $dir $grid] -types f -tails *.log] {
469             set file [file join $dir $grid $caselog]
470             set nbfound 0
471             set fd [open $file r]
472             while { [gets $fd line] >= 0 } {
473                 if { [regexp $_test_case_regexp $line res grp grd cas status message] } {
474                     if { "[file join $grid $caselog]" != "[file join $grp $grd ${cas}.log]" } { 
475                         puts "Error: $file contains status line for another test case ($line)"
476                     }
477                     set log "$log$line\n"
478                     incr nbfound
479                 }
480             }
481             close $fd
482
483             if { $nbfound != 1 } { 
484                 puts "Error: $file contains $nbfound status lines, expected 1"
485             }
486         }
487     }
488
489     _log_summarize $dir $log "Summary regenerated from logs at [clock format [clock seconds]]"
490     return
491 }
492
493 # Procedure to compare results of two runs of test cases
494 help testdiff {
495   Compare results of two executions of tests (CPU times, ...)
496   Use: testdiff dir1 dir2 [groupname [gridname]] [options...]
497   Where dir1 and dir2 are directories containing logs of two test runs.
498   Allowed options are:
499   -save filename: save resulting log in specified file (default name is
500                   <dir1>/diff-<dir2>.log); HTML log is saved with same name
501                   and extension .html
502   -status {same|ok|all}: filter cases for comparing by their status:
503           same - only cases with same status are compared (default)
504           ok   - only cases with OK status in both logs are compared
505           all  - results are compared regardless of status
506   -verbose level: 
507           1 - output only differences 
508           2 - output also list of logs and directories present in one of dirs only
509           3 - (default) output also progress messages 
510 }
511 proc testdiff {dir1 dir2 args} {
512     if { "$dir1" == "$dir2" } {
513         error "Input directories are the same"
514     }
515
516     ######################################################
517     # check arguments
518     ######################################################
519
520     # treat options
521     set logfile [file join $dir1 "diff-[file tail $dir2].log"]
522     set basename ""
523     set status "same"
524     set verbose 3
525     for {set narg 0} {$narg < [llength $args]} {incr narg} {
526         set arg [lindex $args $narg]
527
528         # log file name
529         if { $arg == "-save" } {
530             incr narg
531             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
532                 set logfile [lindex $args $narg]
533             } else {
534                 error "Error: Option -save must be followed by log file name"
535             } 
536             continue
537         }
538
539         # status filter
540         if { $arg == "-status" } {
541             incr narg
542             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
543                 set status [lindex $args $narg]
544             } else { set status "" }
545             if { "$status" != "same" && "$status" != "all" && "$status" != "ok" } {
546                 error "Error: Option -status must be followed by one of \"same\", \"all\", or \"ok\""
547             }
548             continue
549         }
550
551         # verbose level
552         if { $arg == "-verbose" } {
553             incr narg
554             if { $narg < [llength $args] && ! [regexp {^-} [lindex $args $narg]] } { 
555                 set verbose [expr [lindex $args $narg]]
556             } else {
557                 error "Error: Option -verbose must be followed by integer verbose level"
558             }
559             continue
560         }
561
562         if { [regexp {^-} $arg] } {
563             error "Error: unsupported option \"$arg\""
564         }
565
566         # non-option arguments form a subdirectory path
567         set basename [file join $basename $arg]
568     }
569
570     # run diff procedure (recursive)
571     _test_diff $dir1 $dir2 $basename $status $verbose log
572
573     # save result to log file
574     if { "$logfile" != "" } {
575         _log_save $logfile $log
576         _log_html_diff "[file rootname $logfile].html" $log $dir1 $dir2
577         puts "Log is saved to $logfile (and .html)"
578     }
579
580     return
581 }
582
583 # Procedure to check data file before adding it to repository
584 help testfile {
585   Check data file and prepare it for putting to test data files repository.
586   Use: testfile [filelist]
587
588   Will report if:
589   - data file (non-binary) is in DOS encoding (CR/LF)
590   - same data file (with same or another name) already exists in the repository
591   - another file with the same name already exists 
592   Note that names are assumed to be case-insensitive (for Windows).
593
594   Unless the file is already in the repository, tries to load it, reports
595   the recognized file format, file size, number of faces and edges in the 
596   loaded shape (if any), and makes snapshot (in the temporary directory).
597   Finally it advises whether the file should be put to public section of the 
598   repository.
599 }
600 proc testfile {filelist} {
601     global env
602
603     # check that CSF_TestDataPath is defined
604     if { ! [info exists env(CSF_TestDataPath)] } {
605         error "Environment variable CSF_TestDataPath must be defined!"
606     }
607
608     # build registry of existing data files (name -> path) and (size -> path)
609     puts "Checking available test data files..."
610     foreach dir [_split_path $env(CSF_TestDataPath)] {
611         while {[llength $dir] != 0} {
612             set curr [lindex $dir 0]
613             set dir [lrange $dir 1 end]
614             eval lappend dir [glob -nocomplain -directory $curr -type d *]
615             foreach file [glob -nocomplain -directory $curr -type f *] {
616                 set name [file tail $file]
617                 set name_lower [string tolower $name]
618
619                 # check that the file is not in DOS encoding
620                 if { [_check_dos_encoding $file] } {
621                     puts "Warning: file $file is in DOS encoding; was this intended?"
622                 }
623                 _check_file_format $file
624
625                 # check if file with the same name is present twice or more
626                 if { [info exists names($name_lower)] } {
627                     puts "Error: more than one file with name $name is present in the repository:"
628                     if { [_diff_files $file $names($name_lower)] } {
629                         puts "(files are different by content)"
630                     } else {
631                         puts "(files are same by content)"
632                     }
633                     puts "--> $file"
634                     puts "--> $names($name_lower)"
635                     continue
636                 } 
637                 
638                 # check if file with the same content exists
639                 set size [file size $file]
640                 if { [info exists sizes($size)] } {
641                     foreach other $sizes($size) {
642                         if { ! [_diff_files $file $other] } {
643                             puts "Warning: two files with the same content found:"
644                             puts "--> $file"
645                             puts "--> $other"
646                         }
647                     }
648                 }
649
650                 # add the file to the registry
651                 set names($name_lower) $file
652                 lappend sizes($size) $file
653             }
654         }
655     }
656     if { [llength $filelist] <= 0 } { return }
657
658     # check the new files
659     set has_images f
660     puts "Checking new file(s)..."
661     foreach file $filelist {
662         # check for DOS encoding
663         if { [_check_dos_encoding $file] } {
664             puts "$file: Warning: DOS encoding detected"
665         }
666
667         set name [file tail $file]
668         set name_lower [string tolower $name]
669
670         # check for presence of the file with same name
671         if { [info exists names($name_lower)] } {
672             if { [_diff_files $file $names($name_lower)] } {
673                 puts "$file: Error: name is already used by existing file\n--> $names($name_lower)"
674             } else {
675                 puts "$file: OK: already in the repository \n--> $names($name_lower)"
676                 continue
677             }
678         }
679                 
680         # check if file with the same content exists
681         set size [file size $file]
682         if { [info exists sizes($size)] } {
683             set found f
684             foreach other $sizes($size) {
685                 if { ! [_diff_files $file $other] } {
686                      puts "$file: OK: the same file is already present under name [file tail $other]\n--> $other"
687                      set found t
688                      break
689                 }
690             }
691             if { $found } { continue }
692         }
693
694         # try to read the file
695         set format [_check_file_format $file]
696         if { [catch {uplevel load_data_file $file $format a}] } {
697             puts "$file: Error: Cannot read as $format file"
698             continue
699         }
700
701         # get number of faces and edges
702         set edges 0
703         set faces 0
704         set nbs [uplevel nbshapes a]
705         regexp {EDGE[ \t:]*([0-9]+)} $nbs res edges
706         regexp {FACE[ \t:]*([0-9]+)} $nbs res faces
707
708         # classify; first check file size and number of faces and edges
709         if { $size < 95000 && $faces < 20 && $edges < 100 } {
710             set dir public
711         } else {
712             set dir private
713             # check if one of names of that file corresponds to typical name for 
714             # MDTV bugs or has extension .rle, this should be old model
715             if { [regexp -nocase {.*(cts|ats|pro|buc|ger|fra|usa|uki)[0-9]+.*} $name] ||
716                  [regexp -nocase {[.]rle\y} $name] } {
717                 set dir old
718             }
719         }
720
721         # add stats
722         puts "$file: $format size=[expr $size / 1024] KiB, nbfaces=$faces, nbedges=$edges -> $dir"
723
724         set tmpdir [_get_temp_dir]
725         file mkdir $tmpdir/$dir
726
727         # make snapshot
728         pload AISV
729         uplevel vdisplay a
730         uplevel vfit
731         uplevel vzfit
732         uplevel vdump $tmpdir/$dir/[file rootname [file tail $file]].png
733         set has_images t
734     }
735     if { $has_images } {
736         puts "Snapshots are saved in subdirectory [_get_temp_dir]"
737     }
738 }
739
740 # Procedure to locate data file for test given its name.
741 # The search is performed assuming that the function is called
742 # from the test case script; the search order is:
743 # - subdirectory "data" of the test script (grid) folder
744 # - subdirectories in environment variable CSF_TestDataPath
745 # - subdirectory set by datadir command
746 # If file is not found, raises Tcl error.
747 proc locate_data_file {filename} {
748     global env groupname gridname casename
749
750     # check if the file is located in the subdirectory data of the script dir
751     set scriptfile [info script]
752     if { $scriptfile != "" } {
753         set path [file join [file dirname $scriptfile] data $filename]
754         if { [file exists $path] } {
755             return [file normalize $path]
756         }
757     }
758
759     # check sub-directories in paths indicated by CSF_TestDataPath
760     if { [info exists env(CSF_TestDataPath)] } {
761         foreach dir [_split_path $env(CSF_TestDataPath)] {
762             while {[llength $dir] != 0} { 
763                 set name [lindex $dir 0]
764                 set dir [lrange $dir 1 end]
765                 eval lappend dir [glob -nocomplain -directory $name -type d *]
766                 if { [file exists $name/$filename] } {
767                     return [file normalize $name/$filename]
768                 }
769             }
770         }
771     }
772
773     # check current datadir
774     if { [file exists [uplevel datadir]/$filename] } {
775         return [file normalize [uplevel datadir]/$filename]
776     }
777
778     # raise error
779     error [join [list "File $filename could not be found" \
780                       "(should be in paths indicated by CSF_TestDataPath environment variable, " \
781                       "or in subfolder data in the script directory)"] "\n"]
782 }
783
784 # Internal procedure to find test case indicated by group, grid, and test case names;
785 # returns:
786 # - dir: path to the base directory of the tests group
787 # - gridname: actual name of the grid
788 # - casefile: path to the test case script 
789 # if no such test is found, raises error with appropriate message
790 proc _get_test {group grid casename _dir _gridname _casefile} {
791     upvar $_dir dir
792     upvar $_gridname gridname
793     upvar $_casefile casefile
794
795     global env
796  
797     # check that environment variable defining paths to test scripts is defined
798     if { ! [info exists env(CSF_TestScriptsPath)] || 
799          [llength $env(CSF_TestScriptsPath)] <= 0 } {
800         error "Error: Environment variable CSF_TestScriptsPath is not defined"
801     }
802
803     # iterate by all script paths
804     foreach dir [_split_path $env(CSF_TestScriptsPath)] {
805         # protection against empty paths
806         set dir [string trim $dir]
807         if { $dir == "" } { continue }
808
809         # check that directory exists
810         if { ! [file isdirectory $dir] } {
811             puts "Warning: directory $dir listed in CSF_TestScriptsPath does not exist, skipped"
812             continue
813         }
814
815         # check if test group with given name exists in this dir
816         # if not, continue to the next test dir
817         if { ! [file isdirectory $dir/$group] } { continue }
818
819         # check that grid with given name (possibly alias) exists; stop otherwise
820         set gridname $grid
821         if { ! [file isdirectory $dir/$group/$gridname] } {
822             # check if grid is named by alias rather than by actual name
823             if { [file exists $dir/$group/grids.list] } {
824                 set fd [open $dir/$group/grids.list]
825                 while { [gets $fd line] >= 0 } {
826                     if { [regexp "\[ \t\]*\#.*" $line] } { continue }
827                     if { [regexp "^$grid\[ \t\]*\(\[A-Za-z0-9_.-\]+\)\$" $line res gridname] } {
828                         break
829                     }
830                 }
831                 close $fd
832             }
833         }
834         if { ! [file isdirectory $dir/$group/$gridname] } { continue }
835
836         # get actual file name of the script; stop if it cannot be found
837         set casefile $dir/$group/$gridname/$casename
838         if { ! [file exists $casefile] } {
839             # check if this grid is aliased to another one
840             if { [file exists $dir/$group/$gridname/cases.list] } {
841                 set fd [open $dir/$group/$gridname/cases.list]
842                 if { [gets $fd line] >= 0 } {
843                     set casefile [file normalize $dir/$group/$gridname/[string trim $line]/$casename]
844                 }
845                 close $fd
846             }
847         }
848         if { [file exists $casefile] } { 
849             # normal return
850             return 
851         }
852     }
853
854     # coming here means specified test is not found; report error
855     error [join [list "Error: test case $group / $grid / $casename is not found in paths listed in variable" \
856                      "CSF_TestScriptsPath (current value is \"$env(CSF_TestScriptsPath)\")"] "\n"]
857 }
858
859 # Internal procedure to run test case indicated by base directory, 
860 # grid and grid names, and test case file path.
861 # The log can be obtained by command "dlog get".
862 proc _run_test {scriptsdir group gridname casefile echo} {
863     global env
864
865     # start timer
866     uplevel dchrono _timer reset
867     uplevel dchrono _timer start
868     catch {uplevel meminfo w} membase
869
870     # enable commands logging; switch to old-style mode if dlog command is not present
871     set dlog_exists 1
872     if { [catch {dlog reset}] } {
873         set dlog_exists 0
874     } elseif { $echo } {
875         decho on
876     } else {
877         dlog reset
878         dlog on
879         rename puts puts-saved
880         proc puts args { 
881             global _tests_verbose
882
883             # log only output to stdout and stderr, not to file!
884             if {[llength $args] > 1} {
885                 set optarg [lindex $args end-1]
886                 if { $optarg == "stdout" || $optarg == "stderr" || $optarg == "-newline" } {
887                     dlog add [lindex $args end]
888                 } else {
889                     eval puts-saved $args
890                 }
891             } else {
892                 dlog add [lindex $args end]
893             }
894         }
895     }
896
897     # evaluate test case 
898     if [catch {
899         # set variables identifying test case
900         uplevel set casename [file tail $casefile]
901         uplevel set groupname $group
902         uplevel set gridname $gridname
903         uplevel set dirname  $scriptsdir
904
905         # set variables for saving of images if not yet set
906         if { ! [uplevel info exists imagedir] } {
907             uplevel set imagedir [_get_temp_dir]
908             uplevel set test_image \$casename
909         }
910
911         # execute test scripts 
912         if { [file exists $scriptsdir/$group/begin] } {
913             puts "Executing $scriptsdir/$group/begin..."; flush stdout
914             uplevel source $scriptsdir/$group/begin
915         }
916         if { [file exists $scriptsdir/$group/$gridname/begin] } {
917             puts "Executing $scriptsdir/$group/$gridname/begin..."; flush stdout
918             uplevel source $scriptsdir/$group/$gridname/begin
919         }
920         
921         puts "Executing $casefile..."; flush stdout
922         uplevel source $casefile
923         
924         if { [file exists $scriptsdir/$group/$gridname/end] } {
925             puts "Executing $scriptsdir/$group/$gridname/end..."; flush stdout
926             uplevel source $scriptsdir/$group/$gridname/end
927         }
928         if { [file exists $scriptsdir/$group/end] } {
929             puts "Executing $scriptsdir/$group/end..."; flush stdout
930             uplevel source $scriptsdir/$group/end
931         }
932     } res] {
933         puts "Tcl Exception: $res"
934     }
935
936     # stop logging
937     if { $dlog_exists } {
938         if { $echo } {
939             decho off
940         } else {
941             rename puts {}
942             rename puts-saved puts
943             dlog off
944         }
945     }
946
947     # stop cpulimit killer if armed by the test
948     cpulimit
949
950     # add memory and timing info
951     set stats ""
952     if { ! [catch {uplevel meminfo w} memuse] } {
953         set stats "MEMORY DELTA: [expr ($memuse - $membase) / 1024] KiB\n"
954     }
955     uplevel dchrono _timer stop
956     set time [uplevel dchrono _timer show]
957     if [regexp -nocase {CPU user time:[ \t]*([0-9.e-]+)} $time res cpu] {
958         set stats "${stats}TOTAL CPU TIME: $cpu sec\n"
959     }
960     if { $dlog_exists && ! $echo } {
961         dlog add $stats
962     } else {
963         puts $stats
964     }
965 }
966
967 # Internal procedure to check log of test execution and decide if it passed or failed
968 proc _check_log {dir group gridname casename log {_summary {}} {_html_log {}}} {
969     global env
970     if { $_summary != "" } { upvar $_summary summary }
971     if { $_html_log != "" } { upvar $_html_log html_log }
972     set summary ""
973     set html_log ""
974
975 if [catch {
976
977     # load definition of 'bad words' indicating test failure
978     # note that rules are loaded in the order of decreasing priority (grid - group - common),
979     # thus grid rules will override group ones
980     set badwords {}
981     foreach rulesfile [list $dir/$group/$gridname/parse.rules $dir/$group/parse.rules $dir/parse.rules] {
982         if [catch {set fd [open $rulesfile r]}] { continue }
983         while { [gets $fd line] >= 0 } {
984             # skip comments and empty lines
985             if { [regexp "\[ \t\]*\#.*" $line] } { continue }
986             if { [string trim $line] == "" } { continue }
987             # extract regexp
988             if { ! [regexp {^([^/]*)/([^/]*)/(.*)$} $line res status rexp comment] } { 
989                 puts "Warning: cannot recognize parsing rule \"$line\" in file $rulesfile"
990                 continue 
991             }
992             set status [string trim $status]
993             if { $comment != "" } { set status "$status ([string trim $comment])" }
994             set rexp [regsub -all {\\b} $rexp {\\y}] ;# convert regexp from Perl to Tcl style
995             lappend badwords [list $status $rexp]
996         }
997         close $fd
998     }
999     if { [llength $badwords] <= 0 } { 
1000         puts "Warning: no definition of error indicators found (check files parse.rules)" 
1001     }
1002
1003     # analyse log line-by-line
1004     set todos {}
1005     set status ""
1006     foreach line [split $log "\n"] {
1007         # check if line defines specific treatment of some messages
1008         if [regexp -nocase {^[ \t]*TODO ([^:]*):(.*)$} $line res platforms pattern] {
1009             if { ! [regexp -nocase {\mAll\M} $platforms] && 
1010                  ! [regexp -nocase "\\m$env(os_type)\\M" $platforms] } {
1011                 set html_log "$html_log\n$line"
1012                 continue ;# TODO statement is for another platform
1013             }
1014
1015             # record TODOs that mark unstable cases
1016             if { [regexp {[\?]} $platforms] } {
1017                 set todos_unstable([llength $todos]) 1
1018             }
1019
1020             lappend todos [regsub -all {\\b} [string trim $pattern] {\\y}] ;# convert regexp from Perl to Tcl style
1021             set html_log "$html_log\n[_html_highlight BAD $line]"
1022             continue
1023         }
1024
1025         # check for presence of messages indicating test result
1026         set ismarked 0
1027         foreach bw $badwords {
1028             if { [regexp [lindex $bw 1] $line] } { 
1029                 # check if this is known bad case
1030                 set is_known 0
1031                 for {set i 0} {$i < [llength $todos]} {incr i} {
1032                     if { [regexp [lindex $todos $i] $line] } {
1033                         set is_known 1
1034                         incr todo_count($i)
1035                         set html_log "$html_log\n[_html_highlight BAD $line]"
1036                         break
1037                     }
1038                 }
1039
1040                 # if it is not in todo, define status
1041                 if { ! $is_known } {
1042                     set stat [lindex $bw 0 0]
1043                     set html_log "$html_log\n[_html_highlight $stat $line]"
1044                     if { $status == "" && $stat != "OK" && ! [regexp -nocase {^IGNOR} $stat] } {
1045                         set status [lindex $bw 0]
1046                     }
1047                 }
1048                 set ismarked 1
1049                 break
1050             }
1051         }
1052         if { ! $ismarked } { 
1053             set html_log "$html_log\n$line"
1054         }
1055     }
1056
1057     # check for presence of TEST COMPLETED statement
1058     if { $status == "" && ! [regexp {TEST COMPLETED} $log] } {
1059         # check whether absence of TEST COMPLETED is known problem
1060         set i [lsearch $todos "TEST INCOMPLETE"]
1061         if { $i >= 0 } {
1062             incr todo_count($i)
1063         } else {
1064             set status "FAILED (no final message is found)"
1065         }
1066     }
1067
1068     # check declared bad cases and diagnose possible improvement 
1069     # (bad case declared but not detected).
1070     # Note that absence of the problem marked by TODO with question mark
1071     # (unstable) is not reported as improvement.
1072     if { $status == "" } {
1073         for {set i 0} {$i < [llength $todos]} {incr i} {
1074             if { ! [info exists todos_unstable($i)] &&
1075                  (! [info exists todo_count($i)] || $todo_count($i) <= 0) } {
1076                 set status "IMPROVEMENT (expected problem TODO no. [expr $i + 1] is not detected)"
1077                 break;
1078             }
1079         }
1080     }
1081
1082     # report test as known bad if at least one of expected problems is found
1083     if { $status == "" && [llength [array names todo_count]] > 0 } {
1084         set status "BAD (known problem)"
1085     }
1086
1087     # report normal OK
1088     if { $status == "" } {set status "OK" }
1089
1090 } res] {
1091     set status "FAILED ($res)"
1092 }
1093
1094     # put final message
1095     _log_and_puts summary "CASE $group $gridname $casename: $status"
1096     set html_log "[_html_highlight [lindex $status 0] $summary]\n$html_log"
1097 }
1098
1099 # Auxiliary procedure putting message to both cout and log variable (list)
1100 proc _log_and_puts {logvar message} {
1101     if { $logvar != "" } { 
1102         upvar $logvar log
1103         if [info exists log] { 
1104             set log "$log$message\n"
1105         } else {
1106             set log "$message\n"
1107         }
1108     }
1109     puts $message
1110 }
1111
1112 # Auxiliary procedure to log result on single test case
1113 proc _log_test_case {output logdir dir group grid casename logvar} {
1114     upvar $logvar log
1115
1116     # check result and make HTML log
1117     _check_log $dir $group $grid $casename $output summary html_log
1118     set log "$log$summary"
1119
1120     # save log to file
1121     if { $logdir != "" } {
1122         _log_html $logdir/$group/$grid/$casename.html $html_log "Test $group $grid $casename"
1123         _log_save $logdir/$group/$grid/$casename.log "$output\n$summary" "Test $group $grid $casename"
1124     }
1125 }
1126
1127 # Auxiliary procedure to save log to file
1128 proc _log_save {file log {title {}}} {
1129     # create missing directories as needed
1130     catch {file mkdir [file dirname $file]}
1131
1132     # try to open a file
1133     if [catch {set fd [open $file w]} res] {
1134         error "Error saving log file $file: $res"
1135     }
1136     
1137     # dump log and close
1138     puts $fd "$title\n"
1139     puts $fd $log
1140     close $fd
1141     return
1142 }
1143
1144 # Auxiliary procedure to make a (relative if possible) URL to a file for 
1145 # inclusion a reference in HTML log
1146 proc _make_url {htmldir file} {
1147     set htmlpath [file split [file normalize $htmldir]]
1148     set filepath [file split [file normalize $file]]
1149     for {set i 0} {$i < [llength $htmlpath]} {incr i} {
1150         if { "[lindex $htmlpath $i]" != "[lindex $filepath $i]" } {
1151             if { $i == 0 } { break }
1152             return "[string repeat "../" [expr [llength $htmlpath] - $i - 1]][eval file join [lrange $filepath $i end]]"
1153         }
1154     }
1155
1156     # if relative path could not be made, return full file URL
1157     return "file://[file normalize $file]"
1158 }
1159
1160 # Auxiliary procedure to save log to file
1161 proc _log_html {file log {title {}}} {
1162     # create missing directories as needed
1163     catch {file mkdir [file dirname $file]}
1164
1165     # try to open a file
1166     if [catch {set fd [open $file w]} res] {
1167         error "Error saving log file $file: $res"
1168     }
1169     
1170     # print header
1171     puts $fd "<html><head><title>$title</title></head><body><h1>$title</h1>"
1172
1173     # add images if present
1174     set imgbasename [file rootname [file tail $file]]
1175     foreach img [lsort [glob -nocomplain -directory [file dirname $file] -tails ${imgbasename}*.gif ${imgbasename}*.png ${imgbasename}*.jpg]] {
1176         puts $fd "<p>[file tail $img]<br><img src=\"$img\"/><p>"
1177     }
1178
1179     # print log body, trying to add HTML links to script files on lines like
1180     # "Executing <filename>..."
1181     puts $fd "<pre>"
1182     foreach line [split $log "\n"] {
1183         if { [regexp {Executing[ \t]+([a-zA-Z0-9._/:-]+[^.])} $line res script] &&
1184              [file exists $script] } {
1185             set line [regsub $script $line "<a href=\"[_make_url $file $script]\">$script</a>"]
1186         }
1187         puts $fd $line
1188     }
1189     puts $fd "</pre></body></html>"
1190
1191     close $fd
1192     return
1193 }
1194
1195 # Auxiliary method to make text with HTML highlighting according to status
1196 proc _html_color {status} {
1197     # choose a color for the cell according to result
1198     if { $status == "OK" } { 
1199         return lightgreen
1200     } elseif { [regexp -nocase {^FAIL} $status] } { 
1201         return red
1202     } elseif { [regexp -nocase {^BAD} $status] } { 
1203         return yellow
1204     } elseif { [regexp -nocase {^IMP} $status] } { 
1205         return orange
1206     } elseif { [regexp -nocase {^SKIP} $status] } { 
1207         return gray
1208     } elseif { [regexp -nocase {^IGNOR} $status] } { 
1209         return gray
1210     } else {
1211         puts "Warning: no color defined for status $status, using red as if FAILED"
1212         return red
1213     }
1214 }
1215
1216 # Format text line in HTML to be colored according to the status
1217 proc _html_highlight {status line} {
1218     return "<table><tr><td bgcolor=\"[_html_color $status]\">$line</td></tr></table>"
1219 }
1220
1221 # Internal procedure to generate HTML page presenting log of the tests
1222 # execution in tabular form, with links to reports on individual cases
1223 proc _log_html_summary {logdir log totals regressions improvements total_time} {
1224     global _test_case_regexp
1225
1226      # create missing directories as needed
1227     catch {file mkdir $logdir}
1228
1229     # try to open a file and start HTML
1230     if [catch {set fd [open $logdir/summary.html w]} res] {
1231         error "Error creating log file: $res"
1232     }
1233
1234     # write HRML header, including command to refresh log if still in progress
1235     puts $fd "<html><head>"
1236     puts $fd "<title>Tests summary</title>"
1237     if { $total_time == "" } {
1238         puts $fd "<meta http-equiv=\"refresh\" content=\"10\">"
1239     }
1240     puts $fd "<meta http-equiv=\"pragma\" content=\"NO-CACHE\">"
1241     puts $fd "</head><body>"
1242
1243     # put summary
1244     set legend(OK)          "Test passed OK"
1245     set legend(FAILED)      "Test failed (regression)"
1246     set legend(BAD)         "Known problem"
1247     set legend(IMPROVEMENT) "Possible improvement (expected problem not detected)"
1248     set legend(SKIPPED)     "Test skipped due to lack of data file"
1249     puts $fd "<h1>Summary</h1><table>"
1250     foreach nbstat $totals {
1251         set status [lindex $nbstat 1]
1252         if { [info exists legend($status)] } { 
1253             set comment $legend($status) 
1254         } else {
1255             set comment "User-defined status"
1256         }
1257         puts $fd "<tr><td align=\"right\">[lindex $nbstat 0]</td><td bgcolor=\"[_html_color $status]\">$status</td><td>$comment</td></tr>"
1258     }
1259     puts $fd "</table>"
1260
1261     # time stamp and elapsed time info
1262     if { $total_time != "" } { 
1263         puts $fd "<p>Generated on [clock format [clock seconds] -format {%Y-%m-%d %H:%M:%S}] on [info hostname]\n<p>"
1264         puts $fd [join [split $total_time "\n"] "<p>"]
1265     } else {
1266         puts $fd "<p>NOTE: This is intermediate summary; the tests are still running! This page will refresh automatically until tests are finished."
1267     }
1268    
1269     # print regressions and improvements
1270     foreach featured [list $regressions $improvements] {
1271         if { [llength $featured] <= 1 } { continue }
1272         set status [string trim [lindex $featured 0] { :}]
1273         puts $fd "<h2>$status</h2>"
1274         puts $fd "<table>"
1275         set groupgrid ""
1276         foreach test [lrange $featured 1 end] {
1277             if { ! [regexp {^(.*)\s+([\w.]+)$} $test res gg name] } {
1278                 set gg UNKNOWN
1279                 set name "Error building short list; check details"
1280             }
1281             if { $gg != $groupgrid } {
1282                 if { $groupgrid != "" } { puts $fd "</tr>" }
1283                 set groupgrid $gg
1284                 puts $fd "<tr><td>$gg</td>"
1285             }
1286             puts $fd "<td bgcolor=\"[_html_color $status]\"><a href=\"[regsub -all { } $gg /]/${name}.html\">$name</a></td>"
1287         }
1288         if { $groupgrid != "" } { puts $fd "</tr>" }
1289         puts $fd "</table>"
1290     }
1291
1292     # put detailed log
1293     puts $fd "<h1>Details</h1>"
1294
1295     # process log line-by-line
1296     set group {}
1297     set letter {}
1298     foreach line [lsort -dictionary [split $log "\n"]] {
1299         # check that the line is case report in the form "CASE group grid name: result (explanation)"
1300         if { ! [regexp $_test_case_regexp $line res grp grd casename result message] } {
1301             continue
1302         }
1303
1304         # start new group
1305         if { $grp != $group } {
1306             if { $letter != "" } { puts $fd "</tr></table>" }
1307             set letter {}
1308             set group $grp
1309             set grid {}
1310             puts $fd "<h2>Group $group</h2>"
1311         }
1312
1313         # start new grid
1314         if { $grd != $grid } {
1315             if { $letter != "" } { puts $fd "</tr></table>" }
1316             set letter {}
1317             set grid $grd
1318             puts $fd "<h3>Grid $grid</h3>"
1319         }
1320
1321         # check if test case name is <letter><digit>; 
1322         # if not, set alnum to period "." to recognize non-standard test name
1323         if { ! [regexp {([A-Za-z]+)([0-9]+)} $casename res alnum number] } {
1324             set alnum .
1325         }
1326
1327         # start new row when letter changes or for non-standard names
1328         if { $alnum != $letter || $alnum == "." } {
1329             if { $letter != "" } { 
1330                 puts $fd "</tr><tr>" 
1331             } else {
1332                 puts $fd "<table><tr>"
1333             }
1334             set letter $alnum
1335         }           
1336
1337         puts $fd "<td bgcolor=\"[_html_color $result]\"><a href=\"$group/$grid/${casename}.html\">$casename</a></td>"
1338     }
1339     puts $fd "</tr></table>"
1340
1341     # add remaining lines of log as plain text
1342     puts $fd "<h2>Plain text messages</h2>\n<pre>"
1343     foreach line [split $log "\n"] {
1344         if { ! [regexp $_test_case_regexp $line] } {
1345             puts $fd "$line"
1346         }
1347     }
1348     puts $fd "</pre>"
1349
1350     # close file and exit
1351     puts $fd "</body>"
1352     close $fd
1353     return
1354 }
1355
1356 # Procedure to dump summary logs of tests
1357 proc _log_summarize {logdir log {total_time {}}} {
1358
1359     # sort log records alphabetically to have the same behavior on Linux and Windows 
1360     # (also needed if tests are run in parallel)
1361     set loglist [lsort -dictionary [split $log "\n"]]
1362
1363     # classify test cases by status
1364     foreach line $loglist {
1365         if { [regexp {^CASE ([^:]*): ([[:alnum:]]+).*$} $line res caseid status] } {
1366             lappend stat($status) $caseid
1367         }
1368     }
1369     set totals {}
1370     set improvements {Improvements:}
1371     set regressions {Failed:}
1372     if { [info exists stat] } {
1373         foreach status [lsort [array names stat]] {
1374             lappend totals [list [llength $stat($status)] $status]
1375
1376             # separately count improvements (status starting with IMP) and regressions (all except IMP, OK, BAD, and SKIP)
1377             if { [regexp -nocase {^IMP} $status] } {
1378                 eval lappend improvements $stat($status)
1379             } elseif { $status != "OK" && ! [regexp -nocase {^BAD} $status] && ! [regexp -nocase {^SKIP} $status] } {
1380                 eval lappend regressions $stat($status)
1381             }
1382         }
1383     }
1384
1385     # if time is specified, add totals
1386     if { $total_time != "" } {
1387         if { [llength $improvements] > 1 } {
1388             _log_and_puts log [join $improvements "\n  "]
1389         }
1390         if { [llength $regressions] > 1 } {
1391             _log_and_puts log [join $regressions "\n  "]
1392         }
1393         if { [llength $improvements] == 1 && [llength $regressions] == 1 } {
1394             _log_and_puts log "No regressions"
1395         }
1396         _log_and_puts log "Total cases: [join $totals {, }]"
1397         _log_and_puts log $total_time
1398     }
1399
1400     # save log to files
1401     if { $logdir != "" } {
1402         _log_html_summary $logdir $log $totals $regressions $improvements $total_time
1403         _log_save $logdir/tests.log $log "Tests summary"
1404     }
1405
1406     return
1407 }
1408
1409 # Internal procedure to generate XML log in JUnit style, for further
1410 # consumption by Jenkins or similar systems.
1411 #
1412 # The output is intended to conform to XML schema supported by Jenkins found at
1413 # https://svn.jenkins-ci.org/trunk/hudson/dtkit/dtkit-format/dtkit-junit-model/src/main/resources/com/thalesgroup/dtkit/junit/model/xsd/junit-4.xsd
1414 #
1415 # The mapping of the fields is inspired by annotated schema of Apache Ant JUnit XML format found at
1416 # http://windyroad.org/dl/Open%20Source/JUnit.xsd
1417 proc _log_xml_summary {logdir filename log include_cout} {
1418     global _test_case_regexp
1419
1420     catch {file mkdir [file dirname $filename]}
1421
1422     # try to open a file and start XML
1423     if [catch {set fd [open $filename w]} res] {
1424         error "Error creating XML summary file $filename: $res"
1425     }
1426     puts $fd "<?xml version='1.0' encoding='utf-8'?>"
1427     puts $fd "<testsuites>"
1428
1429     # prototype for command to generate test suite tag
1430     set time_and_host "timestamp=\"[clock format [clock seconds] -format {%Y-%m-%dT%H:%M:%S}]\" hostname=\"[info hostname]\""
1431     set cmd_testsuite {puts $fd "<testsuite name=\"$group $grid\" tests=\"$nbtests\" failures=\"$nbfail\" errors=\"$nberr\" time=\"$time\" skipped=\"$nbskip\" $time_and_host>\n$testcases\n</testsuite>\n"}
1432
1433     # sort log and process it line-by-line
1434     set group {}
1435     foreach line [lsort -dictionary [split $log "\n"]] {
1436         # check that the line is case report in the form "CASE group grid name: result (explanation)"
1437         if { ! [regexp $_test_case_regexp $line res grp grd casename result message] } {
1438             continue
1439         }
1440         set message [string trim $message " \t\r\n()"]
1441
1442         # start new testsuite for each grid
1443         if { $grp != $group || $grd != $grid } {
1444
1445             # write previous test suite
1446             if [info exists testcases] { eval $cmd_testsuite }
1447
1448             set testcases {}
1449             set nbtests 0
1450             set nberr 0
1451             set nbfail 0
1452             set nbskip 0
1453             set time 0.
1454
1455             set group $grp
1456             set grid $grd
1457         }
1458
1459         incr nbtests
1460          
1461         # parse test log and get its CPU time
1462         set testout {}
1463         set add_cpu {}
1464         if { [catch {set fdlog [open $logdir/$group/$grid/${casename}.log r]} ret] } { 
1465             puts "Error: cannot open $logdir/$group/$grid/${casename}.log: $ret"
1466         } else {
1467             while { [gets $fdlog logline] >= 0 } {
1468                 if { $include_cout } {
1469                     set testout "$testout$logline\n"
1470                 }
1471                 if [regexp -nocase {TOTAL CPU TIME:\s*([\d.]+)\s*sec} $logline res cpu] {
1472                     set add_cpu " time=\"$cpu\""
1473                     set time [expr $time + $cpu]
1474                 }
1475             }
1476             close $fdlog
1477         }
1478         if { ! $include_cout } {
1479             set testout "$line\n"
1480         }
1481
1482         # record test case with its output and status
1483         # Mapping is: SKIPPED, BAD, and OK to OK, all other to failure
1484         set testcases "$testcases\n  <testcase name=\"$casename\"$add_cpu status=\"$result\">\n"
1485         set testcases "$testcases\n    <system-out>\n$testout    </system-out>"
1486         if { $result != "OK" } {
1487             if { [regexp -nocase {^SKIP} $result] } {
1488                 incr nberr
1489                 set testcases "$testcases\n    <error name=\"$result\" message=\"$message\"/>"
1490             } elseif { [regexp -nocase {^BAD} $result] } {
1491                 incr nbskip
1492                 set testcases "$testcases\n    <skipped>$message</skipped>"
1493             } else {
1494                 incr nbfail
1495                 set testcases "$testcases\n    <failure name=\"$result\" message=\"$message\"/>"
1496             }
1497         }
1498         set testcases "$testcases\n  </testcase>"
1499     }
1500
1501     # write last test suite
1502     if [info exists testcases] { eval $cmd_testsuite }
1503
1504     # the end
1505     puts $fd "</testsuites>"
1506     close $fd
1507     return
1508 }
1509
1510 # define custom platform name 
1511 proc _tests_platform_def {} {
1512     global env tcl_platform
1513
1514     if [info exists env(os_type)] { return }
1515
1516     set env(os_type) $tcl_platform(platform)
1517
1518     # use detailed mapping for various versions of Lunix
1519     # (note that mapping is rather non-uniform, for historical reasons)
1520     if { $env(os_type) == "unix" && ! [catch {exec cat /etc/issue} issue] } {
1521         if { [regexp {Mandriva[ \tA-Za-z]+([0-9]+)} $issue res num] } {
1522             set env(os_type) Mandriva$num
1523         } elseif { [regexp {Red Hat[ \tA-Za-z]+([0-9]+)} $issue res num] } {
1524             set env(os_type) RedHat$num
1525         } elseif { [regexp {Debian[ \tA-Za-z/]+([0-9]+)[.]([0-9]+)} $issue res num subnum] } {
1526             set env(os_type) Debian$num$subnum
1527         } elseif { [regexp {CentOS[ \tA-Za-z]+([0-9]+)[.]([0-9]+)} $issue res num subnum] } {
1528             set env(os_type) CentOS$num$subnum
1529         } elseif { [regexp {Scientific[ \tA-Za-z]+([0-9]+)[.]([0-9]+)} $issue res num subnum] } {
1530             set env(os_type) SL$num$subnum
1531         } elseif { [regexp {Fedora Core[ \tA-Za-z]+([0-9]+)} $issue res num] } {
1532             set env(os_type) FedoraCore$num
1533         }
1534         if { [exec uname -m] == "x86_64" } {
1535             set env(os_type) "$env(os_type)-64"
1536         }
1537     }
1538 }
1539 _tests_platform_def
1540
1541 # Auxiliary procedure to split path specification (usually defined by
1542 # environment variable) into list of directories or files
1543 proc _split_path {pathspec} {
1544     global tcl_platform
1545
1546     # first replace all \ (which might occur on Windows) by /  
1547     regsub -all "\\\\" $pathspec "/" pathspec
1548
1549     # split path by platform-specific separator
1550     return [split $pathspec [_path_separator]]
1551 }
1552
1553 # Auxiliary procedure to define platform-specific separator for directories in
1554 # path specification
1555 proc _path_separator {} {
1556     global tcl_platform
1557
1558     # split path by platform-specific separator
1559     if { $tcl_platform(platform) == "windows" } {
1560         return ";"
1561     } else {
1562         return ":"
1563     }
1564 }
1565
1566 # Procedure to make a diff and common of two lists
1567 proc _list_diff {list1 list2 _in1 _in2 _common} {
1568     upvar $_in1 in1
1569     upvar $_in2 in2
1570     upvar $_common common
1571
1572     set in1 {}
1573     set in2 {}
1574     set common {}
1575     foreach item $list1 {
1576         if { [lsearch -exact $list2 $item] >= 0 } {
1577             lappend common $item
1578         } else {
1579             lappend in1 $item
1580         }
1581     }
1582     foreach item $list2 {
1583         if { [lsearch -exact $common $item] < 0 } {
1584             lappend in2 $item
1585         }
1586     }
1587     return
1588 }
1589
1590 # procedure to load a file to Tcl string
1591 proc _read_file {filename} {
1592     set fd [open $filename r]
1593     set result [read -nonewline $fd]
1594     close $fd
1595     return $result
1596 }
1597
1598 # procedure to construct name for the mage diff file
1599 proc _diff_img_name {dir1 dir2 casepath imgfile} {
1600     return [file join $dir1 $casepath "diff-[file tail $dir2]-$imgfile"]
1601 }
1602
1603 # Procedure to compare results of two runs of test cases
1604 proc _test_diff {dir1 dir2 basename status verbose _logvar {_statvar ""}} {
1605     upvar $_logvar log
1606
1607     # make sure to load diffimage command
1608     uplevel pload VISUALIZATION
1609
1610     # prepare variable (array) for collecting statistics
1611     if { "$_statvar" != "" } {
1612         upvar $_statvar stat
1613     } else {
1614         set stat(cpu1) 0
1615         set stat(cpu2) 0
1616         set stat(mem1) 0
1617         set stat(mem2) 0
1618         set log {}
1619     }
1620
1621     # first check subdirectories
1622     set path1 [file join $dir1 $basename]
1623     set path2 [file join $dir2 $basename]
1624     set list1 [glob -directory $path1 -types d -tails -nocomplain *]
1625     set list2 [glob -directory $path2 -types d -tails -nocomplain *]
1626     if { [llength $list1] >0 || [llength $list2] > 0 } {
1627         _list_diff $list1 $list2 in1 in2 common
1628         if { "$verbose" > 1 } {
1629             if { [llength $in1] > 0 } { _log_and_puts log "Only in $path1: $in1" }
1630             if { [llength $in2] > 0 } { _log_and_puts log "Only in $path2: $in2" }
1631         }
1632         foreach subdir $common {
1633             if { "$verbose" > 2 } {
1634                 _log_and_puts log "Checking [file join $basename $subdir]"
1635             }
1636             _test_diff $dir1 $dir2 [file join $basename $subdir] $status $verbose log stat
1637         }
1638     } else {
1639         # check log files (only if directory has no subdirs)
1640         set list1 [glob -directory $path1 -types f -tails -nocomplain *.log]
1641         set list2 [glob -directory $path2 -types f -tails -nocomplain *.log]
1642         _list_diff $list1 $list2 in1 in2 common
1643         if { "$verbose" > 1 } {
1644             if { [llength $in1] > 0 } { _log_and_puts log "Only in $path1: $in1" }
1645             if { [llength $in2] > 0 } { _log_and_puts log "Only in $path2: $in2" }
1646         }
1647         foreach logfile $common {
1648             # load two logs
1649             set log1 [_read_file [file join $dir1 $basename $logfile]]
1650             set log2 [_read_file [file join $dir2 $basename $logfile]]
1651             set casename [file rootname $logfile]
1652
1653             # check execution statuses
1654             set status1 UNDEFINED
1655             set status2 UNDEFINED
1656             if { ! [regexp {CASE [^:]*:\s*([\w]+)} $log1 res1 status1] ||
1657                  ! [regexp {CASE [^:]*:\s*([\w]+)} $log2 res2 status2] ||
1658                  "$status1" != "$status2" } {
1659                 _log_and_puts log "STATUS [split $basename /] $casename: $status1 / $status2"
1660
1661                 # if test statuses are different, further comparison makes 
1662                 # no sense unless explicitly requested
1663                 if { "$status" != "all" } {
1664                     continue
1665                 }
1666             }
1667             if { "$status" == "ok" && "$status1" != "OK" } { 
1668                 continue
1669             }
1670
1671             # check CPU times
1672             set cpu1 UNDEFINED
1673             set cpu2 UNDEFINED
1674             if { [regexp {TOTAL CPU TIME:\s*([\d.]+)} $log1 res1 cpu1] &&
1675                  [regexp {TOTAL CPU TIME:\s*([\d.]+)} $log2 res1 cpu2] } {
1676                 set stat(cpu1) [expr $stat(cpu1) + $cpu1]
1677                 set stat(cpu2) [expr $stat(cpu2) + $cpu2]
1678
1679                 # compare CPU times with 10% precision (but not less 0.5 sec)
1680                 if { [expr abs ($cpu1 - $cpu2) > 0.5 + 0.05 * abs ($cpu1 + $cpu2)] } {
1681                     _log_and_puts log "CPU [split $basename /] $casename: $cpu1 / $cpu2"
1682                 }
1683             }
1684
1685             # check memory delta
1686             set mem1 UNDEFINED
1687             set mem2 UNDEFINED
1688             if { [regexp {MEMORY DELTA:\s*([\d.]+)} $log1 res1 mem1] &&
1689                  [regexp {MEMORY DELTA:\s*([\d.]+)} $log2 res1 mem2] } {
1690                 set stat(mem1) [expr $stat(mem1) + $mem1]
1691                 set stat(mem2) [expr $stat(mem2) + $mem2]
1692
1693                 # compare memory usage with 10% precision (but not less 16 KiB)
1694                 if { [expr abs ($mem1 - $mem2) > 16 + 0.05 * abs ($mem1 + $mem2)] } {
1695                     _log_and_puts log "MEMORY [split $basename /] $casename: $mem1 / $mem2"
1696                 }
1697             }
1698
1699             # check images
1700             set imglist1 [glob -directory $path1 -types f -tails -nocomplain $casename*.{png,gif}]
1701             set imglist2 [glob -directory $path2 -types f -tails -nocomplain $casename*.{png,gif}]
1702             _list_diff $imglist1 $imglist2 imgin1 imgin2 imgcommon
1703             if { "$verbose" > 1 } {
1704                 if { [llength $imgin1] > 0 } { _log_and_puts log "Only in $path1: $imgin1" }
1705                 if { [llength $imgin2] > 0 } { _log_and_puts log "Only in $path2: $imgin2" }
1706             }
1707             foreach imgfile $imgcommon {
1708 #                if { $verbose > 1 } { _log_and_puts log "Checking [split basename /] $casename: $imgfile" }
1709                 set diffile [_diff_img_name $dir1 $dir2 $basename $imgfile]
1710                 if { [catch {diffimage [file join $dir1 $basename $imgfile] \
1711                                        [file join $dir2 $basename $imgfile] \
1712                                        0 0 0 $diffile} diff] } {
1713                     _log_and_puts log "IMAGE [split $basename /] $casename: $imgfile cannot be compared"
1714                     file delete -force $diffile ;# clean possible previous result of diffimage
1715                 } elseif { $diff != 0 } {
1716                     _log_and_puts log "IMAGE [split $basename /] $casename: $imgfile differs"
1717                 } else {
1718                     file delete -force $diffile ;# clean useless artifact of diffimage
1719                 }
1720             }
1721         }
1722     }
1723
1724     if { "$_statvar" == "" } {
1725         _log_and_puts log "Total MEMORY difference: $stat(mem1) / $stat(mem2)"
1726         _log_and_puts log "Total CPU difference: $stat(cpu1) / $stat(cpu2)"
1727     }
1728 }
1729
1730 # Auxiliary procedure to save log of results comparison to file
1731 proc _log_html_diff {file log dir1 dir2} {
1732     # create missing directories as needed
1733     catch {file mkdir [file dirname $file]}
1734
1735     # try to open a file
1736     if [catch {set fd [open $file w]} res] {
1737         error "Error saving log file $file: $res"
1738     }
1739     
1740     # print header
1741     puts $fd "<html><head><title>Diff $dir1 vs. $dir2</title></head><body>"
1742     puts $fd "<h1>Comparison of test results: $dir1 vs. $dir2</h1>"
1743
1744     # print log body, trying to add HTML links to script files on lines like
1745     # "Executing <filename>..."
1746     puts $fd "<pre>"
1747     set logpath [file split [file normalize $file]]
1748     foreach line [split $log "\n"] {
1749         puts $fd $line
1750
1751         if { [regexp {IMAGE[ \t]+([^:]+):[ \t]+([A-Za-z0-9_.-]+)} $line res case img] } {
1752             if { [catch {eval file join "" [lrange $case 0 end-1]} gridpath] } {
1753                # note: special handler for the case if test grid directoried are compared directly
1754                set gridpath ""
1755             }
1756             set img1 "<img src=\"[_make_url $file [file join $dir1 $gridpath $img]]\">"
1757             set img2 "<img src=\"[_make_url $file [file join $dir2 $gridpath $img]]\">"
1758
1759             set difffile [_diff_img_name $dir1 $dir2 $gridpath $img]
1760             if { [file exists $difffile] } {
1761                 set imgd "<img src=\"[_make_url $file $difffile]\">"
1762             } else {
1763                 set imgd "N/A"
1764             }
1765
1766             puts $fd "<table><tr><th>[file tail $dir1]</th><th>[file tail $dir2]</th><th>Different pixels</th></tr>"
1767             puts $fd "<tr><td>$img1</td><td>$img2</td><td>$imgd</td></tr></table>"
1768         }
1769     }
1770     puts $fd "</pre></body></html>"
1771
1772     close $fd
1773     return
1774 }
1775
1776 # get number of CPUs on the system
1777 proc _get_nb_cpus {} {
1778     global tcl_platform env
1779
1780     if { "$tcl_platform(platform)" == "windows" } {
1781         # on Windows, take the value of the environment variable 
1782         if { [info exists env(NUMBER_OF_PROCESSORS)] &&
1783              ! [catch {expr $env(NUMBER_OF_PROCESSORS) > 0} res] && $res >= 0 } {
1784             return $env(NUMBER_OF_PROCESSORS)
1785         }
1786     } elseif { "$tcl_platform(os)" == "Linux" } {
1787         # on Linux, take number of logical processors listed in /proc/cpuinfo
1788         if { [catch {open "/proc/cpuinfo" r} fd] } { 
1789             return 0 ;# should never happen, but...
1790         }
1791         set nb 0
1792         while { [gets $fd line] >= 0 } {
1793             if { [regexp {^processor[ \t]*:} $line] } {
1794                 incr nb
1795             }
1796         }
1797         close $fd
1798         return $nb
1799     } elseif { "$tcl_platform(os)" == "Darwin" } {
1800         # on MacOS X, call sysctl command
1801         if { ! [catch {exec sysctl hw.ncpu} ret] && 
1802              [regexp {^hw[.]ncpu[ \t]*:[ \t]*([0-9]+)} $ret res nb] } {
1803             return $nb
1804         }
1805     }
1806
1807     # if cannot get good value, return 0 as default
1808     return 0
1809 }
1810
1811 # check two files for difference
1812 proc _diff_files {file1 file2} {
1813     set fd1 [open $file1 "r"]
1814     set fd2 [open $file2 "r"]
1815
1816     set differ f
1817     while {! $differ} {
1818         set nb1 [gets $fd1 line1]
1819         set nb2 [gets $fd2 line2]
1820         if { $nb1 != $nb2 } { set differ t; break }
1821         if { $nb1 < 0 } { break }
1822         if { [string compare $line1 $line2] } {
1823             set differ t
1824         }
1825     }
1826
1827     close $fd1
1828     close $fd2
1829
1830     return $differ
1831 }
1832
1833 # Check if file is in DOS encoding.
1834 # This check is done by presence of \r\n combination at the end of the first 
1835 # line (i.e. prior to any other \n symbol).
1836 # Note that presence of non-ascii symbols typically used for recognition
1837 # of binary files is not suitable since some IGES and STEP files contain
1838 # non-ascii symbols.
1839 # Special check is added for PNG files which contain \r\n in the beginning.
1840 proc _check_dos_encoding {file} {
1841     set fd [open $file rb]
1842     set isdos f
1843     if { [gets $fd line] && [regexp {.*\r$} $line] && 
1844          ! [regexp {^.PNG} $line] } {
1845         set isdos t
1846     }
1847     close $fd
1848     return $isdos
1849 }
1850
1851 # procedure to recognize format of a data file by its first symbols (for OCCT 
1852 # BREP and geometry DRAW formats, IGES, and STEP) and extension (all others)
1853 proc _check_file_format {file} {
1854     set fd [open $file rb]
1855     set line [read $fd 1024]
1856     close $fd
1857
1858     set warn f
1859     set ext [file extension $file]
1860     set format unknown
1861     if { [regexp {^DBRep_DrawableShape} $line] } {
1862         set format BREP
1863         if { "$ext" != ".brep" && "$ext" != ".rle" && 
1864              "$ext" != ".draw" && "$ext" != "" } {
1865             set warn t
1866         }
1867     } elseif { [regexp {^DrawTrSurf_} $line] } {
1868         set format DRAW
1869         if { "$ext" != ".rle" && 
1870              "$ext" != ".draw" && "$ext" != "" } {
1871             set warn t
1872         }
1873     } elseif { [regexp {^[ \t]*ISO-10303-21} $line] } {
1874         set format STEP
1875         if { "$ext" != ".step" && "$ext" != ".stp" } {
1876             set warn t
1877         }
1878     } elseif { [regexp {^.\{72\}S[0 ]\{6\}1} $line] } {
1879         set format IGES
1880         if { "$ext" != ".iges" && "$ext" != ".igs" } {
1881             set warn t
1882         }
1883     } elseif { "$ext" == ".igs" } {
1884         set format IGES
1885     } elseif { "$ext" == ".stp" } {
1886         set format STEP
1887     } else {
1888         set format [string toupper [string range $ext 1 end]]
1889     }
1890     
1891     if { $warn } {
1892         puts "$file: Warning: extension ($ext) does not match format ($format)"
1893     }
1894
1895     return $format
1896 }
1897
1898 # procedure to load file knowing its format
1899 proc load_data_file {file format shape} {
1900     switch $format {
1901     BREP { uplevel restore $file $shape }
1902     DRAW { uplevel restore $file $shape }
1903     IGES { pload XSDRAW; uplevel igesbrep $file $shape * }
1904     STEP { pload XSDRAW; uplevel stepread $file __a *; uplevel renamevar __a_1 $shape }
1905     STL  { pload XSDRAW; uplevel readstl $shape $file }
1906     default { error "Cannot read $format file $file" }
1907     }
1908 }
1909
1910 # procedure to get name of temporary directory,
1911 # ensuring it is existing and writeable 
1912 proc _get_temp_dir {} {
1913     global env tcl_platform
1914
1915     # check typical environment variables 
1916     foreach var {TempDir Temp Tmp} {
1917         # check different case
1918         foreach name [list [string toupper $var] $var [string tolower $var]] {
1919             if { [info exists env($name)] && [file isdirectory $env($name)] &&
1920                  [file writable $env($name)] } {
1921                 return [regsub -all {\\} $env($name) /]
1922             }
1923         }
1924     }
1925
1926     # check platform-specific locations
1927     set fallback tmp
1928     if { "$tcl_platform(platform)" == "windows" } {
1929         set paths "c:/TEMP c:/TMP /TEMP /TMP"
1930         if { [info exists env(HOMEDRIVE)] && [info exists env(HOMEPATH)] } {
1931             set fallback [regsub -all {\\} "$env(HOMEDRIVE)$(HOMEPATH)/tmp" /]
1932         }
1933     } else {
1934         set paths "/tmp /var/tmp /usr/tmp"
1935         if { [info exists env(HOME)] } {
1936             set fallback "$env(HOME)/tmp"
1937         }
1938     }
1939     foreach dir $paths {
1940         if { [file isdirectory $dir] && [file writable $dir] } {
1941             return $dir
1942         }
1943     }
1944
1945     # fallback case: use subdir /tmp of home or current dir
1946     file mkdir $fallback
1947     return $fallback
1948 }