Fix HTML @TOPDIR@ links
[senf.git] / senfscons / SENFSCons.py
index 15414fd..1701b99 100644 (file)
@@ -50,8 +50,8 @@ from SCons.Script import *
 SCONS_TOOLS = [
     "Doxygen",
     "Dia2Png",
+    "PkgDraw",
     "CopyToDir",
-    "InstallIncludes",
     "ProgramNoScan",
     "CompileCheck",
 ]
@@ -71,7 +71,10 @@ def InitOpts():
     opts.Add('CXX', 'C++ compiler to use', 'g++')
     opts.Add('EXTRA_DEFINES', 'Additional preprocessor defines', '')
     opts.Add('EXTRA_LIBS', 'Additional libraries to link against', '')
+    opts.Add('EXTRA_CCFLAGS', 'Additional compilation parameters', '')
     opts.Add(SCons.Options.BoolOption('final','Enable optimization',0))
+    opts.Add(SCons.Options.BoolOption('debug','Enable debug symbols in binaries',0))
+    opts.Add(SCons.Options.BoolOption('profile','Enable profiling',0))
     opts.Add('PREFIX', 'Installation prefix', '/usr/local')
     opts.Add('LIBINSTALLDIR', 'Library install dir', '$PREFIX/lib')
     opts.Add('BININSTALLDIR', 'Executable install dir', '$PREFIX/bin')
@@ -137,6 +140,8 @@ def UseBoost():
     opts.Add('BOOST_RUNTIME', 'The boost runtime to use', '')
     opts.Add('BOOST_DEBUG_RUNTIME', 'The boost debug runtime to use', '')
     opts.Add('BOOST_LIBDIR', 'The directory of the boost libraries', '')
+    opts.Add('BOOST_PREFIX', 'The prefix into which boost is installed', '')
+    opts.Add('BOOST_VERSION', 'The version of boost to use', '')
     Finalizer(FinalizeBoost)
 
 ## \brief Finalize Boost environment
@@ -152,14 +157,27 @@ def FinalizeBoost(env):
         if runtime: runtime = "-" + runtime
         env['BOOST_VARIANT'] = "-" + env['BOOST_TOOLSET'] + runtime
 
+    if env['BOOST_VARIANT'] and env['BOOST_VERSION']:
+        env['BOOST_VARIANT'] = env['BOOST_VARIANT'] + '-%s' % env['BOOST_VERSION'].replace('.','_')
+
     env['BOOSTTESTLIB'] = 'boost_unit_test_framework' + env['BOOST_VARIANT']
     env['BOOSTREGEXLIB'] = 'boost_regex' + env['BOOST_VARIANT']
     env['BOOSTFSLIB'] = 'boost_filesystem' + env['BOOST_VARIANT']
     env['BOOSTIOSTREAMSLIB'] = 'boost_iostreams' + env['BOOST_VARIANT']
+    env['BOOSTSIGNALSLIB'] = 'boost_signals' + env['BOOST_VARIANT']
+
+    if env['BOOST_PREFIX']:
+        env['BOOST_LIBDIR'] = os.path.join(env['BOOST_PREFIX'], 'lib')
+        env['BOOST_INCLUDES'] = os.path.join(env['BOOST_PREFIX'],
+                                             'include/boost-%s'
+                                                 % env['BOOST_VERSION'].replace('.','_'))
 
     env.Append(LIBPATH = [ '$BOOST_LIBDIR' ],
                CPPPATH = [ '$BOOST_INCLUDES' ])
 
+    if env['BOOST_LIBDIR']:
+        env.Append(ENV = { 'LD_LIBRARY_PATH': env['BOOST_LIBDIR'] })
+
 ## \brief Use STLPort as STL replacement if available
 #
 # Use <a href="http://www.stlport.org">STLPort</a> as a replacement
@@ -249,16 +267,26 @@ def MakeEnvironment():
 
     if env['final']:
         env.Append(CXXFLAGS = [ '-O3' ])
+        if env['profile']:
+            env.Append(CXXFLAGS = [ '-g', '-pg' ],
+                       LINKFLAGS = [ '-g', '-pg' ])
     else:
         # The boost-regex library is not compiled with _GLIBCXX_DEBUG so this fails:
         #          CPPDEFINES = [ '_GLIBCXX_DEBUG' ],
         env.Append(CXXFLAGS = [ '-O0', '-g' ],
-                   CPPDEFINES = { 'SENF_DEBUG': ''},
-                   LINKFLAGS = [ '-g', '-rdynamic' ])
+                   CPPDEFINES = { 'SENF_DEBUG': ''})
+        if env['profile']:
+            env.Append(CXXFLAGS = [ '-pg' ],
+                       LINKFLAGS = [ '-pg' ])
+        if env['debug'] or env['profile']:
+            env.Append(LINKFLAGS = [ '-g', '-rdynamic' ])
+        else:
+            env.Append(LINKFLAGS = [ '-Wl,-S', '-rdynamic' ])
 
     env.Append(CPPDEFINES = [ '$EXTRA_DEFINES' ],
                LIBS = [ '$EXTRA_LIBS' ],
-               ALLLIBS = [])
+               CXXFLAGS = [ '$EXTRA_CCFLAGS' ],
+               ALLOBJECTS = [])
 
     return env
 
@@ -269,7 +297,7 @@ def MakeEnvironment():
 # in the current directory. The sources will be returned as a tuple of
 # sources, test-sources. The target helpers all accept such a tuple as
 # their source argument.
-def GlobSources(exclude=[], subdirs=[]):
+def GlobSources(env, exclude=[], subdirs=[]):
     testSources = glob.glob("*.test.cc")
     sources = [ x for x in glob.glob("*.cc") if x not in testSources and x not in exclude ]
     for subdir in subdirs:
@@ -278,6 +306,22 @@ def GlobSources(exclude=[], subdirs=[]):
                      if x not in testSources and x not in exclude ]
     return (sources, testSources)
 
+def GlobIncludes(env, exclude=[], subdirs=[]):
+    includes = []
+    for d in [ '.' ] + subdirs:
+        for f in os.listdir(d):
+            ext = '.' + f.split('.',1)[-1]
+            p = os.path.join(d,f)
+            if ext in env['CPP_INCLUDE_EXTENSIONS'] \
+               and ext not in env['CPP_EXCLUDE_EXTENSIONS'] \
+               and p not in exclude:
+                includes.append(p)
+    return includes
+
+def Glob(env, exclude=[], subdirs=[]):
+    return ( GlobSources(env, exclude, subdirs),
+             GlobIncludes(env, exclude, subdirs) )
+
 ## \brief Add generic standard targets for every module
 #
 # This target helper should be called in the top-level \c SConstruct file
@@ -304,20 +348,26 @@ def GlobalTargets(env):
 # \internal
 def LibPath(lib): return '${LOCALLIBDIR}/${LIBPREFIX}%s${LIBADDSUFFIX}${LIBSUFFIX}' % lib
 
+## \brief Add explicit test
+#
+# This target helper will add an explicit test. This is like a unit test but is
+# built directly against the completed library
+#
+# \ingroup target
 def Test(env, sources, LIBS = [], OBJECTS = []):
     test = [ env.BoostUnitTests(
         target = 'test',
         objects = [],
         test_sources = sources,
-        LIBS = [ x + '$LIBADDSUFFIX' for x in LIBS ],
+        LIBS = [ '$LIBSENF$LIBADDSUFFIX' ],
         OBJECTS = OBJECTS,
-        DEPENDS = [ env.File(LibPath(x)) for x in LIBS ]) ]
+        DEPENDS = [ env.File(LibPath(env['LIBSENF'])) ]) ]
     compileTestSources = [ src for src in sources
                            if 'COMPILE_CHECK' in file(src).read() ]
     if compileTestSources:
         test.extend(env.CompileCheck(source = compileTestSources))
     env.Alias('all_tests', test)
-    env.Command(env.File('test'), test, [])
+    env.Command(env.File('test'), test, [ 'true' ])
     #env.Alias(env.File('test'), test)
     
 
@@ -338,7 +388,7 @@ def Test(env, sources, LIBS = [], OBJECTS = []):
 # provide both \a sources and \a testSources.
 #
 # \ingroup target
-def Objects(env, sources, testSources = None, LIBS = [], OBJECTS = [], no_includes = False):
+def Objects(env, sources, testSources = None, OBJECTS = []):
     if type(sources) == type(()):
         testSources = sources[1]
         sources = sources[0]
@@ -361,9 +411,9 @@ def Objects(env, sources, testSources = None, LIBS = [], OBJECTS = [], no_includ
             target = 'test',
             objects = objects,
             test_sources = testSources,
-            LIBS = [ x + '$LIBADDSUFFIX' for x in LIBS ],
+            LIBS = [ '$LIBSENF$LIBADDSUFFIX' ],
             OBJECTS = OBJECTS,
-            DEPENDS = [ env.File(LibPath(x)) for x in LIBS ]) ]
+            DEPENDS = [ env.File(LibPath(env['LIBSENF'])) ]) ]
         compileTestSources = [ src for src in testSources
                                if 'COMPILE_CHECK' in file(src).read() ]
         if compileTestSources:
@@ -372,7 +422,7 @@ def Objects(env, sources, testSources = None, LIBS = [], OBJECTS = [], no_includ
         # Hmm ... here I'd like to use an Alias instead of a file
         # however the alias does not seem to live in the subdirectory
         # which breaks 'scons -u test'
-        env.Command(env.File('test'), test, [])
+        env.Command(env.File('test'), test, [ 'true' ])
         #env.Alias(env.File('test'), test)
 
     return objects
@@ -382,231 +432,75 @@ def InstallIncludeFiles(env, files):
     if env.GetOption('clean'):
         return
     target = env.Dir(env['INCLUDEINSTALLDIR'])
-    base = env.Dir(env['INSTALL_BASE'])
+    base = env.Dir('#')
     for f in files:
         src = env.File(f)
         env.Alias('install_all', env.Install(target.Dir(src.dir.get_path(base)), src))
 
-def InstallSourceIncludes(env, sources):
-    target = env.Dir(env['INCLUDEINSTALLDIR']).Dir(
-        env.Dir('.').get_path(env.Dir(env['INSTALL_BASE'])))
-    install = env.InstallIncludes( target = target,
-                                   source = [ type(x) is str and env.File(x) or x
-                                              for x in sources ],
-                                   INSTALL_BASE = env.Dir('.') )
-    env.Alias( 'install_all', install )
-
-def InstallWithSources(env, targets, dir, sources, testSources = [], no_includes = False):
-    if type(sources) is type(()):
-        sources, testSources = sources
-    if type(sources) is not type([]):
-        sources = [ sources ]
-    if type(testSources) is not type([]):
-        testSources = [ testSources ]
-
-    installs = [ env.Install(dir, targets) ]
-    env.Alias( 'install_all', installs[:] )
-
-    if not no_includes:
-        sources = targets
-        if testSources:
-            sources.append( env.File('.test.bin') )
-        installs.append(
-            InstallSourceIncludes(env, sources))
-
-    return installs
-
 ## \brief Build documentation with doxygen
 #
-# The doxygen target helper will build software documentation using
-# the given \a doxyfile (which defaults to \c Doxyfile). The Doxygen
-# builder used supports automatic dependency generation (dependencies
-# are automatically generated from the parameters specified in the \a
-# doxyfile), automatic target emitters (the exact targets created are
-# found parsing the \a doxyfile) and lots of other features. See the
-# Doxygen builder documentation
-#
-# If \a extra_sources are given, the generated documentation will
-# depend on them. This can be used to build images or other
-# supplementary files.
-#
-# The doxygen target helper extends the builder with additional
-# functionality:
-#
-# \li Fix tagfiles by removing namespace entries. These entries only
-#     work for namespaces completely defined in a single module. As
-#     soon as another module (which references the tagfile) has it's
-#     own members in that namespace, the crosslinking will break.
-# \li If \c DOXY_HTML_XSL is defined as a construction environment
-#     variable, preprocess all generated html files (if html files are
-#     generated) by the given XSLT stylesheet. Since the HTML
-#     generated by doxygen is broken, we first filter the code through
-#     HTML-\c tidy and filter out some error messages.
-# \li If xml output is generated we create files \c bug.xmli and \c
-#     todo.xmli which contain all bugs and todo items specified in the
-#     sources. The format of these files is much more suited to
-#     postprocessing and is a more database like format as the doxygen
-#     generated files (which are more presentation oriented). if \c
-#     DOXY_XREF_TYPES is given, it will specify the cross reference
-#     types to support (defaults to \c bug and \c todo). See <a
-#     href="http://www.stack.nl/~dimitri/doxygen/commands.html#cmdxrefitem">\xrefitem</a>
-#     in the doxygen documentation.
-#
 # \ingroup target
 def Doxygen(env, doxyfile = "Doxyfile", extra_sources = []):
-    if not 'all' in BUILD_TARGETS and not 'doc' in BUILD_TARGETS and not 'all_docs' in BUILD_TARGETS:
-        return []
-    # ARGHHH !!! without the [:] we are changing the target list
-    #        ||| WITHIN THE DOXYGEN BUILDER
-    docs = env.Doxygen(doxyfile)[:]
-    xmlnode = None
-    htmlnode = None
-    tagnode = None
-    for doc in docs:
-        if isinstance(doc,SCons.Node.FS.Dir): continue
-        if doc.name == 'xml.stamp' : xmlnode = doc
-        if doc.name == 'html.stamp' : htmlnode = doc
-        if doc.name == 'search.idx' : continue
-        if os.path.splitext(doc.name)[1] == '.stamp' : continue # ignore other file stamps
-        # otherwise it must be the tag file
-        tagnode = doc
-
-    if tagnode:
-        # Postprocess the tag file to remove the (broken) namespace
-        # references
-        env.AddPostAction(
-            docs,
-            SCons.Action.Action("xsltproc --nonet -o %(target)s.temp %(template)s %(target)s && mv %(target)s.temp %(target)s"
-                       % { 'target': tagnode.abspath,
-                           'template': os.path.join(basedir,"tagmunge.xsl") }))
-
-    if htmlnode and env.get('DOXY_HTML_XSL'):
-        xslfile = env.File(env['DOXY_HTML_XSL'])
-        reltopdir = '../' * len(htmlnode.dir.abspath[len(env.Dir('#').abspath)+1:].split('/'))
-        if reltopdir : reltopdir = reltopdir[:-1]
-        else         : reltopdir = '.'
-        env.AddPostAction(
-            docs,
-            SCons.Action.Action(("for html in %s/*.html; do " +
-                        "    echo $$html;" +
-                        "    mv $${html} $${html}.orig;" +
-                        "    sed -e 's/id=\"current\"/class=\"current\"/' $${html}.orig" +
-                        "        | tidy -ascii -q --wrap 0 --show-warnings no --fix-uri no " +
-                        "        | sed -e 's/name=\"\([^\"]*\)\"\([^>]*\) id=\"\\1\"/name=\"\\1\"\\2/g'" +
-                        "        | xsltproc --novalid --nonet --html --stringparam topdir %s -o $${html} %s -;"
-                        "done; true")
-                       % (htmlnode.dir.abspath, reltopdir, xslfile.abspath)))
-        for doc in docs:
-            env.Depends(doc, xslfile)
-
-    if xmlnode:
-        xrefs = []
-        for type in env.get("DOXY_XREF_TYPES",[ "bug", "todo" ]):
-            xref = os.path.join(xmlnode.dir.abspath,type+".xml")
-            xref_pp = env.Command(xref+'i', [ xref, os.path.join(basedir,'xrefxtract.xslt'), xmlnode ],
-                                  [ "test -s $SOURCE && xsltproc --nonet -o $TARGET" +
-                                    " --stringparam module $MODULE" +
-                                    " --stringparam type $TYPE" +
-                                    " ${SOURCES[1]} $SOURCE || touch $TARGET" ],
-                                  MODULE = xmlnode.dir.dir.dir.abspath[
-                                               len(env.Dir('#').abspath)+1:],
-                                  TYPE = type)
-            env.SideEffect(xref, xmlnode)
-            env.AddPreAction(docs, "rm -f %s" % (xref,))
-            env.AddPostAction(docs, "test -r %s || touch %s" % (xref,xref))
-            xrefs.extend(xref_pp)
-        docs.extend(xrefs)
-
-    if extra_sources and htmlnode:
-        env.Depends(docs,
-                    [ env.CopyToDir( source=source, target=htmlnode.dir )
-                      for source in extra_sources ])
-
-    if extra_sources and xmlnode:
-        env.Depends(docs,
-                    [ env.CopyToDir( source=source, target=xmlnode.dir )
-                      for source in extra_sources ])
-
-    if not htmlnode and not xmlnode:
-        env.Depends(docs, extra_sources)
-
-    for doc in docs :
-        env.Alias('all_docs', doc)
-        env.Clean('all_docs', doc)
-        env.Clean('all', doc)
-
+    # There is one small problem we need to solve with this builder: The Doxygen builder reads
+    # the Doxyfile and thus depends on the environment variables set by doclib/doxygen.sh. We
+    # thus have to provide all necessary definitions here manually via DOXYENV !
+
+    if type(doxyfile) is type(""):
+        doxyfile = env.File(doxyfile)
+
+    # Module name is derived from the doxyfile path
+    # Utils/Console/Doxyfile -> Utils_Console
+    module = doxyfile.dir.abspath[len(env.Dir('#').abspath)+1:].replace('/','_')
+    if not module : module = "Main"
+
+    # Rule to generate tagfile
+    # (need to exclude the 'clean' case, otherwise we'll have duplicate nodes)
+    if not env.GetOption('clean'):
+        tagfile = env.Doxygen(doxyfile,
+                              DOXYOPTS = [ '--tagfile-name', '"${MODULE}.tag"',
+                                           '--tagfile' ],
+                              DOXYENV  = { 'TOPDIR'          : env.Dir('#').abspath,
+                                           'output_dir'      : 'doc',
+                                           'html_dir'        : 'html',
+                                           'html'            : 'NO',
+                                           'generate_tagfile': 'doc/${MODULE}.tag' },
+                              MODULE   = module )
+        env.Append(ALL_TAGFILES = tagfile[0].abspath)
+        env.Depends(tagfile, env.File('#/doclib/doxygen.sh'))
+
+    # Rule to generate HTML documentation
+    doc = env.Doxygen(doxyfile,
+                      DOXYOPTS = [ '--tagfiles', '"$ALL_TAGFILES"',
+                                   '--tagfile-name', '"${MODULE}.tag"',
+                                   '--html' ],
+                      MODULE   = module,
+                      DOXYENV  = { 'TOPDIR'          : env.Dir('#').abspath,
+                                   'tagfiles'        : '${ALL_TAGFILES}',
+                                   'output_dir'      : 'doc',
+                                   'html_dir'        : 'html',
+                                   'html'            : 'YES' } )
+    env.Depends(doc, env.File('#/doclib/doxygen.sh'))
+
+    # Copy the extra_sources (the images) into the documentation directory
+    # (need to exclude the 'clean' case otherwise there are multiple ways to clean the copies)
+    if not env.GetOption('clean'):
+        if extra_sources:
+            env.Depends(doc,
+                        [ env.CopyToDir( source=source, target=doc[0].dir )
+                          for source in extra_sources ])
+
+    # Install documentation into DOCINSTALLDIR
     l = len(env.Dir('#').abspath)
-    if htmlnode:
-        env.Alias('install_all',
-                  env.Command('$DOCINSTALLDIR' + htmlnode.dir.abspath[l:], htmlnode.dir,
-                              [ SCons.Defaults.Copy('$TARGET','$SOURCE') ]))
-    if tagnode:
-        env.Alias('install_all',
-                  env.Install( '$DOCINSTALLDIR' + tagnode.dir.abspath[l:],
-                               tagnode ))
+    env.Alias('install_all',
+              env.Command('$DOCINSTALLDIR' + doc[0].dir.abspath[l:], doc[0].dir,
+                          [ SCons.Defaults.Copy('$TARGET','$SOURCE') ]))
 
-    return docs
-
-## \brief Build combined doxygen cross-reference
-#
-# This command will build a complete cross-reference of \c xrefitems
-# accross all modules.
-#
-# Right now, this command is very project specific. It needs to be
-# generalized.
-#
-# \ingroup target
-def DoxyXRef(env, docs=None,
-             HTML_HEADER = None, HTML_FOOTER = None,
-             TITLE = "Cross-reference of action points"):
-    if docs is None:
-        docs = env.Alias('all_docs')[0].sources
-    xrefs = [ doc for doc in docs if os.path.splitext(doc.name)[1] == ".xmli" ]
-    xref = env.Command("doc/html/xref.xml", xrefs,
-                       [ "echo '<?xml version=\"1.0\"?>' > $TARGET",
-                         "echo '<xref>' >> $TARGET",
-                         "cat $SOURCES >> $TARGET",
-                         "echo '</xref>' >>$TARGET" ])
-
-    # Lastly we create the html file
-    sources = [ xref, "%s/xrefhtml.xslt" % basedir ]
-    if HTML_HEADER : sources.append(HTML_HEADER)
-    if HTML_FOOTER : sources.append(HTML_FOOTER)
-
-    commands = []
-    if HTML_HEADER:
-        commands.append("sed" +
-                        " -e 's/\\$$title/$TITLE/g'" +
-                        " -e 's/\\$$projectname/Overview/g'" +
-                        " ${SOURCES[2]} > $TARGET")
-    commands.append("xsltproc" +
-                    " --stringparam title '$TITLE'" +
-                    " --stringparam types '$DOXY_XREF_TYPES'" +
-                    " ${SOURCES[1]} $SOURCE >> $TARGET")
-    if HTML_FOOTER:
-        commands.append(
-            "sed -e 's/\\$$title/$TITLE/g' -e 's/\\$$projectname/Overview/g' ${SOURCES[%d]} >> $TARGET"
-            % (HTML_HEADER and 3 or 2))
-
-    if env.get('DOXY_HTML_XSL'):
-        xslfile = env.File(env['DOXY_HTML_XSL'])
-        reltopdir = '../' * len(xref[0].dir.abspath[len(env.Dir('#').abspath)+1:].split('/'))
-        if reltopdir : reltopdir = reltopdir[:-1]
-        else         : reltopdir = '.'
-        commands.append(("xsltproc -o ${TARGET}.tmp" +
-                         " --nonet --html" +
-                         " --stringparam topdir %s" +
-                         " ${SOURCES[-1]} $TARGET 2>/dev/null")
-                        % reltopdir)
-        commands.append("mv ${TARGET}.tmp ${TARGET}")
-        sources.append(xslfile)
-        
-    xref = env.Command("doc/html/xref.html", sources, commands,
-                       TITLE = TITLE)
-
-    env.Alias('all_docs',xref)
-    return xref
+    # Useful aliases
+    env.Alias('all_docs', doc)
+    env.Clean('all_docs', doc)
+    env.Clean('all', doc)
 
+    return doc
 
 ## \brief Build library
 #
@@ -618,26 +512,21 @@ def DoxyXRef(env, docs=None,
 # The library is added to the list of default targets.
 #
 #\ingroup target
-def Lib(env, library, sources, testSources = None, LIBS = [], OBJECTS = [], no_includes = False):
-    objects = Objects(env,sources,testSources,LIBS=LIBS,OBJECTS=OBJECTS)
-    lib = None
+def Lib(env, sources, testSources = None, OBJECTS = []):
+    objects = Objects(env,sources,testSources,OBJECTS=OBJECTS)
     if objects:
-        lib = env.Library(env.File(LibPath(library)),objects)
-        env.Default(lib)
-        env.Append(ALLLIBS = library)
-        env.Alias('default', lib)
-        InstallWithSources(env, lib, '$LIBINSTALLDIR', sources, testSources, no_includes)
-    return lib
+        env.Append(ALLOBJECTS = objects)
+    return objects
 
 ## \brief Build Object from multiple sources
-def Object(env, target, sources, testSources = None, LIBS = [], OBJECTS = [], no_includes = False):
-    objects = Objects(env,sources,testSources,LIBS=LIBS,OBJECTS=OBJECTS)
+def Object(env, target, sources, testSources = None, OBJECTS = []):
+    objects = Objects(env,sources,testSources,OBJECTS=OBJECTS)
     ob = None
     if objects:
         ob = env.Command(target+"${OBJADDSUFFIX}${OBJSUFFIX}", objects, "ld -r -o $TARGET $SOURCES")
         env.Default(ob)
         env.Alias('default', ob)
-        InstallWithSources(env, ob, '$OBJINSTALLDIR', sources, testSources, no_includes)
+        env.Alias('install_all', env.Install("$OBJINSTALLDIR", ob))
     return ob
 
 ## \brief Build executable
@@ -650,17 +539,17 @@ def Object(env, target, sources, testSources = None, LIBS = [], OBJECTS = [], no
 # construction environment parameters or the framework helpers.
 #
 # \ingroup target
-def Binary(env, binary, sources, testSources = None, LIBS = [], OBJECTS = [], no_includes = False):
-    objects = Objects(env,sources,testSources,LIBS=LIBS,OBJECTS=OBJECTS)
+def Binary(env, binary, sources, testSources = None, OBJECTS = []):
+    objects = Objects(env,sources,testSources,OBJECTS=OBJECTS)
     program = None
     if objects:
-        progEnv = env.Copy()
-        progEnv.Prepend(LIBS = [ x + '$LIBADDSUFFIX' for x in LIBS ])
+        progEnv = env.Clone()
+        progEnv.Prepend(LIBS = [ '$LIBSENF$LIBADDSUFFIX' ])
         program = progEnv.ProgramNoScan(target=binary,source=objects+OBJECTS)
         env.Default(program)
-        env.Depends(program, [ env.File(LibPath(x)) for x in LIBS ])
+        env.Depends(program, [ env.File(LibPath(env['LIBSENF'])) ])
         env.Alias('default', program)
-        InstallWithSources(env, program, '$BININSTALLDIR', sources, testSources, no_includes)
+        env.Alias('install_all', env.Install('$BININSTALLDIR', program))
     return program
 
 def AllIncludesHH(env, headers):
@@ -669,3 +558,6 @@ def AllIncludesHH(env, headers):
     file(target.abspath,"w").write("".join([ '#include "%s"\n' % f
                                              for f in headers ]))
     env.Clean('all', target)
+
+def PhonyTarget(env, target, action, sources=[]):
+    env.AlwaysBuild(env.Alias(target, sources, env.Action(action)))