home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / os / os9 / 1243 < prev    next >
Encoding:
Internet Message Format  |  1992-09-14  |  1.4 KB

  1. Path: sparky!uunet!mcsun!uknet!warwick!nott-cs!mips.nott.ac.uk!pczip
  2. From: pczip@mips.nott.ac.uk (Ivan Powis)
  3. Newsgroups: comp.os.os9
  4. Subject: Deallocation of process descriptors.
  5. Message-ID: <1992Sep15.081851.10686@cs.nott.ac.uk>
  6. Date: 15 Sep 92 08:18:51 GMT
  7. Sender: news@cs.nott.ac.uk
  8. Reply-To: pczip@mips.nott.ac.uk (Ivan Powis)
  9. Organization: Nottingham University
  10. Lines: 20
  11.  
  12. Can someone advise me on the following: I have an application which consists
  13. of a long term process which spawns many short child processes. The children
  14. all exit before the parent and are intended to execute concurrently with it -
  15. so the parent does not do a 'wait' for the child. This all works, but leaves
  16. behind a trail of 'dead' non deallocated process descriptors until some
  17. indefinite time in the future when the parent process is killed off. How can
  18. I force these unwanted descriptors to be deallocated when the child terminates?
  19.  
  20. It seems this situation is analogous to a shell creating background processes
  21. with the 'command &' facility. The shell doesn't leave a trail of dead
  22. descriptors in its wake, so there must be some way to achieve the desired
  23. effect.
  24.  
  25. On a related point, does anyone know whether it can be arranged for a child
  26. process automatically to signal its parent when it dies, without the parent
  27. having to 'wait' and without having to explicitly program a send_signal
  28. operation into the child?
  29.  
  30.  
  31. Ivan Powis
  32.