home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / bit / listserv / sasl / 3420 < prev    next >
Encoding:
Text File  |  1992-07-25  |  1.1 KB  |  23 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!europa.asd.contel.com!paladin.american.edu!auvm!SJSUVM1.BITNET!KILSER
  3. Message-ID: <SAS-L%92072420092904@UGA.CC.UGA.EDU>
  4. Newsgroups: bit.listserv.sas-l
  5. Date:         Fri, 24 Jul 1992 17:03:09 PDT
  6. Reply-To:     Max Nelson-Kilger <KILSER@SJSUVM1.BITNET>
  7. Sender:       "SAS(r) Discussion" <SAS-L@UGA.BITNET>
  8. From:         Max Nelson-Kilger <KILSER@SJSUVM1.BITNET>
  9. Subject:      SAS on SunOS - possible bug with large data sets.......
  10. Lines: 11
  11.  
  12. When reading in raw data to SAS where there are a large number of
  13. records per case (100+) we get a data segmentation error and thejob
  14. aborts.  We've tried -memsize 16M, tried increasing size of buffers,
  15. number of buffers, etc.  Still get the same error.  Running on SunOS
  16. 4.1.2 and 4.1.0, SAS 6.07, 40MB memory.  Looking at memory usage
  17. it appears that SAS isn't getting enough memory to do the job.
  18. It generally shows using about 1MB of memory.  Our config.sas
  19. has max memory set to 40MB - so that isn't it.  Removing some
  20. of the format statements sometimes does the trick and it doesn't
  21. bomb.  Does anybody have a clue or have they run into this too?
  22. Max Nelson-Kilger
  23.