home *** CD-ROM | disk | FTP | other *** search
/ ftp.pasteur.org/FAQ/ / ftp-pasteur-org-FAQ.zip / FAQ / sci / Satellite-Imagery-FAQ / part3 < prev    next >
Encoding:
Internet Message Format  |  1997-03-18  |  50.1 KB

  1. Path: senator-bedfellow.mit.edu!faqserv
  2. From: satfaq@pobox.com (Nick Kew)
  3. Newsgroups: sci.image.processing,sci.geo.meteorology,sci.geo.eos,sci.answers,news.answers
  4. Subject: Satellite Imagery FAQ - 3/5
  5. Supersedes: <sci/Satellite-Imagery-FAQ/part3_856178266@rtfm.mit.edu>
  6. Followup-To: poster
  7. Date: 17 Mar 1997 11:24:38 GMT
  8. Organization: none
  9. Lines: 1167
  10. Approved: news-answers-request@MIT.EDU
  11. Expires: 30 Apr 1997 11:24:01 GMT
  12. Message-ID: <sci/Satellite-Imagery-FAQ/part3_858597841@rtfm.mit.edu>
  13. References: <sci/Satellite-Imagery-FAQ/part1_858597841@rtfm.mit.edu>
  14. Reply-To: satfaq@pobox.com
  15. NNTP-Posting-Host: penguin-lust.mit.edu
  16. Content-Type: text/plain
  17. Summary: Satellite Imagery for Earth Observation
  18. X-Last-Updated: 1996/12/17
  19. Originator: faqserv@penguin-lust.MIT.EDU
  20. Xref: senator-bedfellow.mit.edu sci.image.processing:26847 sci.geo.meteorology:33267 sci.geo.eos:2244 sci.answers:6111 news.answers:97369
  21.  
  22. Archive-name: sci/Satellite-Imagery-FAQ/part3
  23.  
  24.    This document is part of the Satellite Imagery FAQ
  25.    
  26.  
  27. ------------------------------
  28.  
  29. Subject: Image Basics
  30.  
  31.    Image Basics _Contributed by Wim Bakker (bakker@itc.nl)_
  32.    
  33. What is an image?
  34.  
  35.    A digital image is a collection of digital samples.
  36.    The real world scene is measured at regular distances (=digital). One
  37.    such measurement is limited in
  38.      * Space
  39.        One sample covers only a very small area from the real scene.
  40.      * Time
  41.        The sensor needs some integration time for one measurement (which
  42.        is usually very short).
  43.      * Spectral coverage
  44.        The sensor is only sensitive for a certain spectral range.
  45.        
  46.    Furthermore, the sample is quantized, which means that the physical
  47.    measure in the real world scene is represented by a limited number of
  48.    levels only. Usually 256 levels of "grey" are sufficient for digital
  49.    images; 256 levels can be represented by an eight bit unsigned Digital
  50.    Number (DN). "Unsigned" because the amount of light is always
  51.    positive. More levels will need more bits; the quantization determines
  52.    the amount of bits per pixel on the image storage.
  53.    
  54.    Image samples are usually called _pixel_ or _pel_ after the
  55.    combination of "picture" and "element". A pixel is the smallest unit
  56.    of a digital image. The size of this unit determines the resolution of
  57.    an image. The term _resolution_ is used for the detail that can be
  58.    represented by a digital image. As discussed before the resolution is
  59.    limited in four ways:
  60.  
  61.  
  62. ------------------------------
  63.  
  64. Subject: Resolution
  65.  
  66.      * Spatial resolution.
  67.        If one pixel is a ground cell sample of 20 by 20 meter then no
  68.        objects smaller than 20 meter can be distinguished from their
  69.        background. This doesn't necessarily mean they cannot be
  70.        _detected_!
  71.        Note that if the spatial resolution doubles, the amount of image
  72.        data increases by a factor 4!
  73.      * Temporal resolution.
  74.        A distinction can be made between
  75.           + Temporal resolution of one image.
  76.             Fast moving objects will appear blurred on one image. E.g.
  77.             the temporal resolution of one TV image is about 1/25 of a
  78.             second.
  79.           + Temporal resolution of a time series of images.
  80.             If the images are taken sparsely in time then the possibility
  81.             exists that some phenomena will be missed. The resolution of
  82.             Landsat is 16 days, of SPOT 26 days and of NOAA 4 hours. So
  83.             the latter satellite is said to have a _high_ temporal
  84.             resolution even though the spatial resolution is _low
  85.             _compared to the two other satellites! (1.1 km and 20-30 m)
  86.      * Spectral resolution.
  87.        Current imaging satellites usually have a broad band spectral
  88.        response. Some airborne spectrometers exist that have a high
  89.        spectral resolution; AVIRIS Airborne Visible/Infrared Imaging
  90.        Spectrometer (from NASA/JPL) has 224 bands, GERIS Geophysical and
  91.        Environmental Research Imaging Spectrometer has 63 bands.
  92.      * Quantization.
  93.        E.g. if 100 Lux light gives DN 200 and 110 Lux yields DN 201 then
  94.        two samples from the original scene having 101 and 108 Lux will
  95.        both get the DN 200. Values from the range 100 up to 110 Lux can
  96.        not be distinguished.
  97.        
  98.    ======================== Image Formats (HTML) ======================
  99.    _Contributed by Wim Bakker (bakker@itc.nl)_
  100.  
  101.  
  102. ------------------------------
  103.  
  104. Subject: Image Formats
  105.  
  106. Image data on tape
  107.  
  108.    Looking at the images stored on tape there's three types of
  109.    information
  110.      * Volume Directory, which is actually meta-information about the way
  111.        the headers/trailers and image data itself are stored
  112.      * Information about the images
  113.        This information can be stored in separate files or together with
  114.        the image data in one file.
  115.        This information can be virtually anything related to the image
  116.        data
  117.           + Dimensions. Number of lines, pixels per line and bands etc.
  118.           + Calibration data
  119.           + Earth location data
  120.           + Orbital elements from the satellite
  121.           + Sun elevation and azimuth angle
  122.           + Annotation text
  123.           + Color Lookup tables
  124.           + Histograms
  125.           + Etc. etc...
  126.        The information is often called a _header_, information _after_
  127.        the image data is called a _trailer_
  128.      * The pure image data itself
  129.        
  130.    The image data can be arranged inside the files in many ways. Most
  131.    common ones are
  132.      * BIP, Band Interleaved by Pixel
  133.      * BIL, Band Interleaved by Line
  134.      * BSQ, Band SeQuential
  135.        
  136.    If the pixels of the bands A, B, C and D are denoted a, b, c and d
  137.    respectively then _BIP_ is organized like
  138.  
  139. abcdabcdabcdabcdabcdabcdabcdabcdabcd...  line 1
  140. abcdabcdabcdabcdabcdabcdabcdabcdabcd...  line 2
  141. abcdabcdabcdabcdabcdabcdabcdabcdabcd...  line 3
  142. ...
  143. abcdabcdabcdabcdabcdabcdabcdabcdabcd...
  144. abcdabcdabcdabcdabcdabcdabcdabcdabcd...
  145.  
  146.    BIP can be read with the following pseudo-code program
  147. FOR EACH line
  148.     FOR EACH pixel
  149.         FOR EACH band
  150.             I[pixel, line, band] = get_pixel(input);
  151.  
  152.    _BIL_ looks like
  153. aaaaaaaaaaaa...  band 1, line 1
  154. bbbbbbbbbbbb...  band 2
  155. cccccccccccc...  band 3
  156. dddddddddddd...  band 4
  157. aaaaaaaaaaaa...  band 1, line 2
  158. ...
  159.  
  160.    BIL can be read with the following pseudo-code program
  161. FOR EACH line
  162.     FOR EACH band
  163.         FOR EACH pixel
  164.             I[pixel, line, band] = get_pixel(input);
  165.  
  166.    _BSQ_ shows
  167. aaaaaaaaaaaa...  line 1, band 1
  168. aaaaaaaaaaaa...  line 2
  169. aaaaaaaaaaaa...  line 3
  170. ...
  171. bbbbbbbbbbbb...  line 1, band 2
  172. bbbbbbbbbbbb...  line 2
  173. bbbbbbbbbbbb...  line 3
  174. ...
  175. cccccccccccc...  line 1, band 3
  176. cccccccccccc...  line 2
  177. cccccccccccc...  line 3
  178. ...
  179. dddddddddddd...  line 1, band 4
  180. dddddddddddd...  line 2
  181. dddddddddddd...  line 3
  182. ...
  183.  
  184.    BSQ can be read with the following pseudo-code program
  185. FOR EACH band
  186.     FOR EACH line
  187.         FOR EACH pixel
  188.             I[pixel, line, band] = get_pixel(input);
  189.  
  190.    Of course others are possible, like the old _EROS BIP2_ format (for
  191.    four band MSS images) where the image is first divided into four
  192.    strips. EROS BIP2 strips
  193.    Then each strip is stored like
  194.  
  195. aabbccddaabbccddaabbccddaabbccdd... line 1
  196. aabbccddaabbccddaabbccddaabbccdd... line 2
  197. ...
  198.  
  199.    To decode one strip the following pseudo-code can be used
  200. /* The '%' character is the modulo operator */
  201. /* Note that operations on 'i' are integer operations! */
  202. /* Copyright 1994 by W.H. Bakker - ITC */
  203. FOR EACH line
  204.     FOR i=0 TO BANDS*WIDTH
  205.         I[(i/8)*2+i%2, line, (i/2)%4] = get_pixel(input);
  206.  
  207.    Subsequently, the strips must be glued back together.
  208.      _________________________________________________________________
  209.                                       
  210.  
  211. ------------------------------
  212.  
  213. Subject: Basic Processing Levels
  214.  
  215.   What are the different types of image I can download/buy?
  216.   
  217.    _Very brief - needs a proper entry_
  218.    
  219.    Raw data (typically Level 0)
  220.           (as with other levels, annotated with appropriate metadata).
  221.           Only useful if you're studying the RS system itself, or data
  222.           processing systems
  223.           
  224.    Processed Images (typically Level 1, 2)
  225.           Processing includes:
  226.           
  227.           + Radiometric correction - compensating for known
  228.             characterisitcs of the sensor.
  229.           + Atmospheric correction - compensating for the distortion
  230.             (lens effect) of the atmosphere.
  231.           + Geometric correction - referencing the image to Lat/Long on
  232.             the Earth's surface, based on the satellite's position and
  233.             viewing angle at the time of the acquisition. Uses either a
  234.             spheriod model of Earth or a detailed terrain model; the
  235.             latter enables higher precision in hills/mountains. Requires
  236.             Ground Control Points (GCPS: points in the image which can be
  237.             accurately located on Earth) for high precision.
  238.             
  239.           The various part-processed levels are suitable for a image
  240.           processing studies. Most Remote Sensing and GIS applications
  241.           will benefit from the highest level of processing available,
  242.           including geocoding.
  243.           
  244.    Geocoded Projected Imagery (typically Level 3)
  245.           The image is mapped to a projection of the Earth, and in some
  246.           cases also composited (ie several images are mosaiced to show a
  247.           larger scene).
  248.           
  249.    Browse Images
  250.           Images you can download from the net are likely to be browse
  251.           images. These are typically GIF or JPEG format, although a
  252.           number of others exist. Whilst providing a good idea of what is
  253.           in an image, they are not useful for serious applications. They
  254.           have the advantage of being a manageable size - typically of
  255.           the order of 100Kb-1Mb (compared to 100Mb for a full scene) and
  256.           are often available free. A browse version of any image (except
  257.           raw data) can be made.
  258.           
  259.    Stereopairs
  260.           
  261.    Multitemporal Images
  262.           
  263.  
  264. ------------------------------
  265.  
  266. Subject: Is there a non-proprietary format for geographical/RS images?
  267.  
  268.   Is there a non-proprietary format for geographical/RS images?
  269.   
  270.    The GeoTIFF format adds geographic metadata to the standard TIFF
  271.    format. Geographic data is embedded as tags within an image file.
  272.    
  273.    For a detailed description, see the spec. at
  274.    http://www-mipl.jpl.nasa.gov/cartlab/geotiff/geotiff.html
  275.  
  276.  
  277. ------------------------------
  278.  
  279. Subject: Do I need geocoded imagery?
  280.  
  281.   Do I need geocoded imagery?
  282.   
  283.    In a recent discussion of mountain areas, John Berry
  284.    (ej10jlbs@shell.com) wrote:
  285.  
  286.         The problem that Frank has is that he is working in an area without
  287. adequate maps:  therefore, he cannot geocode his Landsat using a DTM, because
  288. the data available is neither detailed enough or accurate enough to use as an
  289. input.
  290.  
  291.         He can georegister the imagery using using one or two accurately
  292. located ground control points and the corner-point positions given in the
  293. image header:  these are calculated from ephemeris data of, usually, unknown
  294. accuracy (within +/- 1 km), but internal image geometry is good so an x,y
  295. shift and a (usually) very small rotation can take care of everything to
  296. better than the accuracy of his maps.  Positions used should be
  297. topographically low, and at the same elevation.   GPS is the best solution, as
  298. someone else pointed out, if Frank can get in the field.
  299.  
  300.         The next problem is the parallax error introduced by the high relief.
  301. In his situation, the only answer* is to get SPOT stereopairs and make a DTM or
  302. DEM from them.  Except in the case of very narrow gorges or slopes steeper
  303. than 60 deg. there should be few problems with carefully chosen images (high
  304. sun angles, etc).  ERDAS has an excellent module for doing this.  However, I
  305. doubt that Frank has the budget.  I believe ERDAS`s Ortho module would then
  306. allow Frank to make an Ortho image that would be a perfectly good map.
  307.  
  308.         *there may be some LFC or Russian stereo coverage in this area, which
  309. would be a lot cheaper than SPOT but would require the use of analog stereo
  310. comparators (probably).
  311.  
  312.         Even if there were good topographic contour maps for all of Frank's
  313. area, the cost of digitising these and turning them into a usable DTM would
  314. probably be prohibitive (though there are outfits in Russia who might be able
  315. to quote a price affordable to a large western company).
  316.  
  317.  
  318. ------------------------------
  319.  
  320. Subject: Imaging Instruments
  321.  
  322.   Imaging Instruments
  323.   
  324.     How do Remote Sensing Instruments work?
  325.     
  326.    If you put a camera into orbit and point it at the Earth, you will get
  327.    images. If it is a digital camera, you will get digital images.
  328.    
  329.    Of course, this simplistic view is not the whole story.
  330.    
  331.    Digital images comprise two-dimensional arrays of pixels. Each pixel
  332.    is a sensor's measurement of the albedo (brightness) of some point or
  333.    small area of the Earth's surface (or atmosphere, in the case of
  334.    clouds). Hence a two-dimensional array of sensors will yield a
  335.    two-dimensional image. However, this design philosophy presents
  336.    practical problems: a useful image size of 1000x1000 pixels requires
  337.    an array of one million sensors, along with the corresponding
  338.    circuitry and power supply, in an environment far from repair and
  339.    maintenence!
  340.    
  341.    Such devices (charge coupled deices) do exist, and are essentially
  342.    similar to analogue film cameras. However, the more usual approach for
  343.    Earth Observation is the use of tracking instruments:
  344.    
  345.     Tracking Instruments
  346.     
  347.     1. A tracking instrument may use a one-dimensional array of sensors -
  348.        one thousand rather than one million - perpendicular to the
  349.        direction of the satellite's motion. Such instruments, commonly
  350.        known as pushbroom sensors, instantaneously view a line. A
  351.        two-dimensional image is generated by the satellite's movement, as
  352.        each line is offset from its predecessor. If the sampling
  353.        frequency is equal to the satellite's velocity divided by the
  354.        sensor's field of view, lines scanned will be contiguous and
  355.        non-overlapping (although this is of course not an essential
  356.        property).
  357.        _btw, would the above be better expressed in some ASCII
  358.        representation of mathematical notation?_
  359.     2. Another approach is to use just a single sensor. It is now not
  360.        sufficient to use the satellite's motion to generate an image:
  361.        cross-track scanning must also be synthesised. This is
  362.        accomplished by means of a rotating mirror, imaging a line
  363.        perpendicular to the satellite motion. These are known as scanning
  364.        instruments. This is somewhat analagous to the synthesis of
  365.        television pictures by CRT, although the rotating mirror is a
  366.        mechanical (as opposed to electromagnetic) device.
  367.        As the sensor now requires a large number of samples per line, the
  368.        sampling frequency necessary for unbroken coverage is
  369.        proportionally increased, to the extent that it becomes a design
  370.        constraint. A typical Earth Observation satellite moves at about
  371.        6.5 Km/sec, so a 100m footprint requires 65 lines per second, and
  372.        higher resolution imagery proportionally more. This in turn
  373.        implies a sampling rate of 65,000 per second for a 1000-pixel
  374.        swath. This may be alleviated by scanning several lines
  375.        simultaneously.
  376.        Either design of scanning instrument may have colour vision (ie be
  377.        sensitive to more wavelength of light) by using multiple sensors
  378.        in parallel, each responding to one of the wavelengths required.
  379.        
  380.     List of Imaging Spectrometers
  381.     
  382.    http://www.geo.unizh.ch/~schaep/research/apex/is_list.html
  383.  
  384. ------------------------------
  385.  
  386. Subject: What is a Sounding Instrument?
  387.  
  388.   What is a Sounding Instrument?
  389.   
  390.    _Answer posted by Wayne Boncyk (boncyk@edcsgw4.cr.usgs.gov) to
  391.    IMAGRS-L_
  392.    
  393.    Satellite-borne remote sensing instruments may be used for more than
  394.    imaging; it is possible to derive information about the constituents
  395.    of the local atmosphere above a ground target, for example. One common
  396.    area of study is to observe atmospheric emissions in the spectral
  397.    neighborhood of the 183GHz water absorption line (millimeter-wave;
  398.    in-between microwave and thermal IR). These channels can be monitored
  399.    by an appropriate collection of narrow passband radiometers, and the
  400.    data that are returned can be analyzed to deduce the amount of water
  401.    vapor present at different levels (altitude layers) in the atmosphere.
  402.    The reference to "sounding" is an application of an old nautical term,
  403.    the investigation of the state of a medium at different depths
  404.    (original application: the ocean - specifically determination of the
  405.    depth of the ocean floor).
  406.  
  407.  
  408. ------------------------------
  409.  
  410. Subject: Orbits
  411.  
  412.   Orbits
  413.   
  414.    _Need a general entry here!_
  415.    
  416.     Where can I learn about satellite orbits?
  417.     
  418.    Wim Bakker has compiled a list of online references at
  419.    http://www.itc.nl/~bakker/orbit.html.
  420.    
  421.    Wim adds the question _"When can *I* see a specific satellite"_, and
  422.    suggests the following pointers from his list:
  423.      * Visual Satellite Observer's Home Page:
  424.        http://www.rzg.mpg.de/~bdp/vsohp/satintro.html
  425.      * Satellite Observing Resources:
  426.        http://www-leland.stanford.edu/~iburrell/sat/sattrack.html
  427.        
  428.     Satellite Orbital Elements
  429.     
  430.    _Thanks to Peter Bolton (pbolton@clyde.pc.my) for this one!_
  431.    
  432.    Jonathan's Space Report is at
  433.    http://hea-www.harvard.edu/QEDT/jcm/jsr.html. The introduction:
  434.    
  435.    The Space Report ("JSR") is issued about once a week. It describes all
  436.    space launches, including both piloted missions and automated
  437.    satellites. Back issues are available by FTP from sao-ftp.harvard.edu
  438.    in directory pub/jcm/space/news. To receive the JSR each week by
  439.    direct email, send a message to the editor, Jonathan McDowell, at
  440.    jcm@urania.harvard.edu. Feel free to reproduce the JSR as long as
  441.    you're not doing it for profit. If you are doing so regularly, please
  442.    inform Jonathan by email. Comments, suggestions, and corrections are
  443.    encouraged.
  444.    
  445.     How do I convert Landsat Path/Row to Lat/Long?
  446.     
  447.    In response to this question, Wim Bakker wrote:
  448. The SATCOV program is available by anonymous FTP from sun_01.itc.nl
  449. (192.87.16.8). Here's how to get it:
  450.  
  451. $ ftp 192.87.16.8
  452. Name: ftp
  453. Password: your-email-address
  454. ftp> bin
  455. ftp> idle 7200
  456. ftp> prompt
  457. ftp> cd /pub/satcov
  458. ftp> mget *
  459. ftp> bye
  460. $
  461.  
  462. If you can't use FTP, drop me a line and I will send a uuencoded version
  463. by email.
  464.  
  465. Those of you who prefer a WWW interface can obtain it from the following URL:
  466.         http://www.itc.nl/~bakker/satcov
  467. Don't forget to set the "Load to local disk" option.
  468.  
  469. SATCOV is a PC program for converting Path/Row numbers of Landsat and
  470. K/J of SPOT to Lat/Lon and vice versa. Furthermore it can predict the orbits
  471. of the NOAA satellites, although I wouldn't recommend it for this purpose!
  472. But that's an other can of worms....
  473.  
  474.  
  475. ------------------------------
  476.  
  477. Subject: Ground Stations
  478.  
  479.   How is satellite data recieved on the ground?
  480.   
  481.    _Intro to Ground Recieving Stations contributed by Peter Bolton
  482.    <pbolton@clyde.pc.my>_
  483.    
  484.    1. GROUND RECEIVING STATIONS
  485.    
  486.    This document is an introduction to Ground Receiving Station (GRS)
  487.    acquisition and processing of remote sensing satellites data such as
  488.    SPOT, LANDSAT TM and ERS-1 SAR. Ground receiving stations regularly
  489.    receive data from various satellites so as to provide data over a
  490.    selected areas (a footprints approximately covers a radius of 2500 km
  491.    at an antennae elevation angle of 5 degrees.) on medium such as
  492.    computer tape, diskette or film, and/or at a specific scale on
  493.    photographic paper. GRS are normally operated on a commercial basis of
  494.    standard agreements between the satellite operators and the
  495.    Governments of the countries in which they are situated. Subject to
  496.    the operating agreements, local GRSs sell products adapted to end
  497.    users needs, and provide remote sensing training, cartography, and
  498.    thematic applications.
  499.    
  500.    2. GROUND RECEIVING STATION ARCHITECTURE
  501.    
  502.    A Ground Receiving Station consists of a Data Acquisition System
  503.    (DAS), a Data Processing (DPS) and a Data Archive Center (DAC).
  504.    
  505.    2.1. DATA ACQUISITION SYSTEM
  506.    
  507.    DAS provides a complete capability to track and receive data from the
  508.    remote sensing satellite using an X/S-band receiving and autotracking
  509.    system on a 10 to 13meter antenna in cassegranian configuration. DAS
  510.    normally store fully demodulated image data and auxiliary data on High
  511.    Density Digital Tapes (HDDTs). However, in one small UNIX based
  512.    system, data storage can be stored directly on disk and/or
  513.    electronically transmitted to distant archives.
  514.    
  515.    2.2. DATA PROCESSING SYSTEM
  516.    
  517.    DPS keeps an inventory of each satellite pass, with quality assessment
  518.    and catalog archival, and by reading the raw data from HDDTs,
  519.    radiometrically and geometrically corrects the satellite image data.
  520.    
  521.    2.3.DATA ARCHIVE CENTRE
  522.    
  523.    The Data Archive closely related to DPS offers a catalog interrogation
  524.    system and image processing capabilities through an Image Processing
  525.    System (IPS).
  526.    
  527.    3. GROUND RECEIVING STATION PRODUCTS
  528.    
  529.    The GRS products can either be standard or value added products. Both
  530.    are delivered on Computer Compatible Tapes (CCTs), CD ROM, cartridges,
  531.    photographic films or photographic paper prints at scales of 1:250
  532.    000, 1:100 000, 1:50 000 and 1:25000.
  533.    
  534. i.      Standard products
  535.         - SPOT-1 and 2/HRV : data of CNES levels 0, 1A, 1B, 2A
  536.         - Landsat TM : data of LTWG levels 0, 5,
  537.         - ERS-1 SAR : Fast Delivery and Complex products.
  538.  
  539. ii.     Value added products
  540.         - For SPOT
  541.                 .       P + XS : Panchromatic plus multi-spectral,
  542.                 .       SAT : a scene shifted along the track,
  543.                 .       RE : a product made of 2 consecutively acquired scenes,
  544.                 .       Bi-HRV : Digital  mosaic produced by assembling 2 sets
  545. of
  546.  2                              scenes acquired in the twin-HRV configuration.
  547.                 .       Stereoscopy : Digital terrain model (DTM) generation,
  548.                 .       Levels 2B, S and level 3B using DTMs.
  549.  
  550.         - For Landsat TM: levels 6, S and 7.
  551.         - For ERS-1 SAR : geocoded data.
  552.  
  553.         - For any instrument:
  554.                 .       Image enhancement and thematic assistance,
  555.                 .       Geocoded products on an area of interest defined by the
  556.                         customer (projection, scale, geocoding and mosaicking
  557.                         according to the local map grid).
  558.  
  559.    4. GROUND RECEIVING STATION OPERATION
  560.    
  561.    Persons needing images for thematic applications in the field of
  562.    cartography, geology, oceanography or intelligence, etc, will refer to
  563.    the station catalog in order to find out if the data are available
  564.    over the area concerned.
  565.    
  566.    There are two possibilities :
  567.    
  568.    The data exists.
  569.           The customer fills in a purchase order and is then provided
  570.           with the product on a medium such as CCT, film or paper print.
  571.           If the data are available in the GRS catalog, a list of the
  572.           related scenes and their hardcopies (named "quick looks") are
  573.           provided.
  574.           
  575.    The data does not exist.
  576.           a) For SPOT, the customer fills in a programming request form
  577.           which is sent by GRS to the Mission Control Centre (MCC) in
  578.           Toulouse, France. MCC returns a Programming Proposal to be
  579.           submitted for approval. Upon approval, the confirmation is
  580.           returned to MCC which in turn sends a programming order to the
  581.           satellite for emitting the data during its pass over the GRS
  582.           antenna.
  583.           At the same time, MCC sends to GRS, the satellite ephemerides
  584.           for antenna pointing and satellite tracking.
  585.           In the case of SPOT, if the data does not exist within the
  586.           Station catalog but are listed in the SPOT IMAGE worldwide
  587.           catalog, GRS may request the level O product from SPOT IMAGE in
  588.           TOULOUSE in order to process it locally.
  589.           
  590.           b) For other sensors, LANDSAT TM or ERS-1, the satellite
  591.           ephemerides are known at GRS and the antenna is pointed
  592.           accordingly in order to track all selected passes.
  593.           
  594.    Within the GRS, the raw satellite data are received by the Data
  595.    Acquisition System (DAS), and recorded on High Density Digital Tapes
  596.    (HDDTs). HDDTs are then sent to the Data Processing System (DPS),
  597.    where an update of the Station catalog is made as well as a quick look
  598.    processing.
  599.    
  600.    DPS is also in charge of automatic processing of selected raw data in
  601.    order to produce images of standard level.
  602.    
  603.    Value added products with cartographic precision are produced within
  604.    DPS using interpretation workstations which must be part of an
  605.    operational Geographic Information System (GIS) combined to an Image
  606.    Processing System (IPS).
  607.    
  608.    Once processed, the data, on CCT, are sent to the Data Archive Center
  609.    (DAC) where they are delivered to the customers after a quality
  610.    checking. At DAC, further processing may be applied to the data such
  611.    as image stretching, statistical analysis, DTM, or a conversion from
  612.    tape to film and paper prints in the photographic laboratory;
  613.    "customized services" may also be offered.
  614.    
  615.      _________________________________________________________________
  616.                                       
  617.   Image Interpretation
  618.   
  619.  
  620. ------------------------------
  621.  
  622. Subject: How can I assess my results?
  623.  
  624.     How can I assess my results?
  625.     
  626.    _(for basics, see Russell Congalton's review paper In Remote Sens.
  627.    Environ. 37:35-46 (1991). Think we should have a basics entry here
  628.    too!)_ Michael Joy (mjoy@geog.ubc.ca) posted a question about
  629.    Contingency table statistics and coefficients, and subsequently
  630.    summarised replies:
  631.  
  632. Second, a summary of responses to my posting about contingency table statistics
  633. and coefficients. Basically, I need to come up with a single statistic for
  634. an error matrix, along the lines of PCC or Kappa, but which takes into
  635. account the fact that some miscalssifications are better or worse than others.
  636.  
  637. Tom Kompare suggested readings on errors of omission or commission.
  638. Chris Hermenson suggested Spearman's rank correlation.
  639. Nick Kew suggested information-theoretic measures.
  640.  
  641. Others expressed interest in the results; I'll keep them posted in future.
  642.  
  643. The responses are summarized below.
  644.  
  645.  
  646. ===============================================================================
  647. Michael:
  648.  
  649. Your thinking is halfway there. Check out how to use an error matrix to get
  650. + errors
  651. of Omission and Commission.
  652.  
  653.         Good texts that explain it are:
  654.  
  655.         Introduction to Remote Sensing, James Campbell, 1987, Gulliford Press
  656.         start reading on page 342
  657.  
  658.         Introductory Digital Image Processing, John Jensen, 1986, Prentice-Hall
  659.         start reading on page 228 or so.
  660.  
  661. These are the books where I learned how to use them. Sorry if you don't have
  662. + access
  663. to them, I don't know how Canadian libraries are.
  664.  
  665.                                 Tom Kompare
  666.                                 GIS/RS Specialist
  667.                                 Illinois Natural History Survey
  668.                                 Champaign, Illinois, USA
  669.                         email:  kompare@sundance.igis.uiuc.edu
  670.                           WWW:  http://www.inhs.uiuc.edu:70/
  671. ============================================================================
  672.  
  673. Excerpt from my response to Tom Kompare (any comments welcome...)
  674.  
  675. These are useful readings describing error matrices and various measures we can
  676. get from them, eg PCC, Kappa, omission/commission errors. But from these
  677. + readings
  678. I do not see a single statistic I can use to summarize the
  679. whole matrix, which takes into account the idea that some misclassifications
  680. are worse than others (at least for me). For example, if I have two error
  681. matrices with the same PCC, but with tendencies to confuse different categories
  682. ,
  683. I'd like to get a ststistic which selects the 'best' matrix (ie the best image)
  684. .
  685. One simple way I can think of to do this is to supply a matrix which gives
  686. a 'score' for each classification or misclassification, and then multiply each
  687. number in the error matrix by the corresponding number in the 'score' matrix.
  688. So a very simple example of such a matrix might look like this:
  689.  
  690.                    Deciduous    Conifer    Water
  691.          Decid         1.0        0.5        0.0
  692.          Conifer       0.5        1.0        0.0
  693.          Water         0.0        0.0        1.0
  694.  
  695. In this notation, the 'score' matrix for a PCC statistic would be a diagonal
  696. matrix of "1". Obviously there are a number of issues for me to think about
  697. in using such a matrix, eg can you 'normalize' the score matrix? Can you
  698. use it to compare different matrices with different numbers of categories?
  699. An obvious extension to this would be to apply this idea to the Kappa
  700. statistic as well.
  701.  
  702. ===========================================================================
  703. Hi Michael;
  704.  
  705. Spearman's rank correlation is often used to test correlation in a situation
  706. where you are scoring multiple test results.  You might be able to adapt
  707. it to your problem.
  708.  
  709. Chris Hermansen                         Timberline Forest Inventory Consultants
  710. Voice: 1 604 733 0731                   302 - 958 West 8th Avenue
  711. FAX:   1 604 733 0634                   Vancouver B.C. CANADA
  712. clh@tfic.bc.ca                          V5Z 1E5
  713.  
  714. C'est ma facon de parler.
  715. =========================================================================
  716.  
  717. Hi,
  718.  
  719. Your question touches on precisely the field of research I'd like to be
  720. pursuing, if only someone would fund it:)
  721.  
  722. > Hi,
  723. > I'm comparing different datasets using contingency tables, and I would
  724. > like to come up with summary statistics for each comparison. I am using
  725. > the standard PCC and Kappa, but I'd also like to come up with a measure
  726. > which somehow takes into account different 'degrees' of misclassification.
  727. > For example, a deciduous stand misclassified as a mixed stand is not as
  728. > bad as a deciduous stand misclassified as water.
  729.  
  730. I would strongly suggest you consider using information-theoretic measures.
  731. The basic premise is to measure information (or entropy) in a confusion matrix.
  732. I can send you a paper describing in some detail how I did this in the
  733. not-totally-unrelated field of speech recognition.
  734.  
  735. This does not directly address the problem of 'degrees of misclassification' -
  736. just how well it can be used to do so is one of the questions wanting further
  737. research.   However, there are several good reasons to use it:
  738.  
  739. 1) It does address the problem to the extent that it reflects the statistical
  740.    distribution of misclassifications.   Hence in two classifications with
  741.    the same percent correct, one in which all misclassifications are between
  742.    deciduous and mixed stands will score better than one in which
  743.    misclassifications are broadly distributed between all classes.
  744.    Relative Information is probably the best general purpose measure here.
  745.  
  746. 2) By extension of (1), it will support detailed analysis of hierarchical
  747.    classification schemes.   This may be less relevant to you than it was
  748.    to me, but consider two classifiers:
  749.  
  750. A: Your classifier - which for the sake of argument I'll assume has
  751.    deciduous, coniferous and mixed woodland classes.
  752. B: A coarser version of A, having just a single woodland class.
  753.  
  754. Now using %correct, you will get a higher score for B than for A - the
  755. comparison is meaningless.   By contrast, using information (Absolute,
  756. not Relative in this case), A will score higher than B.   You can
  757. directly measure the information in the refinement from B to A.
  758.  
  759. > In effect I guess I'm
  760. > thinking that each type of misclassification would get a different 'score',
  761. > maybe ranging from 0 (really bad misclassification) to 1 (correct
  762. > classification).
  763.  
  764. I've thought a little about this, as have many others.   The main problem is,
  765. you're going to end up with a lot of arbitrary numerical coefficients, and no
  766. objective way to determine whether they are 'sensible'.   Fuzzy measures can
  767. be used, but these are not easy to work with, and have (AFAIK) produced
  768. little in the way of results in statistical classification problems.
  769.  
  770. > I can invent my own 'statistic' to measure this, but if there are any such
  771. > measures available I'd like to use them. Any ideas?
  772.  
  773. Take the above or leave it, but let me know what you end up doing!
  774.  
  775. Nick Kew
  776. nick@mail.esrin.esa.it
  777.  
  778. ============================================================================
  779.  
  780. --
  781. Michael Joy                            mjoy@geog.ubc.ca
  782. University of British Columbia, Vancouver, B.C., Canada
  783.  
  784.  
  785. ------------------------------
  786.  
  787. Subject: Is there a program to compute Assessment measures, including Kappa coe
  788. fficients?
  789.  
  790.     Is there a program to compute Assessment measures, including Kappa
  791.     coefficients?
  792.     
  793.    Nick Kew's assess.c (ANSI C source code to compute several assessment
  794.    measures, including PCC, Kappa, entropy and Mutual and Relative
  795.    Information) is available for download from the WebThing site,
  796.    http://pobox.com/%7Esatfaq/ or from the satfaq autoresponder (mail to
  797.    satfaq@pobox.com with subject line "send assess.c").
  798.    
  799.    _Old reference to Dipak Ram Paudyal's kappa program deleted, as the
  800.    FTP server is apparently no longer available._
  801.  
  802.  
  803. ------------------------------
  804.  
  805. Subject: How good are classification results in practice?
  806.  
  807.     How good are classification results in practice?
  808.     
  809.    The following detailed commentary was posted by Chris Hermansen
  810.    (clh@tfic.bc.ca).
  811.  
  812. Mike Joy posted a question regarding irregularities between two
  813. classifications, one derived from manual interpretation of
  814. large-scale aerial photography, the other from a supervised and
  815. enhanced spectral classification of Landsat TM imagery.
  816.  
  817. I've read several of the responses, and I just thought it time
  818. to kick in my $0.02 worth, since I am quite familiar with both
  819. of the classifications with which Mike is working.
  820.  
  821. First, Peter Bolton rattles off his experience in tropical forests
  822. and chastises Mike for discovering what should have been obvious.
  823. Well, Peter, the boreal forest is a much different beast than
  824. what you're used to in Malaysia (I can attest from firsthand
  825. experience in both cases).  Classification from remotely sensed
  826. data is generally quite reliable in the boreal forest, especially
  827. given the vegetative nature of the TM-derived classification
  828. that is Mike's second dataset.  Detecting predominantly deciduous
  829. from predominantly coniferous stands is (spectrally speaking)
  830. pretty straightforward.  Problems arise in mixedwood stands,
  831. however, since the nature of the classification of proportion
  832. is not necessarily the same and in any case any aggregative
  833. techniques applied to the TM image prior to classification (eg
  834. smoothing) could significantly alter the proportional balance.
  835. Also, depending on the proportion of deciduous in a predominantly
  836. coniferous stand, and the spatial distribution of deciduous trees
  837. within that stand, the classifier may have difficulty detecting
  838. the differences between mixedwood and younger pure coniferous
  839. types.  Furthermore, deciduous stands with coniferous understory
  840. are classified as deciduous in Mike's first dataset but may
  841. easily be interpreted as mixedwood stands in the TM image.
  842.  
  843. Secondly, on the subject of incorporation of field data, Mike's
  844. second dataset has some ground truthing incorporated in the
  845. classification.
  846.  
  847. Thirdly, on the subject of large numbers of classes in some
  848. people's TM-derived classifications, remember that in many cases
  849. these additional classes are derived by incorporating other
  850. datasets (field measurements, other digital map data, DEM
  851. information, etc).  The people I've seen most test this envelope
  852. are the folks at Pacific Meridan Resources; their TM-derived
  853. datasets form only the first step of several.  As Vincent
  854. Simonneaux points out, most people stop at the first step.
  855.  
  856. So, in response to Mike's original questions:
  857.  
  858. > 1) Is it reasonable to expect a TM-based classification to accurately
  859. >    distinguish Coniferous and Deciduous forest? The area I am dealing
  860. >    with is boreal mixedwood forest in northeren Alberta, Canada. I had
  861. >    expected that the classification should at least be able to do this.
  862.  
  863. On the face of it, yes.  But!  You must ensure that your definition of
  864. Coniferous and Deciduous forest is exactly the same in both cases (and
  865. the prevailing definitions in use in Alberta don't exactly help out in
  866. this case).
  867.  
  868. > 2) Do people out there have similar experiences, i.e. the actual
  869. >classification
  870. >    accuracy being very much lower than the reported results, or major
  871. >    differences when comparing with different source of information?
  872.  
  873. Of course, this is a possibility; the most unreliable classes may
  874. interfere in a nasty way between to datasets.  You really need to ensure
  875. that you are sampling the same population in both cases; then you need
  876. to examine the distribution of errors among classes in both cases.  In
  877. your first dataset, you don't really have error estimates with which to
  878. work.
  879.  
  880. >                                                                      I
  881. >    understand that an air-photo-based forest inventory and a TM satellite
  882. >image
  883. >    are measuring different things, and that I shouldnt expect perfect
  884. >agreement,
  885. >    but I would have thought they could agree roughly on the overall area of
  886. >    Coniferous or Deciduous forest. Ditto for two similar TM-based
  887. > + classifications.
  888.  
  889. Once more, not necessarily.  See the points above on coniferous understory
  890. in deciduous stands and the basic definitions of coniferous/deciduous
  891. split.
  892.  
  893. There are, of course, really obvious errors that can occur, like using
  894. pre-leaf or post-leaf images when trying to locate deciduous stands...
  895.  
  896. Sorry to go on at such length about this; I hope that my comments are of
  897. interest to some of you.
  898.  
  899. ------------------------------
  900.  
  901. Subject: I need to classify a mosaic of several images.   How best to do it?
  902.  
  903.   I need to classify a mosaic of several images. How best to do it?
  904.   
  905.    David Schaub (dschaub@dconcepts.com) posted a question on this. Here
  906.    is his summary of replies:
  907.  
  908. Dear Netters,
  909.  
  910. Some time ago I posed a  question to this list with regards to classification,
  911. rectification, and mosaicking.   My original question was as follows--
  912.  
  913. >Hello,
  914.  
  915. >We need to georectify, mosaic, and classify several (3 or 4) Landsat TM
  916. >scenes using ERDAS Imagine.  The classification will need to show major
  917. >land cover categories, such as bare ground, grassland, shrubby range,
  918. >built-up, coniferous forest, broad-leaf forest, water, etc.  In the past
  919. >when we have done this the seams between images are quite evident in the
  920. >classification.  We would like to minimize differences between images, yet
  921. >be asaccurate as possible in the classification of each image.
  922.  
  923. >My main questions are these -- Should we classify each image separately
  924. >and then mosaic them, or should we mosaic the images first and then
  925. >classify them?  Can georectifying the images effect the classification?
  926.  
  927. >You can assume that images along a path will have the same acquisition date,
  928. >however scenes on adjacent paths will have different dates (at least by two
  929. >weeks).  I will post a summary.  Thanks in advance for your opinions :-)
  930.  
  931. This quickly generated a flood of responses.  While there wasn't complete
  932. agreement, the majority of respondents believed that I should first classify
  933. the images, then do the rectification and mosaicking.  Nearest neighbor
  934. should be used when rectifying the classified image (or if the image data
  935. are rectified before classification).  Thanks to all who responded!!  Comments
  936. are summarized below:
  937.  
  938. David Schaub
  939. dschaub@dconcepts.com
  940.  
  941. *******************************************************************
  942.  
  943.      I have done the same things you are attempting to do for my thesis work.
  944. I think the best course of action would be to classify the images first, then
  945. rectify the images and then merge or mosaic the images.  Rectifying the images
  946. before you classify may distort the spectral characteristics of pixels and
  947. thereby influence your classification.  Furthermore, the smaller the area you
  948. are classifying, the more accurate the classification will be, so if you
  949. mosaic a large area and then attempt to classify the mosaiced image, there
  950. will be more confusion possible based on the heterogeneity of a larger area. I
  951. hope this helps, contact me if i can be of further assistance.
  952.  
  953. David Smith
  954.  
  955. *************************************************************
  956.  
  957. Here's my 2c for what it's worth...
  958.  
  959. I classify TM scenes separately and then mosaic the classifications. My
  960. classifications almost never have a seam in them...If there is a seam
  961. it is usually due to the difference in the date of the scene. You have
  962. to be careful though... you need to use the same method of classification
  963. (plotting out feature spaces and elipses helps) for overlapping scenes.
  964. Sometimes this is why people use the other method...
  965.  
  966. If you're going to do this the other way round...i.e. mosaic and then classify
  967. scenes you will have to calibrate the scenes to radiance and then use some
  968. kind of atmospheric correction before mosaicking them.  This should in theory
  969. minimize the difference in the spectral information between scenes....I would
  970. avoid using any kind of histogram equalization ...although it may look nice,
  971. you are loosing the original pixel information.
  972.  
  973. \\.   _\\\_____
  974.  \\\ /ccccccc x\        Fiona Renton, GIS and remote sensing analyst
  975.   >>Xccccccc(   <       CALMIT, Conservation and Survey Division
  976.  /// \ccccccc\_/        University of Nebraska-Lincoln
  977. ''     ~~~~             renton@fish.unl.edu
  978.  
  979. **********************************************************************
  980.  
  981. What sort of classification?   Pixels?   Clusters?   Polygons?
  982. Higher-level features?    If your classification units are homogenous
  983. and shape is not important, you should clearly do it before mosaicing.
  984. If not, you have a genuinely interesting problem, and will probably have
  985. to your own research (starting at your local academic library, assuming
  986. there is one :-)
  987.  
  988. Nick.
  989.  
  990. *********************************************************************
  991.  
  992. Geo-rectification will have a small effect on classification due to the
  993. resampling process.  I can't help to much on classification part,
  994. because that is not my area, but my feeling is that mosaicking
  995. non-classified images may be easier than trying to match features in a
  996. classified image.
  997.  
  998. Ok, this is my area.  You can not assume that images on the same path
  999. are imaged on the same day, However, they could be.  You should be able
  1000. to check the meta-data to find out if they were.  The next path west
  1001. could have been imaged 7 days after the path of interest or 9 days
  1002. before and the next path east could have been imaged 9 days after the
  1003. path of interest or 7 days before, again check the meta-data.  The next
  1004. chances are to add 16 days on to those numbers (i.e. 7 + 16).
  1005.  
  1006. This is true for Landsat 4 and 5 only (will be true for Landsat 7).
  1007.  
  1008. Chuck
  1009. wivell@edcsnw38.cr.usgs.gov
  1010.  
  1011. ************************************************************
  1012.  
  1013. Yes the georectification process will affect the classification
  1014. results.  My suggestion is to classify each individual image first and
  1015. then mosaic them together.  I have done this before and it works well.
  1016. If you mosaic first and then classify you have to calibrate the data,
  1017. apply radiometric corrections etc...  Not worth the trouble in my
  1018. opinion, and you probably won't get any good results.
  1019.  
  1020. The resampling technique (convolution) will affect the radiometric value
  1021. of the image and may not be suitable for adequate identification
  1022. aftrewards.  To avoid visible seams, just go around the areas, try to
  1023. contour the natural groupings (classes after classification)
  1024.  
  1025.  
  1026. To resume, in my opinion, if you want good accurate results: Classify first
  1027. and after mosaic.
  1028.  
  1029. Francois Beaulieu
  1030.  
  1031. ************************************************************
  1032.  
  1033. You definitely want to mosiac the 4 images first (into one file) and
  1034. then run the classification on that.  Because of subtle differences in
  1035. the radiometric characteristics of each image, the classes in separate
  1036. classifications will rarely "line up" perfectly when mosaicked afterward.
  1037.  
  1038. > Can georectifying the images effect the classification?
  1039.  
  1040. Yes it can, depending on the resampling technique you use.  When
  1041. rectifying the images, use Nearest Neighbor resampling as that
  1042. will ensure that original pixel values are used to create the
  1043. new rectified dataset.  (Bilinear or Cubic will average the
  1044. original data, resulting in slight degradation.)  I would:
  1045.  
  1046. 1)      Rectify the four images (use Nearest Neighbor)
  1047.  
  1048. 2)      Contrast balance them, using for example Histogram
  1049.         Matching or another technique.
  1050.  
  1051. 3)      Mosaic the four contrast balanced scenes into one file.
  1052.  
  1053. 4)      Run the classification.
  1054.  
  1055. I hope this helps.
  1056.  
  1057.  
  1058. Eric Augenstein
  1059. Manager of Training Services
  1060.  
  1061. *************************************************************
  1062.  
  1063. In general you can't depend on the DN values from one image to the next
  1064. to be related. You should classify before your mosaic - in other words
  1065. mosaic the classification, not the images. Otherwise you mix unrelated
  1066. DN values into a signal classification which would be wrong.
  1067.  
  1068. Classification may be affected by geo-rectification. If the
  1069. geo-rectified image has the same pixels and pixel values as the
  1070. original, the classification should not be affected. However, this is
  1071. an unreal assumption. A geo-rectified image will almost always have
  1072. resampling - which means that pixels are either dropped or replicated -
  1073. unless a filter is applied (like bilinear or cubic convolution) in
  1074. which case the pixel values change as well.
  1075.  
  1076. If the classifier is single pixel based (like isodata) then the
  1077. classification is only affected by the resampling as the sigatures are
  1078. affected by the replication or dropping of values. If the classifier is
  1079. regional or global (like multi-resolution/multi-scale classifiers, or
  1080. region linking) then the classifiers may be affected to a greater
  1081. degree.
  1082.  
  1083. You can classify before or after geo-rectifiction and the results
  1084. will not be vastly different.
  1085.  
  1086. But the bottom line to mosaic at the very end.
  1087.  
  1088. Michael Shapiro                   mshapiro@ncsa.uiuc.edu
  1089. NCSA                              (217) 244-6642
  1090. 605 E Springfield Ave. RM 152CAB  fax: (217) 333-5973
  1091. Champaign, IL 61820
  1092.  
  1093. ********************************************************
  1094.  
  1095. Re Michael Shapiro's posting,
  1096.  
  1097. There is no doubt that that you cannot depend on the DN values from one
  1098. image to the next (especially with images from adjacent paths which are
  1099. taken on different dates (see Chuck Wivell's posting).
  1100.  
  1101. However mosaicing images which have been classified seperately may produce
  1102. unusual results ie trying to match classes from different images.
  1103.  
  1104. A suggestion would be to first try some kind of atmospheric correction on
  1105. the images, mosaic them and then classify them together. Assuming
  1106.  
  1107. i) you can do a credible atmospheric condition (using Dark Pixel
  1108. Substraction, Band Regression etc) plus, perhaps, correct the images to a
  1109. constant solar elevation angle
  1110. ii) the images from different paths were not taken on widely different
  1111. dates and
  1112. iii) (linked to ii) the ground conditions are similar for the images
  1113. from different paths
  1114.  
  1115. then the DN values between images should be comparable.
  1116.  
  1117. Euan
  1118.  
  1119. ************************************************************
  1120.  
  1121. We are currently doing a statewide land cover classification for Mississippi
  1122. using TM scenes (10 of them). My responses for your questions:
  1123.  
  1124.    1. We classified each scene separately - mainly because the dates differed
  1125.       and in the cases where we had adjoining scenes taken on the same day, it
  1126.       was decided that classifying a full scene was a big enough task in both
  1127.       computer and human resources. If you had subscenes, it would not be too
  1128.       bad. I would advise against mosaicking scenes before classifying - your
  1129.       signatures for the same landcover class in the other scene(s) would be
  1130.       different and it would be a nightmare. Matching techniques that changed
  1131.       image pixel values would change your original data and corrupt your
  1132.       classification.
  1133.  
  1134.    2. We also georeferenced each scene before classification for the following
  1135.       reasons:
  1136.  
  1137.         - georeferenced ancillary data sources (roads, streams, NWI, etc) were
  1138.           used - including leaf-off TM scenes already in-house.
  1139.         - the need to have maps to take into the field for pre and post
  1140.           classification checks.
  1141.  
  1142.       We used nearest neighbor. This doesn't change pixel values but just
  1143.       moves them to a different location. In our case the image statistics
  1144.       were unchanged after georectification although it is probable that some
  1145.       pixels may be dropped or replicated (but when you georeference the
  1146.       classified image, those same pixels are going to be affected anyway).
  1147.  
  1148. Bottom line would be to classify each scene separately.  I would georeference
  1149. each TM scene first - when the classiciations are completed, stitching is
  1150. easy.
  1151.  
  1152. Jim
  1153.  
  1154. ************************************************************
  1155.  
  1156. Our lab has had luck using regression techniques to mosaic the three
  1157. bands together.  Using ERDAS imagine, the steps are:
  1158.     1)  create an image where the two scenes overlap (this is best
  1159.             done with modeller, not layerstack:  layerstack only
  1160.             uses the geographical boundaries, whereas you want to
  1161.             have the area where there are values in both images
  1162.     2)  Use the Accuracy Assessment module to create random points
  1163.             on the image and remove those points which lie in cloud
  1164.             or shadow.
  1165.     3)  Export the X,Y coordinates from the random points and use
  1166.             these as a point file in the Pixel-to-Table function.
  1167.             Use the overlap image as the output image (make sure
  1168.             you have all the bands you want to regress (ie. image
  1169.             one's band 3,4,5 on top of image 2's 3,4,5
  1170.     4)  You now have a set of points that can be imported into
  1171.             any standard statistical package.  You need to have the
  1172.             values from the "larger" or primary image be the Y values
  1173.             and the other image be the X value (I'm told the correct
  1174.             statistical term is that the Y is the master and the X
  1175.             is the slave).
  1176.  
  1177. This should create a seamless image.  Obviously, the closer the B
  1178. number in the Y= bx + constant equation is to 1, the less you are
  1179. transforming the values of your slave image. We have also tried doing
  1180. classifications of each image first, but the results have been
  1181. disappointing.
  1182.  
  1183. Regards,
  1184. Sean Murphy
  1185. University of Maine
  1186.  
  1187. ********************************************************************
  1188.