opsporen en meten van de fouten; voortplanting van fouten en het opstellen van modellen; methodes om de fouten onder kontrole te krij- gen en methodes om de omvang van de fouten te verminderen. Deze rang- orde wordt met sukses ondersteund door een analyse van de GIS 'over- lay'-procedure, welke ook nuttig is voor een herziening van de kennis van de lezer op het gebied van de wiskundige probabiliteit. Deel 2 behandelt de aard van fouten in GIS en bevat vijf artikelen. Chrisman (University of Washing ton) geeft aan dat fouten in gebieds- gegevens voortkomen uit fouten in de ligging van de grenzen van poly- gonen, uit fouten in de aan polygo- nen toegekende attributen en uit een gebrek aan informatie over de her- komst van elk aspekt van de gege- vens. Hij is voorstander van een meer zorgvuldige bestudering van statistische technieken, die zijn ont- wikkeld om niet-geografische gege- vens te verwerken. Walsh (University of North- Carolina) beschrijft verscheidene analytische hulpmiddelen die bij GIS worden gebruikt ('image enhance- ment', 'ratioing', 'spatial filtering' 'principal components analysis', 'di gital elevation modeling') en hij on- derzoekt een set bodemgegevens om te laten zien hoe fouten ontstaan en wat daarvan de gevolgen zijn voor GIS. In zijn artikel pleit Fisher (Kent Sta te University) voor het toepassen van kennissystemen om GIS-gebruikers te helpen, die maar een beperkte kennis hebben van de kwaliteit van de te verwerken gegevens. Het is in teressant dat hij zegt dat dit nodig is, omdat de informatie over de nauwkeurigheid, die voorheen werd opgeslagen in kaartlegenda's en in landmetingsrapporten, zelden wordt overgebracht naar het GIS. Het hoofdstuk geschreven door Maf- fini e.a. (Tydac Technologies) geeft een beschrijving van een test om de nauwkeurigheid van het digitaliseren van kaarten te bepalen, gebruik ma- kend van wiskundig definieerbare fi- guren (driehoeken, Vierkanten, cirkels enz.) en drie digitaliseersnel- heden. Een toepassing van hun be- vindingen in een geschiktheidsanaly- se liet zien dat, bij het buiten beschouwing laten van digitaliseer- fouten, nog 3,35% van het testge- bied 'geschikt' werd bevonden, maar dat, toen wel rekening werd gehou- den met die fouten, dit percentage terugliep tot 0,09%. In zijn artikel presenteert Lodwick (University of Colorado) vijf statisti sche methoden voor het aangeven van de gevoeligheid van een GIS- analyse voor fouten in de gegevens. Deze maten zijn de 'attribute', 'area', 'position', 'map removal' en de 'polygon sensitivity'. De eerste twee lijken het meest nuttig, maar ze moeten aliemaal onderzocht worden. Deel 3 behandelt in vijf artikelen het opslaan van de fouten. Griffith (Syracuse University) bespreekt de berekeningen van op- pervlakte, afstand en middelpunt en presenteert methoden waarmee de afwijkingen ervan berekend kunnen worden uit de vastgelegde variantie van koördinaten in het GIS. Hierbij worden methoden, die al lang wor den gebruikt, opnieuw gepresen- teerd, en op dezelfde wijze bespreekt Guptill (USGS) kwaliteitsmaatstaven gebaseerd op onbetrouwbaarheid en variantie. Theobold (University of California) pakt het vraagstuk aan van de fou ten in digitale informatie over het aardoppervlak, zoals in een digitaal hoogtemodel (DEM), en hij komt tot de konklusie dat de precisie en de resolutie van een DEM, de varia- tie van het aardoppervlak, en het ge bruik van het DEM aliemaal nauw met elkaar verbonden zijn. Via dit hoofdstuk komen we vanzelf bij dat van Goodchild (University of Cali fornia), die ons er aan herinnert dat veel foutenproblemen bij GIS ont staan, omdat we kategorische gege vens vanuit kaarten opslaan, maar dat deze kaarten voortkomen uit puntinformatie. Juist deze punten en hun kwaliteitsparameters zouden moeten worden opgeslagen in een GIS. Tobler (University of California) on- derzoekt in zijn artikel veranderin- gen in de resultaten van GIS- analyses als gevolg van veranderin- gen in de methode om geografische lokaties te beschrijven. Dit thema komt herhaaldelijk in het boek voor. Tobler bepleit dat een goede manier om GIS-analyses te testen is om na te gaan of die analyses konsekwente resultaten opleveren, ongeacht de methode die gebruikt is om de geo grafische lokatie te beschrijven. Deel 4 bevat drie artikelen en intro- duceert enige recente dan wel onkon- ventionele technieken. Dutton (Prime Computers) komt met de suggestie om niet op Vekto ren gebaseerde methodes te gebrui- ken om posities te beschrijven, zoals 'quadtrees', variabele driehoeken en andere 'ruitwerken' ('tessalations'). De grootte van de cellen kan een funktie zijn van de geografische pre cisie, waarmee een inherente metho de wordt geintroduceerd om om te gaan met geografische fouten en on betrouwbaarheid. Het hoofdstuk van Slater (University of California) gaat over het naboot- sen van fouten in ruimtelijke gege vens en over het voortplanten van die fouten bij GIS-bewerkingen. Het artikel geeft enigszins de ideeen weer, die Openshaw enige jaren daarvoor ontwikkeld had. Het ver- schaft een interessante schakel met het laatste hoofdstuk van het boek. In zijn artikel onderzoekt Laskowski (Intergraph) opnieuw de honderd jaar oude indikatrix van Tissot, die ontwikkeld werd om de vervormin- gen te laten zien die resulteerden uit verschillende kaartprojekties. Aange- zien geografische vervorming een van de aspekten van GIS-fouten is, vond men het de moeite waard om het werk van Tissot opnieuw te bestuderen. Laskowski toont echter aan dat een 'singular value decom- position' gemakkelijk in een GIS ge bruikt kan worden om tot dezelfde resultaten te komen. Deel 5 heeft vier hoofdstukken en handelt over fouten in sociaal- ekonomische gegevens. In hun hoofdstuk schetsen Bruse- gard en Menger (Institute for Mar ket and Social Analysis, Canada) de foutenproblemen waar een kommer- ciele organisatie mee te maken krijgt, die geografische marktanaly- ses verkoopt. Om klanten te behou- den moet zo'n organisatie kwantita- tieve en verdedigbare nauwkeurig- heidsmaatstaven verschaffen. Dit artikel geeft wellicht een beeld van de kwaliteitsproblemen waar Neder- landse organisaties mee te maken zullen krijgen als zij geografische in formatie op de markt gaan brengen. Kennedy (University of California) bekijkt het probleem van prognoses gebaseerd op kleine gegevensbestan- den (steekproeven). Hoewel dit een algemeen statistisch probleem is, is 58 KT 1991.XVII.3

Digitale Tijdschriftenarchief Stichting De Hollandse Cirkel en Geo Informatie Nederland

Kartografisch Tijdschrift | 1991 | | pagina 60