opsporen en meten van de fouten;
voortplanting van fouten en het
opstellen van modellen; methodes
om de fouten onder kontrole te krij-
gen en methodes om de omvang van
de fouten te verminderen. Deze rang-
orde wordt met sukses ondersteund
door een analyse van de GIS 'over-
lay'-procedure, welke ook nuttig is
voor een herziening van de kennis
van de lezer op het gebied van de
wiskundige probabiliteit.
Deel 2 behandelt de aard van fouten
in GIS en bevat vijf artikelen.
Chrisman (University of Washing
ton) geeft aan dat fouten in gebieds-
gegevens voortkomen uit fouten in
de ligging van de grenzen van poly-
gonen, uit fouten in de aan polygo-
nen toegekende attributen en uit een
gebrek aan informatie over de her-
komst van elk aspekt van de gege-
vens. Hij is voorstander van een
meer zorgvuldige bestudering van
statistische technieken, die zijn ont-
wikkeld om niet-geografische gege-
vens te verwerken.
Walsh (University of North-
Carolina) beschrijft verscheidene
analytische hulpmiddelen die bij GIS
worden gebruikt ('image enhance-
ment', 'ratioing', 'spatial filtering'
'principal components analysis', 'di
gital elevation modeling') en hij on-
derzoekt een set bodemgegevens om
te laten zien hoe fouten ontstaan en
wat daarvan de gevolgen zijn voor
GIS.
In zijn artikel pleit Fisher (Kent Sta
te University) voor het toepassen van
kennissystemen om GIS-gebruikers
te helpen, die maar een beperkte
kennis hebben van de kwaliteit van
de te verwerken gegevens. Het is in
teressant dat hij zegt dat dit nodig
is, omdat de informatie over de
nauwkeurigheid, die voorheen werd
opgeslagen in kaartlegenda's en in
landmetingsrapporten, zelden wordt
overgebracht naar het GIS.
Het hoofdstuk geschreven door Maf-
fini e.a. (Tydac Technologies) geeft
een beschrijving van een test om de
nauwkeurigheid van het digitaliseren
van kaarten te bepalen, gebruik ma-
kend van wiskundig definieerbare fi-
guren (driehoeken, Vierkanten,
cirkels enz.) en drie digitaliseersnel-
heden. Een toepassing van hun be-
vindingen in een geschiktheidsanaly-
se liet zien dat, bij het buiten
beschouwing laten van digitaliseer-
fouten, nog 3,35% van het testge-
bied 'geschikt' werd bevonden, maar
dat, toen wel rekening werd gehou-
den met die fouten, dit percentage
terugliep tot 0,09%.
In zijn artikel presenteert Lodwick
(University of Colorado) vijf statisti
sche methoden voor het aangeven
van de gevoeligheid van een GIS-
analyse voor fouten in de gegevens.
Deze maten zijn de 'attribute',
'area', 'position', 'map removal' en
de 'polygon sensitivity'. De eerste
twee lijken het meest nuttig, maar ze
moeten aliemaal onderzocht worden.
Deel 3 behandelt in vijf artikelen het
opslaan van de fouten.
Griffith (Syracuse University)
bespreekt de berekeningen van op-
pervlakte, afstand en middelpunt en
presenteert methoden waarmee de
afwijkingen ervan berekend kunnen
worden uit de vastgelegde variantie
van koördinaten in het GIS. Hierbij
worden methoden, die al lang wor
den gebruikt, opnieuw gepresen-
teerd, en op dezelfde wijze bespreekt
Guptill (USGS) kwaliteitsmaatstaven
gebaseerd op onbetrouwbaarheid en
variantie.
Theobold (University of California)
pakt het vraagstuk aan van de fou
ten in digitale informatie over het
aardoppervlak, zoals in een digitaal
hoogtemodel (DEM), en hij komt
tot de konklusie dat de precisie en
de resolutie van een DEM, de varia-
tie van het aardoppervlak, en het ge
bruik van het DEM aliemaal nauw
met elkaar verbonden zijn. Via dit
hoofdstuk komen we vanzelf bij dat
van Goodchild (University of Cali
fornia), die ons er aan herinnert dat
veel foutenproblemen bij GIS ont
staan, omdat we kategorische gege
vens vanuit kaarten opslaan, maar
dat deze kaarten voortkomen uit
puntinformatie. Juist deze punten en
hun kwaliteitsparameters zouden
moeten worden opgeslagen in een
GIS.
Tobler (University of California) on-
derzoekt in zijn artikel veranderin-
gen in de resultaten van GIS-
analyses als gevolg van veranderin-
gen in de methode om geografische
lokaties te beschrijven. Dit thema
komt herhaaldelijk in het boek voor.
Tobler bepleit dat een goede manier
om GIS-analyses te testen is om na
te gaan of die analyses konsekwente
resultaten opleveren, ongeacht de
methode die gebruikt is om de geo
grafische lokatie te beschrijven.
Deel 4 bevat drie artikelen en intro-
duceert enige recente dan wel onkon-
ventionele technieken.
Dutton (Prime Computers) komt
met de suggestie om niet op Vekto
ren gebaseerde methodes te gebrui-
ken om posities te beschrijven, zoals
'quadtrees', variabele driehoeken en
andere 'ruitwerken' ('tessalations').
De grootte van de cellen kan een
funktie zijn van de geografische pre
cisie, waarmee een inherente metho
de wordt geintroduceerd om om te
gaan met geografische fouten en on
betrouwbaarheid.
Het hoofdstuk van Slater (University
of California) gaat over het naboot-
sen van fouten in ruimtelijke gege
vens en over het voortplanten van
die fouten bij GIS-bewerkingen. Het
artikel geeft enigszins de ideeen
weer, die Openshaw enige jaren
daarvoor ontwikkeld had. Het ver-
schaft een interessante schakel met
het laatste hoofdstuk van het boek.
In zijn artikel onderzoekt Laskowski
(Intergraph) opnieuw de honderd
jaar oude indikatrix van Tissot, die
ontwikkeld werd om de vervormin-
gen te laten zien die resulteerden uit
verschillende kaartprojekties. Aange-
zien geografische vervorming een
van de aspekten van GIS-fouten is,
vond men het de moeite waard om
het werk van Tissot opnieuw te
bestuderen. Laskowski toont echter
aan dat een 'singular value decom-
position' gemakkelijk in een GIS ge
bruikt kan worden om tot dezelfde
resultaten te komen.
Deel 5 heeft vier hoofdstukken en
handelt over fouten in sociaal-
ekonomische gegevens.
In hun hoofdstuk schetsen Bruse-
gard en Menger (Institute for Mar
ket and Social Analysis, Canada) de
foutenproblemen waar een kommer-
ciele organisatie mee te maken
krijgt, die geografische marktanaly-
ses verkoopt. Om klanten te behou-
den moet zo'n organisatie kwantita-
tieve en verdedigbare nauwkeurig-
heidsmaatstaven verschaffen. Dit
artikel geeft wellicht een beeld van
de kwaliteitsproblemen waar Neder-
landse organisaties mee te maken
zullen krijgen als zij geografische in
formatie op de markt gaan brengen.
Kennedy (University of California)
bekijkt het probleem van prognoses
gebaseerd op kleine gegevensbestan-
den (steekproeven). Hoewel dit een
algemeen statistisch probleem is, is
58
KT 1991.XVII.3