Theoretische beschouwingen over automatische
kaartgeneralisatie
J.C. Müller
Inleiding
Generalisatie-procedures, die moeten zorgen voor de
transformatie van inhoudelijke aspekten van de kaart
bij verandering van kaartschaal, zijn niet of nauwelijks
aanwezig binnen geografische informatiesystemen (gis).
Het generaliseren van een kaart binnen een gis is een
nauwelijks te omvatten taak, die veel verder gaat dan
een puur technische faciliteit, zoals gebruikelijk is bij
funkties als het kreeren van een polygoon-overlay of
het toepassen van 'edge-matching'
Het probleem dat optreedt bij generalisatie, is dat de
uitgangspunten wel duidelijk geformuleerd kunnen
worden, maar dat de uitvoering ervan (nog) niet opera-
tioneel is. Het is bijvoorbeeld heel duidelijk welke
richtlijnen een rol speien bij schaalverkleining, efficient
gebruik van de Computer en kartografische presenta-
ties, maar kriteria, die nodig zijn om tot resultaten te
komen, bestaan niet.
Men heeft behoefte aan een volledig geautomatiseerde
toepassing, die flexibel, nauwkeurig, doelmatig en kon-
troleerbaar is. Dit worden 'objektieve' maten genoemd.
Het nadeel van deze maten is echter dat er geen rela-
ties bestaan tussen het te generaliseren onderwerp en
de inhoud ervan.
Veel oplossingen met betrekking tot generalisatie van
lijnen of namen, komen daarom tot stand zonder dui
delijk begrip van de kaartinhoudelijke informatie.
Generalisatie heeft zodoende een deduktief in plaats
van een induktief karakter, waardoor het belang van de
grafische presentatie hoger ingeschat wordt dan die van
het kaartontwerp. Objektiviteit, samenhang en determi-
nisme worden hoger aangeslagen dan subjektiviteit, va-
riatie en vrijheid.
Dit artikel is een zuiver theoretische beschouwing. Het
ligt in de bedoeling om enkele blinde vlekken in kaart
te brengen over de aard van het intrigerende en on-
grijpbare proces dat generalisatie heet. Er worden geen
oplossingen aangeboden die uit onderzoekingen voort-
vloeien, maar de auteur wil enkele richtingen en onder-
werpen voor toekomstig onderzoek de revue laten
passeren.
De recente technologische ontwikkelingen binnen gis,
het aantal procedurele oplossingen en de ruime toepas
sing van deze nieuwe algoritmen, hebben immers wei
nig ruimte gelaten voor methodologische overpein-
zingen.
Als algemene achtergrond voor deze diskussie kunnen
twee uitgangspunten geformuleerd worden:
1generalisatie is een operatie die ten doel heeft om
meer informatie (zoals bedoeld door shannon
weaver, 1949) te halen uit minder gegevens;
2. elke kartering betekent een vermindering van de ba-
sisgegevens en leidt tot een vereenvoudigd beeld van
de werkelijkheid.
Tegen deze achtergrond hebben zieh twee denkrichtin-
gen ontwikkeld. De eerste richting benadrukt het infor-
matieverlies, dat veroorzaakt wordt door enerzijds de
verkleining van de schaal en anderzijds door de eisen
die gesteld worden aan de leesbaarheid van kaarten. De
tweede richting houdt zieh meer bezig met het zoeken
naar mogelijkheden om de geografische betekenis van
een element en het begrip van ruimtelijke Processen in
te passen.
Dit zijn echter twee uitersten op dezelfde schaal. Vele
oplossingen met betrekking tot automatische kaart
generalisatie, vooral die oplossingen die gebruik maken
van een 'rule-based'-systeem (dat wil zeggen volgens
een set logische regels), liggen ergens op deze schaal
(tussen de eerder genoemde extremen).
Algoritmische versus 'rule-base'-benadering
van generalisatie
De benadering van generalisatie met behulp van algo
ritmen of vastliggende procedures is een typisch voor-
beeld van een even specialistische als beperkte oplos-
sing voor een speeifiek probleem. Deze aanpak wordt
algemeen gezien als een geheel objektieve manier van
generaliseren en wordt veel toegepast als gevolg van de
ontwikkelingen op het gebied van de digitale kartogra-
fie. Het uitdunnen van geografische lijnen door
vereenvoudigings- en selektieprocedures is hiervan een
bekend voorbeeld. Er zijn vele verschillende procedures
ontwikkeld en hun aantal is nog steeds groeiende (zy-
cor, 1984; li, 1988). Het is echter jammer dat deze
oplossingen ontwikkeld worden zonder dat men zieh de
moeite getroost om vooraf het probleem goed te inven-
tariseren. Steeds nieuwe oplossingen worden uitgedacht
voor problemen die echter niet goed in kaart gebracht
zijn.
Meer geavaneeerde algoritmen passen procedures toe
zoals 'epsilon-filtering' en 'self-similarity' (van de
fractal-theorie) (muller, 1987). Deze technieken gaan
uit van een lijn als een verzameling van twee of meer
koördinaten.
Een verbetering ten aanzien van deze toch nog vrij
KT 1989.X V.3
53