met het aantal voorwaardevergelijkingen per fase.
In nauw overleg met Krijger werden de consequenties
van deze keuze zorgvuldig nagegaan. Met als resul
taat, dat wel een stap in de goede richting was gezet,
maar dat toch de methodiek niet bevredigend kon
worden genoemd. Een enorme krachtsinspanning
rond 1966 gaf daarna de doorbraak: De keuze van a
per fase werd afhankelijk gesteld van het aantal voor
waardevergelijkingen en van twee gekozen startwaar
den, de u 0 van een fase met slechts één voorwaarde-
vergelijking en de |30 als grenswaarde voor het onder
scheidingsvermogen van elke toets. Vandaar de naam
Bêta-methode van toetsen. Nadien liep de verdere
ontwikkeling als een trein, hoewel eerlijkheidshalve
dient te worden vermeld, dat het latere praktische
succes van deze methode toch wel als een verrassing
kwam, omdat door de aard van het beestje een aantal
wenselijke relaties slechts met enige benadering kon
worden gerealiseerd.
Essentieel voor de methodiek is, dat de eerderge
noemde vergissingen of fouten in de plaatspara
meters van de nulhypothese in wiskundige vorm als
zgn. alternatieve hypothesen kunnen worden om
schreven. De daaruit volgende niet-centrische Chi-
kwadraat of F-verdelingen geven dan de mogelijkheid
de kansen te berekenen, die behoren bij de kritieke
gebieden van de nulhypothese. Zulk een kans wordt
nu niet meer n maar |3 genoemd, (3 het onderschei
dingsvermogen van de toets. Kent men de grootte
van fouten niet, dan kunnen omgekeerd uit een ge
kozen grenswaarde |30 (bijv. 80%) grenswaarden van
fouten worden berekend, die nog juist met een kans
|30 bij de toets kunnen worden geconstateerd. In de
kansrekening betekent een |3 -waarde van 80% al na
genoeg zekerheid. Deze grenswaarden van fouten
vertellen dan iets over de zgn. inwendige betrouw
baarheid" van het praktijknetwerk; de hieruit afge
leide grenswaarden voor coördinaten van dit netwerk
geven een beeld van de zgn. uitwendige betrouw
baarheid" van het netwerk.
Bij elke alternatieve hypothese behoort een afgeleide
waarnemingsgrootheid, waarin de maximale invloed
van de fout tot uiting komt. Deze grootheid wordt
gebruikt voor de opsporing van de fout. Dit proces
wordt uitgevoerd voor alle opgestelde alternatieve
hypothesen (de w-toetsen). Opsporing is alleen nodig
als de toets op de verschuivingsgrootheid tot ver
werping van de nulhypothese van ,het gehele punts-
bepalingsvraagstuk, hetzij van fasen hieruit, heeft
geleid.
Is het aantal voorwaardevergelijkingen van een vraag
stuk zeer groot, dan blijkt het effect van fouten op de
verschuivingsgrootheid te verdrinken; de toets is dan
niet meer effectief. Bovendien geeft dan de Bêta-
methodiek een onbetrouwbaarheidsdrempel a, die tot
één kan naderen. Een absurd resultaat, omdat men
dan theoretisch vrijwel altijd tot verwerping van de
nulhypothese zou moeten besluiten, hetgeen in de
praktijk niet blijkt te geschieden. Er is dus een grens
aan de toepassing van de Bêta-methode van toetsen,
iets wat enerzijds evenzo bekend is voor andere
methoden van toetsen, anderzijds begrijpelijk is als
men zich verdiept in de meer filosofische achter
gronden van kansrekening en statistiek.
Zo wordt men dus gedwongen de toetsing tot fasen
van een vereffeningsprobleem te beperken. Dit had
weer tot gevolg, dat elk aspect van de vereffenings
theorie grondig diende te worden geanalyseerd, zodat
alle consequenties van het splitsen in fasen konden
worden doorzien. Enerzijds moest hierbij de vereffe
ning in fasen de praktijkopbouw van netwerken van
verschillende orde en datum van meting volgen,
anderzijds diende de opsporing van een bepaald type
van fouten zoveel mogelijk tot één fase beperkt te
kunnen blijven. Daarbij diende de gedachtengang toe
pasbaar te zijn op de gehele technische geodesie.
Uit het voorgaande blijkt dat de ontworpen toetsings-
of betrouwbaarheidstheorie duidelijk toegespitst is
en moest worden op geodetische problemen. En
dit was nu ook juist de reden waarom hier zoveel werk
en energie in moest worden gestopt. Het is goed om
dit nog eens nadrukkelijk te vermelden, want de
toetsingsprocedure is in feite niets anders dan een
herinterpretatie van de klassieke theorie van Neyman
en Pearson van vóór de Tweede Wereldoorlog, met
een soort grenswaardetheorie van Tang uit 1938; de
opsporing van fouten is gebaseerd op de „contrasts"
van Scheffé uit 1959 en delen van een studie van
Patnaik uit 1949. De a-keuze is echter origineel en,
zover bekend, nog niet elders aangetroffen. Dat de
uitwerking van de methodiek meteen praktisch bruik
baar werd, is te danken aan de software-ontwikkeling
door mijn medewerkers, waarbij zeker de naam van
ir. J. C. P. de Kruif moet worden genoemd.
Zo kwam dan in de tweede periode een betrouwbaar
heidstheorie tot stand, die grote gevolgen voor de
verkenning van netwerken zou krijgen en in de laatste
jaren ook internationaal ingang vindt.
Aan het einde van deze periode, najaar 1970, werd het
begin van een fraaie afronding gevonden. Zoals be
kend, is het nadeel van een computer dat de uitvoer
vaak zó groot is, dat het overzicht en de wezenlijke
bestanddelen ervan verloren gaan. Zo ook hier met al
die grenswaarden: per alternatieve hypothese even
veel als er coördinaten zijn. (Het aantal alternatieve
hypothesen is gelijk aan of groter dan het aantal waar
nemingen). Samenvatting bleek tenslotte mogelijk
per alternatieve hypothese in de grootheid Aeen
kwadratische vorm in de bijbehorende coördinaat
grenswaarden, invariant ten opzichte van de wijze
waarop de coördinaten zijn gedefinieerd. Proef bere
keningen van De Kruif bevestigden het vermoeden,
dat deze grootheden kenmerkend zijn voor de be
schrijving van de uitwendige betrouwbaarheid van
een netwerk.
Pas in de derde periode slaagde ir. H. M. de Heus erin
de eigenschappen van deze -grootheden te door
gronden. Hierdoor werd het mogelijk de verkenning
van netwerken, wat betreft de betrouwbaarheid, af te
stellen op een \-criterium. Evenals bij vorige delen
van de theorie was ook hier de puzzel een rechtlijnige
gedachtengang te ontwikkelen, gericht op een doel
stellingsomschrijving die zoals meestal eerst
door het onderzoek zelf kon worden geformuleerd.
En geconstateerd kan worden, dat op deze wijze een
verbeterde versie van het sterktegetal van Reiche-
neder werd gevonden, een versie die vergaande gene
ralisatie toestaat.
Het algemene karakter van de theorie blijkt uit het feit
dat deformatieverschijnselen van de oppervlakte der
aarde op globale, regionale of locale schaal door deze
theorie worden bestreken. Het gaat hierbij immers om
verandering van parameters in de tijd. Ook weer in de
304
NGT GEODESIA 80