met het aantal voorwaardevergelijkingen per fase. In nauw overleg met Krijger werden de consequenties van deze keuze zorgvuldig nagegaan. Met als resul taat, dat wel een stap in de goede richting was gezet, maar dat toch de methodiek niet bevredigend kon worden genoemd. Een enorme krachtsinspanning rond 1966 gaf daarna de doorbraak: De keuze van a per fase werd afhankelijk gesteld van het aantal voor waardevergelijkingen en van twee gekozen startwaar den, de u 0 van een fase met slechts één voorwaarde- vergelijking en de |30 als grenswaarde voor het onder scheidingsvermogen van elke toets. Vandaar de naam Bêta-methode van toetsen. Nadien liep de verdere ontwikkeling als een trein, hoewel eerlijkheidshalve dient te worden vermeld, dat het latere praktische succes van deze methode toch wel als een verrassing kwam, omdat door de aard van het beestje een aantal wenselijke relaties slechts met enige benadering kon worden gerealiseerd. Essentieel voor de methodiek is, dat de eerderge noemde vergissingen of fouten in de plaatspara meters van de nulhypothese in wiskundige vorm als zgn. alternatieve hypothesen kunnen worden om schreven. De daaruit volgende niet-centrische Chi- kwadraat of F-verdelingen geven dan de mogelijkheid de kansen te berekenen, die behoren bij de kritieke gebieden van de nulhypothese. Zulk een kans wordt nu niet meer n maar |3 genoemd, (3 het onderschei dingsvermogen van de toets. Kent men de grootte van fouten niet, dan kunnen omgekeerd uit een ge kozen grenswaarde |30 (bijv. 80%) grenswaarden van fouten worden berekend, die nog juist met een kans |30 bij de toets kunnen worden geconstateerd. In de kansrekening betekent een |3 -waarde van 80% al na genoeg zekerheid. Deze grenswaarden van fouten vertellen dan iets over de zgn. inwendige betrouw baarheid" van het praktijknetwerk; de hieruit afge leide grenswaarden voor coördinaten van dit netwerk geven een beeld van de zgn. uitwendige betrouw baarheid" van het netwerk. Bij elke alternatieve hypothese behoort een afgeleide waarnemingsgrootheid, waarin de maximale invloed van de fout tot uiting komt. Deze grootheid wordt gebruikt voor de opsporing van de fout. Dit proces wordt uitgevoerd voor alle opgestelde alternatieve hypothesen (de w-toetsen). Opsporing is alleen nodig als de toets op de verschuivingsgrootheid tot ver werping van de nulhypothese van ,het gehele punts- bepalingsvraagstuk, hetzij van fasen hieruit, heeft geleid. Is het aantal voorwaardevergelijkingen van een vraag stuk zeer groot, dan blijkt het effect van fouten op de verschuivingsgrootheid te verdrinken; de toets is dan niet meer effectief. Bovendien geeft dan de Bêta- methodiek een onbetrouwbaarheidsdrempel a, die tot één kan naderen. Een absurd resultaat, omdat men dan theoretisch vrijwel altijd tot verwerping van de nulhypothese zou moeten besluiten, hetgeen in de praktijk niet blijkt te geschieden. Er is dus een grens aan de toepassing van de Bêta-methode van toetsen, iets wat enerzijds evenzo bekend is voor andere methoden van toetsen, anderzijds begrijpelijk is als men zich verdiept in de meer filosofische achter gronden van kansrekening en statistiek. Zo wordt men dus gedwongen de toetsing tot fasen van een vereffeningsprobleem te beperken. Dit had weer tot gevolg, dat elk aspect van de vereffenings theorie grondig diende te worden geanalyseerd, zodat alle consequenties van het splitsen in fasen konden worden doorzien. Enerzijds moest hierbij de vereffe ning in fasen de praktijkopbouw van netwerken van verschillende orde en datum van meting volgen, anderzijds diende de opsporing van een bepaald type van fouten zoveel mogelijk tot één fase beperkt te kunnen blijven. Daarbij diende de gedachtengang toe pasbaar te zijn op de gehele technische geodesie. Uit het voorgaande blijkt dat de ontworpen toetsings- of betrouwbaarheidstheorie duidelijk toegespitst is en moest worden op geodetische problemen. En dit was nu ook juist de reden waarom hier zoveel werk en energie in moest worden gestopt. Het is goed om dit nog eens nadrukkelijk te vermelden, want de toetsingsprocedure is in feite niets anders dan een herinterpretatie van de klassieke theorie van Neyman en Pearson van vóór de Tweede Wereldoorlog, met een soort grenswaardetheorie van Tang uit 1938; de opsporing van fouten is gebaseerd op de „contrasts" van Scheffé uit 1959 en delen van een studie van Patnaik uit 1949. De a-keuze is echter origineel en, zover bekend, nog niet elders aangetroffen. Dat de uitwerking van de methodiek meteen praktisch bruik baar werd, is te danken aan de software-ontwikkeling door mijn medewerkers, waarbij zeker de naam van ir. J. C. P. de Kruif moet worden genoemd. Zo kwam dan in de tweede periode een betrouwbaar heidstheorie tot stand, die grote gevolgen voor de verkenning van netwerken zou krijgen en in de laatste jaren ook internationaal ingang vindt. Aan het einde van deze periode, najaar 1970, werd het begin van een fraaie afronding gevonden. Zoals be kend, is het nadeel van een computer dat de uitvoer vaak zó groot is, dat het overzicht en de wezenlijke bestanddelen ervan verloren gaan. Zo ook hier met al die grenswaarden: per alternatieve hypothese even veel als er coördinaten zijn. (Het aantal alternatieve hypothesen is gelijk aan of groter dan het aantal waar nemingen). Samenvatting bleek tenslotte mogelijk per alternatieve hypothese in de grootheid Aeen kwadratische vorm in de bijbehorende coördinaat grenswaarden, invariant ten opzichte van de wijze waarop de coördinaten zijn gedefinieerd. Proef bere keningen van De Kruif bevestigden het vermoeden, dat deze grootheden kenmerkend zijn voor de be schrijving van de uitwendige betrouwbaarheid van een netwerk. Pas in de derde periode slaagde ir. H. M. de Heus erin de eigenschappen van deze -grootheden te door gronden. Hierdoor werd het mogelijk de verkenning van netwerken, wat betreft de betrouwbaarheid, af te stellen op een \-criterium. Evenals bij vorige delen van de theorie was ook hier de puzzel een rechtlijnige gedachtengang te ontwikkelen, gericht op een doel stellingsomschrijving die zoals meestal eerst door het onderzoek zelf kon worden geformuleerd. En geconstateerd kan worden, dat op deze wijze een verbeterde versie van het sterktegetal van Reiche- neder werd gevonden, een versie die vergaande gene ralisatie toestaat. Het algemene karakter van de theorie blijkt uit het feit dat deformatieverschijnselen van de oppervlakte der aarde op globale, regionale of locale schaal door deze theorie worden bestreken. Het gaat hierbij immers om verandering van parameters in de tijd. Ook weer in de 304 NGT GEODESIA 80

Digitale Tijdschriftenarchief Stichting De Hollandse Cirkel en Geo Informatie Nederland

(NGT) Geodesia | 1980 | | pagina 6