beide wegen gevolgd. De gangbare methode die in de GPS-literatuur beschre
ven staat, komt kort op het volgende neer. Eerst wordt een traditionele
vereffening uitgevoerd met behulp van de dubbele verschilgrootheden. In deze
vereffening worden de meerduidigheden N12jk als reqelwaardige parameters
geschat. Met behulp van een afrondingsmechanisme worden dan de geschatte
reqelwaardige meerduidigheden gezet op de dichtstbij liggende integer
waarden. Tenslotte wordt dan een nieuwe vereffening uitgevoerd, waarbij nu
de meerduidigheden niet meer als onbekende parameters worden aangemerkt,
maar in plaats daarvan als bekend veronderstelde grootheden op de in de
vorige stap bepaalde integer waarden worden vastgehouden.
Wat is er nu mis met deze procedure? Ik maak geen bezwaar tegen het idee
van het afronden naar integer waarden. Hoewel over het in de praktijk
toegepaste afrondingsmechanisme nog wel het een en ander gezegd kan
worden, is het afrondingsidee niet slecht en kan het als een additionele
vereffeningsstap geïnterpreteerd worden. Mijn bezwaar richt zich meer op de
laatste stap in de gevolgde procedure. Het is principieel onjuist om te doen
alsof de uit het waarnemingsmateriaal geschatte parameters in een volgende
stap, waar het identieke waarnemingsmateriaal wordt gebruikt, als constante
en bekend veronderstelde grootheden aangemerkt mogen worden. Dit heeft
namelijk, geheel analoog aan hetgeen is besproken over de "vastgehouden"
grootheden, tot gevolg, dat de formele variantiematrix van de berekende
parameters een te optimistische precisiebeschrijving oplevert. Het in de
praktijk veelvuldig gebruik van de zogenaamde "fudge factorsis hier dan
waarschijnlijk ook niet vreemd aan.
In tekstboeken handelend over GPS wordt deze laatste stap nu juist verde
digd, op grond van df bewering dat de precisie van de overgebleven geome
trische parameters in vergelijking met de eerste stap beter is, omdat er sprake
is van een kleiner aantal te bepalen onbekende parameters. Inderdaad geldt in
het algemeen dat de (formele) precisie van een verzameling geschatte
parameters beter wordt naarmate het aantal parameters in de verzameling
kleiner wordt. In de huidige situatie is dit echter maar schijn. Immers, de
stochastiek van de "vastgehouden" grootheden, zou met een bijbehorende
kansdichtheidsfunctie beschreven dienen te worden.
Het volgende eenvoudige voorbeeld maakt dit misschien wat duidelijker.
Veronderstel dat x een normaal verdeelde scalaire grootheid is met onbeken
de verwachting p en bekende standaardafwijking a, dus x~N(p,o2). De beste
schatting van de onbekende verwachting wordt dan verkregen door de steek-
proefwaarde (dat wil zeggen de gemeten waarde) x van x toe te kennen aan
H-
231