cial Intelligence
2019-4 I Geo-Info
43
!990
7DD0
Figuur 2 boven - Moore's Law: het aantal processors op een chip verdubbelt iedere 18 maanden.
maft
IA GPU
CPU
HOO
<1
u
w
ii
MlftQ
wew
MD
20
H10
yr Fast GPU
4
Strong CPU
'mé* isn
ma uni
■11 ma
Mil In
Figuur 2 onder - De processorsnelheid in TeraFops met een GPU is nu veel hoger dan die met CPU's
(bron: NVIDIA,2018).
de stad was mogelijk 'niet voorheen bos'.
De opvolger van oude vriend 'max l.' is de
objectgerichte classificatie. Van een groepje
pixels of datapunten wordt bepaald dat ze tot
een bepaalde klasse behoren (op basis van de
waarden zelf of van de variatie met naburige
pixels in textuur, patroon of vorm). De hete
rogeniteit van de open plek in het bos maakt
dan dat de kapvlakte te onderscheiden is van
een plein in de stad: een beeld wordt vervol
gens in groepen pixels/punten (segmenten)
verdeeld op basis van waarschijnlijkheden.
Dit is een specialistenklus, omdat begrip van
de wiskundige regels vereist is.
Deze zogenaamde 'segmentatie' wordt
opgevolgd door de classificatie via neurale
netwerken. Daarbij wordt het aan de compu
ter overgelaten op basis van welke criteria bos
en open plek het best van elkaar gescheiden
kunnen worden: een zwarte doos, in theorie
net zo werkend als het menselijk brein. Het
heeft ruim 20 jaar geduurd voordat beelden
van enige omvang bewerkt konden worden,
maar nu is er voldoende rekenkracht.
Moore's law
De wet van Moore (1965) luidt dat CPU-kracht
iedere 12-24 maanden verdubbelt. De groei
van het aantal transistoren per mm2 vertraagt
nu, omdat langzamerhand het atoomniveau
bereikt wordt op de chips. De voor de neurale
netwerken benodigde rekenkracht ontwikkelt
zich echter wel degelijk. Parallelle berekenin
gen worden sneller met de duizenden cores
op een GPU (Grafische processor zoals op
videokaarten) uitgevoerd dan op een paar
supersnelle cores van een CPU: zonder GPU
geen AI (zie figuur 2).
Machine learning en deep learning
'Machine learning' biedt algoritmen betere resul
taten dan met oudere methoden. De afgelopen
jaren hebben ontwikkelingen op het gebied van
'deep learning' een enorme vlucht genomen.
Deep learning is een categorie machine
learning-algoritmes die het klassieke neurale
netwerk uitbouwt tot een uiterst gecompliceerd
netwerk met vele lagen ('deep'). Deze lagen
trekken subconclusies die door onderliggende
lagen gebruikt worden om tot een eindoordeel
te komen over het toebehoren tot een bepaalde
klasse (met bijbehorende waarschijnlijkheid).
Door die gelaagdheid is de gelijkenis met het
menselijk brein veel groter, neuronen triggeren
neuronen die neuronen triggeren en spreken we
van serieuze 'articifial intelligence'. Het resultaat
van de toepassing wordt bepaald door de regel
geving aan het netwerk, de scripts, maar vooral
door de trainingdata. Ook hier geldt 'garbage in,
garbage out'.
Om kunstmatige intelligentie te kunnen toepas
sen is menselijke intelligentie nodig. Tools en
scripts worden geschreven door ontwikkelaars.
Voor de scripts geldt dat het delen ervan als
open source tot een enorme ontwikkeling
leidt met grote competitie: De kwaliteit van de
ontwikkelaar bewijst zich in de werking van
zijn scripts. Voor de gebruiker van het resultaat
van de AI is deze openheid in feite een vereiste.
Transparantie over hoe informatie tot stand komt
is belangrijk in deze tijd van 'fake data' en moet
een voorwaarde zijn die eindgebruikers stellen
aan de te gebruiken scripts.
De wereld bestaat uit objecten
De vraag van de boswachter ligt ver af van
de detectie van het verschil tussen 'bos en