cial Intelligence 2019-4 I Geo-Info 43 !990 7DD0 Figuur 2 boven - Moore's Law: het aantal processors op een chip verdubbelt iedere 18 maanden. maft IA GPU CPU HOO <1 u w ii MlftQ wew MD 20 H10 yr Fast GPU 4 Strong CPU 'mé* isn ma uni ■11 ma Mil In Figuur 2 onder - De processorsnelheid in TeraFops met een GPU is nu veel hoger dan die met CPU's (bron: NVIDIA,2018). de stad was mogelijk 'niet voorheen bos'. De opvolger van oude vriend 'max l.' is de objectgerichte classificatie. Van een groepje pixels of datapunten wordt bepaald dat ze tot een bepaalde klasse behoren (op basis van de waarden zelf of van de variatie met naburige pixels in textuur, patroon of vorm). De hete rogeniteit van de open plek in het bos maakt dan dat de kapvlakte te onderscheiden is van een plein in de stad: een beeld wordt vervol gens in groepen pixels/punten (segmenten) verdeeld op basis van waarschijnlijkheden. Dit is een specialistenklus, omdat begrip van de wiskundige regels vereist is. Deze zogenaamde 'segmentatie' wordt opgevolgd door de classificatie via neurale netwerken. Daarbij wordt het aan de compu ter overgelaten op basis van welke criteria bos en open plek het best van elkaar gescheiden kunnen worden: een zwarte doos, in theorie net zo werkend als het menselijk brein. Het heeft ruim 20 jaar geduurd voordat beelden van enige omvang bewerkt konden worden, maar nu is er voldoende rekenkracht. Moore's law De wet van Moore (1965) luidt dat CPU-kracht iedere 12-24 maanden verdubbelt. De groei van het aantal transistoren per mm2 vertraagt nu, omdat langzamerhand het atoomniveau bereikt wordt op de chips. De voor de neurale netwerken benodigde rekenkracht ontwikkelt zich echter wel degelijk. Parallelle berekenin gen worden sneller met de duizenden cores op een GPU (Grafische processor zoals op videokaarten) uitgevoerd dan op een paar supersnelle cores van een CPU: zonder GPU geen AI (zie figuur 2). Machine learning en deep learning 'Machine learning' biedt algoritmen betere resul taten dan met oudere methoden. De afgelopen jaren hebben ontwikkelingen op het gebied van 'deep learning' een enorme vlucht genomen. Deep learning is een categorie machine learning-algoritmes die het klassieke neurale netwerk uitbouwt tot een uiterst gecompliceerd netwerk met vele lagen ('deep'). Deze lagen trekken subconclusies die door onderliggende lagen gebruikt worden om tot een eindoordeel te komen over het toebehoren tot een bepaalde klasse (met bijbehorende waarschijnlijkheid). Door die gelaagdheid is de gelijkenis met het menselijk brein veel groter, neuronen triggeren neuronen die neuronen triggeren en spreken we van serieuze 'articifial intelligence'. Het resultaat van de toepassing wordt bepaald door de regel geving aan het netwerk, de scripts, maar vooral door de trainingdata. Ook hier geldt 'garbage in, garbage out'. Om kunstmatige intelligentie te kunnen toepas sen is menselijke intelligentie nodig. Tools en scripts worden geschreven door ontwikkelaars. Voor de scripts geldt dat het delen ervan als open source tot een enorme ontwikkeling leidt met grote competitie: De kwaliteit van de ontwikkelaar bewijst zich in de werking van zijn scripts. Voor de gebruiker van het resultaat van de AI is deze openheid in feite een vereiste. Transparantie over hoe informatie tot stand komt is belangrijk in deze tijd van 'fake data' en moet een voorwaarde zijn die eindgebruikers stellen aan de te gebruiken scripts. De wereld bestaat uit objecten De vraag van de boswachter ligt ver af van de detectie van het verschil tussen 'bos en

Digitale Tijdschriftenarchief Stichting De Hollandse Cirkel en Geo Informatie Nederland

Geo-Info | 2019 | | pagina 45