Hoe je als gemeente kan vernieuwen met data en technologie in 5½ tips

Naast haar werk voor Shintō Labs, verdedigt Mignon Wuestman op 26 juni a.s. haar proefschrift over de evolutie van innovaties voor de Universiteit Utrecht. Zij deed vier jaar lang onderzoek naar de ‘stambomen’ van (wetenschappelijke) innovaties, en werkte op het raakvlak van onder andere complexiteitstheorie, economische geografie en sociologie. In deze blog deelt ze een aantal inzichten uit haar promotieonderzoek en gerelateerde onderzoeken, specifiek binnen de context van de lokale overheid.

Innovatie is een belangrijke drijvende kracht achter bedrijven, overheden en andere maatschappelijke spelers. Het helpt namelijk om maatschappelijke en technische problemen op te lossen, productiekosten te verlagen, je te onderscheiden van anderen, of nieuwe markten aan te boren. Daarnaast speelt innovatie natuurlijk een enorme rol in de wetenschap en in de kunst.

Het bedenken van nieuwe ideeën, het selecteren van goede ideeën, en het daadwerkelijk tot uitvoering brengen van die ideeën is echter niet eenvoudig. Dat komt doordat innovatie per definitie onzekerheid met zich meebrengt. De (maatschappelijke) problemen die we willen oplossen zijn over het algemeen namelijk zo complex dat het onmogelijk is om ze volledig te overzien. Daarnaast kunnen we niet in de toekomst kijken om goed te beoordelen wat het effect van een bepaalde innovatie zal zijn. Het gevolg daarvan is dat het vaak niet mogelijk is om volledig rationele beslissingen te maken, zoals vaak door economen wordt verondersteld. Om ondanks deze onzekerheid toch te kunnen innoveren is dus een belangrijke vraag: hoe kunnen overheden het beste omgaan met de onzekerheid van innovatie?

Innovatie is staan op de schouders van reuzen

In het kort zijn innovaties op de markt gebrachte inventies. Het kan daarbij gaan om producten die je vastlegt in patenten en in een winkel verkoopt, maar ook om wetenschappelijke ontdekkingen die opgeschreven en gepubliceerd worden, of bijvoorbeeld nieuw beleid dat ingevoerd wordt.

Figuur 1: stamboom van innovaties

Het ontstaan van innovatie wordt vaak vergeleken met de evolutie van planten en dieren. Net als in de biologie, zijn termen als ‘mutatie’, ‘fitness’, en ‘selectieomgeving’ ook relevant bij innovaties. Net als in de biologie, is het ook bij innovaties zo dat je verschillende generaties kan onderscheiden, en wordt er informatie doorgegeven van generatie op generatie. In de biologie heb je het dan over DNA, in de innovatietheorie gaat het bijvoorbeeld om producteigenschappen. Waar je in de biologie dus met stambomen, of ‘genealogieën’ kan werken om deze ontwikkeling te visualiseren, kan dat met innovaties dus ook (figuur 1). In het kort geldt voor dat soort netwerken:

  • Ieder bolletje stelt een idee (een innovatie) voor. Zo’n idee kan zijn vastgelegd in een patent, een wetenschappelijk artikel, een beleidsstuk of het brein van een slimme uitvinder of het collectieve brein van een team
  • Ieder lijntje staat voor het erven van bepaalde eigenschappen van idee naar idee
  • Ideeën kunnen eigenschappen erven van meerdere bestaande ideeën. Dat noemen we ‘recombinatie’.
  • Door dit proces ontstaan er paden die divergeren en convergeren, en die daarmee iets zeggen over de evolutie van ideeën.

Precies dit soort netwerken vinden we terug onder wetenschappelijke artikelen en patenten (figuur 2), teams van jazzmuzikanten (figuur 3), en in het geval van mijn thesis, wiskundigen (figuur 4). Naast netwerken van patenten, papers, teams of individuen zijn dit dus ook netwerken van innovaties.

Figuur 2: Citatienetwerk van Ethernet-patenten 1977-2002 (Fontana et al., 2009)

Figuur 3: Netwerk van steden verbonden door jazzmuzikanten-mobiliteit (Phillips et al., 2011)

Figuur 4: Mentorschapsgenealogie van Nederlandse wiskundigen (Wuestman et al., 2020)

Er zijn veel voorbeelden te geven van overheidsprocessen die de recombinatorische aard van innovatie illustreren. Kruisbestuivingen tussen verschillende lokale overheden, afdelingen of teams zijn een goed voorbeeld. Individuele werknemers nemen ook ideeën mee uit eerdere projecten of banen.

Nu je weet dat innovaties voortkomen uit het recombineren van eerdere innovaties, is het niet moeilijk om je voor te stellen hoeveel innovaties er mogelijk zijn. In theorie kan ieder ‘bolletje’ gecombineerd worden met ieder ander bolletje. We kunnen er echter niet vanuit gaan dat ieder van die combinaties ook een goed idee oplevert (of, in evolutionaire termen: een hoge ‘fitness’ heeft). Sterker nog, dikke kans dat de overgrote meerderheid geen goed idee is. Als innovator ben je dus op zoek naar een speld in een hooiberg. Hoe voorkom je dat je je blind staart op het hooi, en zo snel mogelijk die speld vindt?

1. Bepaal je doel

Er zijn verschillende types innovaties. Grofweg onderscheiden we er twee: incrementele en radicale innovaties.

Incrementele innovaties zijn kleine veranderingen die ons idee over ‘hoe de wereld in elkaar steekt’ in stand houden. Het zijn verbeteringen aan bestaande eigenschappen die bijvoorbeeld de gebruiksvriendelijkheid vergroten of het productieproces versnellen. Als we incrementele innovaties bekijken vanuit het evolutionaire perspectief dat ik hierboven heb uitgelegd, kun je incrementele innovaties vaak zien als recombinaties van ideeën die op elkaar lijken. Combineer bijvoorbeeld de goede eigenschappen van bolletje #9 met de goede eigenschappen van bolletje #10 met elkaar. In lokale overheden komen natuurlijk veel innovaties voor, waaronder veel incrementele innovaties. Zo kan een gemeente bijvoorbeeld de aanpak van een andere gemeente overnemen, maar deze aanpassen naar de lokale omstandigheden.

Radicale innovaties zijn grote veranderingen die wel onze aannames over de wereld op het spel zetten. Radicale innovaties leiden tot nieuwe paradigma’s. Vanuit evolutionair perspectief kan je zeggen dat radicale innovaties tot belangrijke nieuwe vertakkingen in een netwerk van ideeën leiden. Vaak zijn radicale innovaties tot stand gekomen door recombinaties van heel diverse ideeën: bolletjes die in het netwerk heel ver uit elkaar liggen, zoals bolletjes #10 en #16. Natuurlijk komen ook radicale innovaties voor in de overheid. Dit gebeurt bijvoorbeeld wanneer een overheidsorganisatie methoden uit de start-up wereld gebruikt om toe te passen op overheidsproblematiek.

Incrementele innovaties komen dus vaak tot stand door recombinaties van ideeën die op elkaar lijken, terwijl radicale innovaties recombinaties zijn van ideeën die niet op elkaar lijken. Dit gegeven kan je gebruiken wanneer je wil innoveren. Het kan nuttig zijn om jezelf af te vragen of je uit bent op een kleine verbetering of op een rigoureuze doorbraak. Zoals ik eerder zei, kan je je het netwerk van ideeën namelijk ook voorstellen als een netwerk van mensen. Als je het zo bekijkt, zou je kunnen concluderen dat incrementele innovaties vaak bedacht worden door teams van mensen die op elkaar lijken, zoals experts op het product dat verbeterd moet worden, terwijl radicale innovaties vaak bedacht worden door diverse teams die in staat zijn inzichten uit verschillende werelden te combineren.

Tip 1: radicale innovaties vragen om diversere ‘inputs’ dan incrementele innovaties.

Een consequentie van het combineren van ideeën die ver uit elkaar liggen is niet alleen dat ze een grotere kans hebben om tot een doorbraak te leiden. Ideeën die zo ver uit elkaar liggen zijn namelijk waarschijnlijk veel moeilijker te combineren dan ideeën die op elkaar lijken. Dat kan komen doordat niemand eerder zoiets geprobeerd heeft, of omdat de ideeën zo verschillend zijn dat ze nauwelijks compatibel zijn. Het is daarom aannemelijk dat incrementele innovaties tot een relatief kleine opbrengst leiden, maar ook minder risicovol zijn, terwijl radicale innovaties een enorme opbrengst kunnen leveren, maar ook een grotere kans hebben om op niks uit te draaien. Ook dat is iets om rekening mee te houden wanneer je wil innoveren!

Tip 2: diversiteit aan inputs is ‘high risk, high gain, dus kies waar je voor wil gaan.

Survival of the fittest bij start-ups en spin-offs

Neem bijvoorbeeld het concept van ‘spin-offs’. Spin-offs zijn kleine, nieuwe bedrijven die ontstaan vanuit grotere, gevestigde bedrijven. Vaak is het zo dat een werknemer bij een gevestigd bedrijf vertrekt omdat zij een idee heeft dat niet past binnen het gevestigde bedrijf, en besluit haar eigen bedrijf te beginnen. De kans is groot dat zij daarbij toch een aantal aspecten van het gevestigde bedrijf zal meenemen, zoals de kennis die zij daar heeft opgedaan. Deze kennis ‘erft’ het nieuwe bedrijf dus van het oude bedrijf. Niet alle spin-offs zullen lang blijven bestaan: alleen die spin-offs die het lukt om zich zo te ontwikkelen dat zij goed aansluiten bij de markt en relevante productieketens zal het lukken om succesvol te zijn. In andere woorden: die bedrijven die zich het best weten aan te passen aan hun selectieomgeving. U ziet het al aankomen: survival of the fittest.

2. Fail fast

Om snel tot dat ene goede idee tussen de 99 slechte ideeën te komen is het natuurlijk belangrijk om zo min mogelijk tijd, geld en frustratie te besteden aan ideeën die uiteindelijk niet blijken te werken. Dat is natuurlijk behoorlijk intuïtief, maar er is ook een innovatietheoretische reden om niet te veel te investeren in ideeën die zichzelf nog niet bewezen hebben. Dat heeft te maken met ‘padafhankelijkheid’.

Padafhankelijkheid betekent dat wanneer we eenmaal een bepaalde route zijn ingeslagen in het netwerk van innovaties, het heel lastig is om nog van die route af te wijken. Daar zijn een aantal redenen voor. Ten eerste is het door de recombinatorische aard van innovaties zo dat onze opties op dit moment worden bepaald door onze keuzes uit het verleden. Je kan immers alleen combinaties maken van ideeën die er al zijn. Als je veel investeert in een bepaald pad, vorm je daarmee dus een belangrijk deel van je bibliotheek aan ideeën. Ten tweede raken we vaak ‘locked-in’ in ideeën waar we als maatschappij veel in geïnvesteerd hebben. Ter illustratie: in tegenstelling tot u misschien denkt is ons QWERTY-toetsenbord helemaal niet ontworpen om zo snel mogelijk te kunnen typen. Het QWERTY toetsenbord komt uit de tijd van de typemachines, en is zo ontworpen dat lettercombinaties die vaak voorkomen ver uit elkaar geplaatst zijn, zodat de hamertjes van de typemachine niet in de knoop raken. Het toetsenbord is voor ons dus suboptimaal en helpt ons niet om snel te typen. Het lukt ons echter niet om over te stappen naar een sneller of ergonomischer toetsenbord, want probeer maar eens opnieuw te leren typen. Iets soortgelijks geldt ook voor de overstap van benzine- en dieselauto’s naar elektrische auto’s, waarvoor er nog niet zo’n gedegen infrastructuur bestaat als voor benzineauto’s. Nationale en lokale overheden hebben bij uitstek te maken met dit soort ‘interdependencies’, omdat zij verantwoordelijk zijn voor het beheer van hele systemen en niet, zoals vaak in de bedrijfswereld voorkomt, van individuele producten.

Het gevolg van padafhankelijkheid is dat het belangrijk is om veel te leren over verschillende alternatieve oplossingen voor een probleem, zodat je kan voorkomen dat je je committeert aan een suboptimale oplossing. Lock-ins kan je niet helemaal voorkomen omdat je niet kan weten of een optimale oplossing op dit moment in de toekomst nog steeds de beste oplossing is, maar het helpt zeker om op de hoogte te blijven van nieuwe ontwikkelingen en gekozen oplossingen altijd te blijven valideren. Investeer dus niet te veel in die 99 slechte ideeën. Zet in op leren, en wees bereid om van richting te veranderen als dat nodig is.

Tip 3: voorkom dat je vastzit in een suboptimale oplossing door veel te experimenteren

Tip 4: begin vroeg met valideren, en blijf valideren.

3. Denk modulair

Maatschappelijke en technische problemen zijn vaak niet alleen complex in de zin van ‘ingewikkeld’, maar ook in de zin van ‘complexe systemen’. Complexe systemen zijn systemen die bestaan uit heel veel kleine, relatief eenvoudige, onderdeeltjes. Door de interactie tussen die onderdeeltjes ontstaan patronen die bijna niet te verklaren zijn. Denk bijvoorbeeld aan het dansen van een zwerm spreeuwen, auto’s die files vormen, onze hersenen en de zenuwcellen daarbinnen, of het ecosysteem in een bos. Het ingewikkelde daaraan is dat je bij een complex systeem nooit helemaal kan overzien wat de gevolgen van een interventie zijn. Als je te veel zwijnen in een bos uit zou zetten, zou er door de interactie van die zwijnen met andere onderdelen van het systeem zomaar een onvoorziene insectenplaag kunnen ontstaan. Bij innovatie in onze maatschappij werkt het net zo: wanneer je één onderdeel van de maatschappij verandert, zou dat kunnen betekenen dat een heel ander onderdeel niet meer werkt of anders werkt.

Stambomen van gereedschappen

Over de hele wereld worden de meeste antropologische musea ingericht per bevolkingsgroep of werelddeel. Het Pitt Rivers Museum in Oxford, waar ik vaak kwam toen ik voor mijn promotieonderzoek een paar maanden te gast was aan de universiteit, besloot het anders aan te pakken. Meneer Rivers hield bij zijn (enigszins omstreden) collectie gebruiksvoorwerpen geen geografische indeling maar een evolutionaire indeling aan. Hij verzamelde bijvoorbeeld alle knuppels die hij had, en vormde hiermee een soort stamboom. In het plaatje hieronder is prachtig te zien hoe het ontwerp van de knuppel varieerde van plek tot plek, en door de tijd heen steeds verder divergeerde. Dat is op zich niet gek, want knuppels zijn een cultureel product dat door mensen wordt gemaakt en wordt aangepast aan hun lokale omgeving. Dat is toch fascinerend?

Figuur 5: Evolutionaire indeling knuppels (Pitt Rivers Museum Oxford)

In de wereld van de criminaliteitsbestrijding is er bijvoorbeeld sprake van het ‘waterbedeffect’: wanneer er druk wordt uitgeoefend op een vorm van criminaliteit op een bepaalde plek, zoals witwassen in een specifieke gemeente, kan dat als gewenst gevolg hebben dat die vorm van criminaliteit afneemt. Een onvoorzien bij-effect kan echter zijn dat er een toename ontstaat van criminaliteit op een andere plek, of van andere soorten criminaliteit, omdat de criminele activiteit zich verplaatst.

Soms kan dit soort complexiteit verholpen worden door het probleem op te delen in verschillende geïsoleerde modules. In dat geval spelen de complexe afhankelijkheden alleen binnen een module, en niet tussen modules onderling. Dan kunnen modules afzonderlijk geoptimaliseerd worden, en dat is veel makkelijker dan het optimaliseren van het hele systeem. In onze complexe samenleving is dat helaas makkelijker gezegd dan gedaan. In zo’n geval geldt: wees je bewust van de complexiteit van het probleem dat je probeert op te lossen. Staar je niet blind op een specifiek voorval, maar bestudeer de context waarin dit voorval plaatsvindt en verken welke mogelijke bij-effecten kunnen optreden bij een interventie.

Tip 5: denk en experimenteer op onderdelen, en niet op het geheel.

Tip 5: als Tip 5 niet lukt, wees je dan tenminste bewust van complexiteit.

Vodcast

Zie ook de vodcast van Mignon over dit onderwerp:

Relevante links

Credits

Photo by Diz Play on Unsplash

 

Masterclass – Innovatietheorie voor de datagedreven overheid

Deze maand zijn we gestart met een serie video’s waarin we onze kennis delen onder de noemer: Shintō Labs Masterclass. In iedere editie komt een expert aan het woord om over een specifiek onderwerp zijn of haar kennis te delen. We gaan in op verschillende vraagstukken rondom datagedreven werken en data analytics in de overheid. Onderwerpen kunnen variëren van innovatie methodiek, privacy, ethiek maar ook meer technische onderwerpen als netwerkanalyses en graph databases.

Innovatietheorie voor de datagedreven overheid

In deze editie vertelt data scientist Mignon Wuestman over haar onderzoek naar innovatietheorie en de toepassing daarvan voor de datagedreven overheid. Naast theoretische kennis wordt onze Design Sprint aanpak benoemd als voorbeeld en de Woningbouw Monitor ter illustratie van een modulair systeem.

Vragen en feedback

Heb je een vraag of opmerkingen over de vodcast van Mignon? Laat het ons dan weten via onderstaand formulier!


Abonneren

Wil je automatisch op de hoogte blijven van nieuwe edities van de Shintō Labs Masterclass? Abonneer je dan op ons Youtube kanaal of stuur ons bericht via bovenstaand formulier en vink de ‘blog’ optie aan!

De slides

Innovatietheorie_MLW_v2

 

Relevante links

Andere masterclasses

Blogs

 

Masterclass – Text Analytics en Machine Learning in de overheid

Deze maand starten we met een serie video’s waarin we onze kennis delen onder de noemer: Shintō Labs Masterclass. In iedere editie komt een expert aan het woord om over een specifiek onderwerp zijn of haar kennis te delen. We gaan in op verschillende vraagstukken rondom datagedreven werken en data analytics in de overheid. Onderwerpen kunnen variëren van innovatie methodiek, privacy, ethiek maar ook meer technische onderwerpen als netwerkanalyses en graph databases.

Text Analytics en Machine Learning in de overheid

In deze editie vertelt data scientist Martijn Heijstek over een toepassing van Text Analytics en Machine Learning in de overheid. Hij behandelt de case waarin content automatisch wordt geclassificeerd in het verlengde van een zaaksysteem: in dit geval Djuma van Visma|Circle.

Vragen en feedback

Heb je een vraag of opmerkingen over de vodcast van Martijn? Laat het ons dan weten via onderstaand formulier!


Abonneren

Wil je automatisch op de hoogte blijven van nieuwe edities van de Shintō Labs Masterclass? Abonneer je dan op ons Youtube kanaal of stuur ons bericht via bovenstaand formulier en vink de ‘blog’ optie aan!

Relevante links

Andere masterclasses

Blogs

 

 

Society 4.0: Beschavingen prototypen en veiligheidsvraagstukken oplossen in de nieuwe maatschappij

Congresverslag – ResilIT  / SNiC

Eind november werd het Stichting Nationaal Informatica Congres, oftewel het SNiC, georganiseerd in de Flint in Amersfoort. Het SNiC is een jaarlijks congres waarin huidige ontwikkelingen in de informatica rondom een thema worden besproken door middel van lezingen, workshops en discussie-panels. Alle studieverenigingen zijn welkom, en met de geregelde bussen worden ze vanuit alle uithoeken naar het congres gereden. Zo ook de studievereniging GEWIS van TU/e, waar ik zelf lid van ben geweest tijdens mijn studententijd en ooit nog een bestuursjaar heb gedaan. Dit jaar werd de organisatie door Inter-Actief, de studievereniging uit Enschede op zich genomen, met als thema “ResilIT”. Dit thema omvat alles rondom de impact van IT en hoe IT kan helpen met de weerbaarheid (Reselient) van de maatschappij. De lezingen waren dan ook opgedeeld in spannende categorieën, zoals “Cyber Threats” en “Disaster Management. Centraal stond het begrip Society 4.0.

Society 4.0

Centraal in alle lezingen stond het begrip Society 4.0. Laten we de discussie van “4.0” direct even beslechten (herinnert u zich “Web 2.0” nog? Laat staan dat we “Society 3.0” ergens gemist hebben? Of zitten we nu in “3.9”) en even aannemen dat dit het containerbegrip is waarin ‘the next forseeable future‘ wordt bedoeld. Punt. In ieder geval, de redenering is: de afgelopen jaren is er enorme vooruitgang geboekt, ook in het technologische gebied. Deze nieuwe technieken veranderen de maatschappij naar iets wat door onderzoekers dus Society 4.0 is genoemd. Dat u het even weet.

Deze nieuwe society kan worden voorgesteld als futuristische steden zonder milieuvervuiling, auto’s op elektriciteit rondzweven en waar misdaad volledig van de kaart is. Maar door de toename van het aantal mensen en de toenemende complexiteit wordt de samenleving en onze positie daarin steeds fragieler, zo wordt gesteld. Hoe kan IT deze negatieve impacts op de maatschappij helpen?

Society 4.0 in de ruimte

Na een imposant introductiemuziekje en de warme welkomstwoorden van de voorzitter van de organisatie, kwam niemand minder dan André Kuipers het podium op. Zijn lezing begon uiteraard met indrukwekkende plaatjes gemaakt vanuit het International Space Station, en een vertelling over wat hij daar allemaal had meegemaakt. Maar al snel ging hij door naar wat voor onderzoek er in de ruimte kan worden gedaan dat kan helpen met het verkrijgen van een goede Society 4.0.

Uiteraard kunnen vanuit de ruimte veel dingen worden gemeten. Met het satellietsysteem Galileo bijvoorbeeld worden veel meer dingen gemeten en gedaan dan standaard GPS-signalen verzenden voor communicatie en weersvoorspellingen creëren. Er kunnen metingen worden gedaan voor agricultuur, zodat men weet wat te doen voor een goede oogst van gewassen, maar ook voor wijnboeren zodat we allemaal lekkere wijn kunnen drinken! De satellieten verzamelen data over ozon, de plastic soep en milieuvervuiling zoals smog en broeikasgassen zodat we kunnen meten wat de effecten van getroffen maatregelen zijn. Dit valt ook weer te betrekken op de stikstofcrisis die nu speelt. Vooral indrukwekkend was de data die werd gebruikt rondom het voorspellen van natuurrampen; aardbevingen, overstromingen, etc. De dijken in Nederland bijvoorbeeld staan continu onder observatie zodat verzwakkingen meteen kunnen worden aangepakt.
Daarnaast kunnen er in de ruimte ook dingen ontwikkeld worden die op aarde veel lastiger te onderzoeken vallen. Dit komt omdat het er geen zwaartekracht is en de ruimte een vacuüm is, waardoor onderzoek naar nierstenen, bacteriën en andere micro-organismes daar veel beter kunnen worden onderzocht. Ook kunnen testen voor software zonder veel vertraging worden uitgevoerd voor de auto-industrie, robotica en natuurlijk software voor satellieten zelf. Meneer Kuipers sloot af met informatie over de opleiding voor astronaut, gepaard met grappige verhalen en foto’s, waarna hij het podium snel verliet om naar zijn volgende praatje toe te kunnen.

Society 4.0 in de samenleving

De tweede openingslezing, gegeven door Michael Haupt, was wat filosofischer. Meneer Haupt is een Strategic Foresight Practitioner die veel lezingen geeft over Society 4.0. Online heeft hij een reeks aan blogs genaamd “Postcards from 2035”. Deze blog is geschreven vanuit het oogpunt van zijn dochter, die in 2035 21 jaar zal zijn. In haar kaarten beschrijft ze de wereld zoals die in 2035 is. Deze voorspellingen/redeneringen zijn de expertise van meneer Haupt, maar voor de leek is het zeer abstract. De titel van zijn lezing is “Why it’s up to to computer scientists to save the world”. Hoe dit dan gedaan kon worden bleef een beetje uit tot het einde. Volgens meneer Haupt werkt de huidige maatschappij volgens de regels van “Game A”. Game A werd beschreven als een “Catch-22”; een systeem dat zichzelf in stand houdt. Maatregelen zijn vooral gericht op symptoombestrijding, maar zouden eigenlijk het systeem zelf moeten aanpakken. Daarom moeten we werken naar een “Game B”, waarin een we niet focussen op individualistische aspecten van de maatschappij maar op het grotere, coherente geheel. Met een dergelijk Game B zouden computer scientists data kunnen verzamelen die correct is, en niet foutieve data die Game A in stand houdt. Om deze Game B te testen is meneer Haupt bezig met het oprichten van Special Equitable Exchange Zones (SEEZs), waarin nieuwe vormen van beschaving kunnen worden geprototyped.

Society 4.0 in de beveiliging

De parallelsessies waren onderverdeeld in verschillende categorieën, zoals Cyber threats, Disaster Management en Society 4.0. De eerste lezing in Cyber Threat had de onheilspellende titel “Call for help” , en werd gegeven door AIVD Security Operations-medewerker Guido (zijn achternaam werd niet gegeven vanwege privacy-redenen). Guido vertelde over zijn werk bij de AIVD en wat de nieuwe ontwikkelingen in de IT inhielden voor zijn werk. Veel technologie rondom internet deze dag is gebaseerd om mensen en objecten met elkaar te verbinden. Deze “centralisatie van het internet” kan handig zijn. Het is heel makkelijk om overal je thermostaat te kunnen beheersen, of via een horloge overal connected te zijn. Maar op het moment dat energiecentrales ook aan het internet wordt verbonden omdat er in de Society 4.0 geen alternatieven zijn om een centrale optimaal te laten werken, wordt het vanuit een veiligheidsperspectief risicovoller. Daarbij speelt ook de nodige politiek; een aanval kan dan wel volledig technisch van aard zijn, maar verdedigen tegen zo’n aanval is vaak veel meer politiek geladen. Privacy-issues en internationale conflicten zijn niet ongewoon in deze situaties. Guido gaf daarom een lijst met dingen die wij als computer scientists kunnen doen om ervoor te zorgen dat we ons kunnen weren van gevaar in Society 4.0.

  1. Security By Design: Als er een beveiliging zit ingebakken in het systeem waar een gebruiker of een aanvaller niet om heen kan omdat de applicatie of software nu eenmaal zo gedesigned is, wordt het al moeilijker om “per ongeluk”  een datalek of een aanval te laten plaatsvinden.
  2. Weet wat je in huis hebt. In een verbonden tijdperk moet je weten wat je hebt in je netwerk. Welke personen, apparaten, servers en externe software hebben toegang tot je netwerk of je applicatie. Op het moment dat je dit goed in kaart brengt, vallen verdachte zaken eerder op.
  3. Ga uit van een inbreuk. Op deze manier kun je plannen wat er moet gebeuren wanneer er een aanval of een datalek plaatsvindt. Bedenk protocollen, weet waar welke data is en breng in kaart wat er is gelekt of wat er is aangevallen.
  4. Zorg voor inhouse security skills. Op het moment dat je een eerste laag security zelf al kan uitvoeren, ben je minder afhankelijk van externe partijen. Hoe meer afhankelijkheden, hoe gevoeliger je bent voor een inbreuk.
  5. Werk samen. Op het moment dat we samen werken, kunnen we met elkaars informatie ons beter weren. Binnen een bedrijf moet je ervoor zorgen dat iedereen iets afweet van waar wat ongeveer staat en wie moet worden ingeschakeld. Kennisoverdracht is hier key.
  6. Pas altijd op. Wees niet te naïef, vooral als je gevoelige data verwerkt. Weet waar je afhankelijkheden liggen.

Society 4.0 in de hackers-society

Het 5e punt, samenwerken, is een van de belangrijkste speerpunten van een goede Society 4.0. En dit werd ook maar al te duidelijk in de volgende lezing; “Fighting DDoS-attacks together on a national scale”. De lezing werd gegeven door Jair Santanna, een zeer energieke professor van de Universiteit Twente en een adviseur voor de High Tech Crime Police Unit, met als expertise digital forensics. De lezing begon met een snelle samenvatting van wat een DDoS-aanval nu precies is, maar, zo werd al snel gezegd; iets doen is leuker dan iets horen. Dus had meneer Santanna een applicatie ontwikkeld, een klein routertje meegenomen en wat simpele code geschreven, waardoor we vanuit de zaal vanaf een laptop of telefoon eenvoudig mee konden doen aan een DDoS-aanval. Naast mij zat een eerstejaars bachelor-student wiskunde, die na deze doe-het-zelf-demo zei: “Wow, nu snap ik eindelijk hoe mensen gehackt kunnen worden”.

Een DDoS-aanval doen op een router die nergens aan verbonden is, dat is natuurlijk aardig en demonstratief. Maar in vrijwel alle gevallen DDoS-aanvallen uiteraard niet wenselijk. Men moet zich dus kunnen beschermen. Helaas zitten er in de huidige maatschappij flink wat politieke spellen verworven omtrent DDoS-aanvallen. Data rondom een DDoS-aanval kan niet zomaar prijsgegeven worden, niet van de dader noch van het slachtoffer. Daarom heeft meneer Santanna iets slims bedacht. Hij heeft een converter geschreven die een DDoS-aanval omzet naar een simpele “fingerprint”, zonder dat daar data van de aanvaller of het slachtoffer nodig is. Deze fingerprints vergelijkt hij met visnetten; op het moment dat er een fingerprint voor jouw DDoS-aanval in het visnet zit, komt hij er niet door en wordt hij dus uitgefilterd. Door van partners die hij vertrouwd en fingerprints te verzamelen en van mensen die graag aan het project mee willen doen, wordt het visnet zo geavanceerd dat er geen DDoS meer doorheen kan. Het is een open project die werkelijke data gebruikt. Het plan is optimistisch, maar past perfect in het plaatje van Society 4.0 waarin er veel wordt samengewerkt. Vragen waren er wel. Als alle data openbaar is, kunnen hackers dat dan niet juist gebruiken om een maas in het visnet te vinden? Santanna maakte zich niet druk. Om door zo’n visnet heen te komen, zou een hacker om alle fingerprints heen moeten werken om die ene maas in het net te vinden. Wat de hacker uren zal kosten. En vervolgens kan de hacker de aanval één keer loslaten. Daarna heb ik de fingerprint en kan de hacker opnieuw beginnen. Zeer interessant, hopelijk komt dit initiatief ooit goed van de grond.

Society 4.0 in China

De laatste lezing had de titel “The new Nexus of security, geopolitcs and digitalization“. Het is al een tijdje in het nieuws dat China een grote nieuwe speler is in de wereld van IT. In deze lezing werd verteld in wat voor technologieën China allemaal aan het groeien was, vooral Artificial Intelligence was een term die vaak viel. Dit verhaal werd gemengd met een dosis geopolitiek, een expert op het gebied van politiek rondom China vertelde wat de gevolgen konden zijn en wat een koppositie van een land als China in een Society 4.0. Een harde conclusie was er natuurlijk niet, het verhaal was vooral hypothetisch opgesteld en de woorden “if” en “when” vielen dan ook geregeld. Het was zeker niet slecht met China bovenaan, maar echt goed kon je het nu ook weer niet noemen volgens de presentators. Desalniettemin was het een prima lezing om te volgen, en werden er wat wijsheden gegeven om mee te nemen:

  1. Neem in beslissingen altijd de politieke situaties mee in andere landen
  2. Zorg dat je niet afhankelijk bent van de rest van de rest van de wereld
  3. Zorg ervoor dat je dingen zelf bezit, om afhankelijkheid te verkleinen. Kennis, resources, the works.

Society 4.0 everywhere

De laatste lezing werd gegeven door Jan Hendrik Croockewit, de oprichter van de healthcare afdeling van Nedap. Een inspirerend praatje, waarin werd verteld hoe ze bij Nedap al zorgen dat ze zo goed mogelijk mee kunnen met een Society 4.0. Maar de voornaamste boodschap van zijn verhaal was dat als we pragmatisch moesten denken hoe te functioneren in wat voor maatschappij dan ook, dat alles duidelijk moest zijn. Mensen moesten design meteen kunnen snappen. De power of simplicity werd zwaar onderschat, naar zijn mening. Dit werd duidelijk gemaakt met een onverwachte analogie van een broek van de Zeeman versus een dure broek met een merk.

Al met al was het een interessant congres met een filosofisch maar ook een boeiend onderwerp, ook zeker voor Shintō Labs. Wellicht kunnen wij met deze wijsheden onze diensten ook verlenen om bij te dragen aan een positieve Society 4.0

Mocht je zelf actief mee willen denken of gewoon op de hoogte willen blijven, neem dan contact met ons op of schrijf je in voor de nieuwsbrief.

Relevante links

Webinars

Casebeschrijving

Blog

Research

 

Van radar tot sonar: signaleren van ondermijnende criminaliteit met data science

De afgelopen weken is er bijna in elke krant of tv-programma aandacht aan besteed: ondermijning of ondermijnende criminaliteit. De schokkende moord op advocaat Derk Wiersum heeft de discussie extra brandstof gegeven. Wij waren die dag op het Congres Ondermijning en Georganiseerde Criminaliteit in Tilburg en ook daar was het het nieuws het gesprek van de dag. Centrale vraag: wat kunnen we doen om een vuist te maken tegen ondermijnende criminaliteit?

Extra geld is mooi, maar wat gaan we ermee doen? Verschillende strategieën passeerden de revue. Burgemeester Theo Weterings van de gemeente Tilburg had het over het stimuleren van preventie door als overheid aanwezig te zijn in de ‘haarvaten’ van de wijk. Uit de zaal kwam ook de oproep tot het uitbreiden van capaciteit, en ja zelfs het (opnieuw) organiseren van een specialistische eenheid, zoals die er in het verleden is geweest. Zou minister Grapperhaus meegeluisterd hebben?

Figuur: Congres Ondermijning & Georganiseerde Criminaliteit

Prof. Pieter Tops riep op tot het bestuderen van de optie om sommige vormen van drugsproductie- en handel te legaliseren. Hij waarschuwde dat legaliseren niet per definitie een oplossing is (mogelijk zelfs contra-productief) en benadrukte dat hij opriep tot discussie en studie, niet direct tot actie.

Wat opviel was dat geen van de geleerden, bestuurders of experts in de ochtend sprak over innovatie of het gebruik van nieuwe technologie. Terwijl als je het ze persoonlijk zou vragen, ze waarschijnlijk zouden zeggen dat dat zeker een belangrijk speerpunt zou moeten zijn. Gelukkig was er bij het publiek wel degelijk behoefte aan het gebruiken van technologie om de informatiepositie te verbeteren en ook in de middag werd door diverse sprekers aandacht aan dit onderwerp besteed.

Risico Radar Ondermijning

Shintō Labs heeft in samenwerking met Bureau Beke en het RIEC Rotterdam een Risico Radar Ondermijning ontwikkeld. Deze Risico Radar Ondermijning heeft als doel om in een regio of gebied opvallende activiteiten, die mogelijk te maken hebben met ondermijning, inzichtelijk te maken. In de middag lieten we tijdens een sessie zien hoe deze Radar tot stand is gekomen en hoe het werkt. Een uitgebreid webinar van onze Risico Radar Ondermijning is overigens hier te vinden.

Wij krijgen vaak de vraag wat het verschil is tussen een ‘radar’ en ‘sonar’ in context van ondermijnende criminaliteit en het detecteren van risicovolle gebieden. In deze blog wil ik dit verschil toelichten aan de hand van de kenmerken, het doel,  de toepassing en enkele voorbeelden. Ook zullen we daarbij aangeven hoe de verschillende vormen gebruikt worden en hoe de Radar en de Sonar complementair kunnen zijn.

Radar en Sonar

De Radar en Sonar zijn twee verschillende begrippen die in oorspronkelijke betekenis gebruik maken van een ‘echo’ om objecten of locaties te detecteren. Onze interpretatie van de Radar en de Sonar in context van ondermijnende criminaliteit is als volgt:

  • Een Radar detecteert opvallende signalen en fenomenen in een gebied (breedte), zonder diepgaand detailonderzoek te doen. Het heeft een signaleringsfunctie en zou aanleiding kunnen zijn voor een diepteonderzoek met hulp van een Sonar.
  • Een Sonar detecteert juist specifieke locaties, objecten en individuen (diepte). Dit gaat typisch gepaard met gesloten bronnen om een zo volledig mogelijk beeld te krijgen. Een Sonar onderzoek kan aanleiding geven tot actie of interventie.

Het een en ander is in de onderstaande afbeelding uitgewerkt.

Verschil tussen Radar en Sonar

Figuur: Verschil tussen Radar en Sonar

De Radar nader toegelicht

De Radar is ontwikkeld met als doel om fenomenen inzichtelijk te maken en signalen af te geven in een regio, wijk of buurt. Het richt zich vooral op de breedte van het spectrum en kan volledig ontwikkeld worden met hulp van open bronnen en open data. Privacy aspecten spelen geen rol aangezien alles geaggregeerd wordt en de radar zonder gebruik te maken van persoonsgegevens tot stand komt.

Kenmerken

  • De Radar richt zich op het inzichtelijk maken van ondermijningsfenomenen, zoals criminogene branches, verdachte hoeveelheden van bepaalde type organisaties en opvallende gebieden.
  • De Radar maakt gebruik van open bronnen en open data (OSINT = Open Source Intelligence).
  • De Radar is per definitie binnen de grenzen van de AVG. Immers, er worden geen tot personen herleidbare gegevens gebruikt of getoond.

Doel

  • Het primaire doel van de Radar is het creëeren van awareness – bewustzijn –  en het geven van inzicht wat er speelt op gebied van ondermijning in uw regio.
  • De Radar geeft bovendien aanleiding om bepaalde gebieden nader te onderzoeken of meer toezicht te houden.
  • De Radar is een strategisch middel en helpt bij beleidsvorming om regiogerichte aanpak te organiseren.

Typische bronnen

De radar maakt gebruik van open bronnen en open data. Enkele gebruikte bronnen zijn:

  • CBS data
  • Kamer van Koophandel data
  • BAG data
  • Insolventie register

Voorbeelden

  • Oververtegenwoordiging van criminogene branches;
  • Extreme toename van een bepaalde branche (verhoudingsgewijs, ook in vergelijking met andere regio’s);
  • Het waterbed effect: interventies in een bepaald gebied zullen effect hebben in de regio (zowel geografisch, alsmede alternatieve branches – het is een bekend fenomeen dat georganiseerde criminaliteit van branche verschuift zodra daar de aandacht op gevestigd is.

Indicatoren

De indicatoren waar de Risico Radar Ondermijning op steunt zijn ontwikkeld met hulp van wetenschappelijk onderzoek door Bureau Beke en het RIEC Rotterdam. Bureau Beke heeft op basis van een literatuurstudie en expert-interviews  een lijst van 53 indicatoren ontwikkeld die gericht toegepast zijn om de opvallende locaties te kunnen detecteren.

Voorbeeld van een Radar: de Risico Radar Ondermijning

Het bovenstaande voorbeeld volgt uit onze Risico Radar Ondermijning en illustreert hoe een oververtegenwoordiging van een risicovolle branche gevisualiseerd wordt in gebieden van van 100×100 meter. Met hulp van de indicatoren kunnen we een heatmap weergeven waarin het zwaartepunt getoond wordt. Dit hoeft niet te betekenen dat het daar niet goed gaat, maar zou aanleiding kunnen zijn om daar nader onderzoek te doen.

De Sonar nader toegelicht

Waar de Radar vooral gericht is op een regionaal beeld en signaleringsfunctie is de Sonar het logische vervolg: de diepgang om te ontdekken of er werkelijk iets speelt en waar precies de verdachte activiteiten plaatsvinden. De Sonar wordt vooralsnog ontwikkeld met hulp van gesloten bronnen (verrijkt met open bronnen) om bij een object (locatie, pand of bedrijf) of subject (verdachte persoon) alle relevante gegevens inzichtelijk te krijgen om gerichte acties of interventies te plannen. Het is dan ook meer een tactische en operationele tool en uiteraard speelt de AVG hier een zeer prominente rol. Privacy by Design is dan ook een van de fundamenten van de Sonar.

Kenmerken van een Sonar

De Sonar is ontwikkeld om meer specifieke antwoorden te geven: dit speelt er op het subject (persoon) of object (bedrijf of  pand).

  • De focus van de Sonar is het geven van een diep en zo volledig mogelijk inzicht bij een locatie of persoon.
  • De gebruikte data is een combinatie van open data en gesloten data
  • De Sonar moet daarmee uitgebreid getoetst worden aan de AVG – een beoordeling van een Privacy Impact Assessment (PIA) is een standaard onderdeel van dit proces.

Doel van een Sonar

  • De Sonar is gemaakt voor gerichte analyses;
  • De Sonar is een meer tactisch en operationele oplossing om te helpen prioriteiten te stellen in waar de medewerkers hun handhavingsinspanning op moeten richten;
  • De Sonar helpt concrete interventies voor te bereiden door relevante bronnen te combineren en signalen en indicatoren te stapelen.

Voorbeelden van een Sonar

Indicatoren

De indicatoren die gebruikt worden bij de verschillende Sonars zijn sterk afhankelijk van de lenzen die ingezet worden. Zo gebruiken wij onder andere de indicatoren van de Landelijke Aanpak Adreskwaliteit of wetenschappelijke bronnen die we konden vinden. Deze worden altijd aangevuld met ‘straatkennis’ van domeinexperts die de Sonar’s mee-ontwerpen tijdens een Design Sprint.

Voorbeeld van een Sonar: opsporen woon en adresfraude

Figuur: Voorbeeld van een Sonar – opsporen woon en adresfraude

Synergie tussen Radar en Sonar

Wij zijn overtuigd van de synergetische waarde bij het combineren van Radar en Sonar. De Radar toont de opvallende gebieden en bijvoorbeeld een oververtegenwoordiging van een bepaalde risico branche. De (geautoriseerde!) gebruikers van de Sonar kunnen vervolgens in dat gebied meer diepteonderzoek doen naar bedrijven binnen die branche en specifieke locaties nader bekijken. De terugkoppeling van die onderzoeken kunnen weer gebruikt worden om de Sonar en de Radar te voeden en met betere resultaten te komen. Dit samenspel van Radar naar Sonar en weer terug naar Radar zijn wij op dit moment aan het ontwikkelen. Zodra wij de eerste resultaten hebben, zullen wij dat met jullie delen. Mocht je zelf actief mee willen denken of gewoon op de hoogte willen blijven, neem dan contact met ons op of schrijf je in voor de nieuwsbrief.

Relevante links

Whitepapers

Nieuws

Blogs

Webinars

Praktijkcases

Productinformatie

Research

Onderzoek: hoe geodemografie kan helpen om data ‘eerlijker’ weer te geven

De afgelopen elf maanden ben ik ondergedompeld in de wereld van data. Via de ’track’ Data Science als onderdeel van Information Studies aan de UvA kwam ik in contact met allerlei toffe algoritmes en maakte ik kennis met de problematiek achter de technische hoogstandjes. Een van deze problemen was gericht op ondermijning in Amsterdam en bij het zoeken naar vergelijkbare projecten kom je dan al snel uit bij Shintō Labs.

Met zwetende handjes heb ik een voorzichtig mailtje gestuurd naar het ‘Shinteam’ of ik ‘heel misschien’ en ‘alleen als het uitkomt’  langs mocht komen om de mogelijkheid tot een afstudeerstage te bespreken. Wat ik niet verwachtte is dat de daaropvolgende uitnodiging zo relaxed en soepel verliep dat ik direct verkocht was.  Daar wil ik graag mijn thesis schrijven! Inmiddels zijn we vijf maanden verder en is het papiertje op zak en ik kan wel stellen dat ik geen spijt heb van deze keuze. Natuurlijk was het hard buffelen, maar het waren ook enorm leerzame maanden waarbij ik vanaf dag één door het team ben opgenomen. Ook nam ik deel aan de Design Sprint met het RIEC Rotterdam en Bureau Beke op het thema Risico Radar Ondermijning, waarbij we op basis van open bronnen de mogelijke hotspots inzichtelijk maken. In deze sprint kon ik mijn onderzoek mooi toepassen.

In deze blog beschrijf ik mijn onderzoeksopzet en de eerste resultaten. In de onderstaande video kun je ook de presentatie zelf zien.


 

De casus

De core business van Shintō Labs bestaat uit het maken van datagedreven applicaties voor overheidsinstellingen. Vaak bevat een applicatie een dashboard met een kaart waarop dan data is geplot. In verband met privacy wordt die data vaak gepresenteerd per postcode, buurt of wijk (en dus niet per huis of gebouw).

De keuze voor het type gebiedsindeling kan echter een vertekenend beeld geven van de werkelijkheid. In figuur 1 zie je bijvoorbeeld drie representaties van exact dezelfde data, maar met verschillende gebiedsindelingen. Dit probleem staat in de boeken bekend als MAUP – The Modifiable Area Unit Problem. Dit fenomeen doet zich ook voor wanneer we data presenteren per postcode, buurt of wijk: hoe meer variatie er in zo een gebied plaats vindt, hoe meer informatie wordt weggegooid wanneer de data wordt geaggregeerd.

Figuur 1 Voorbeeld van ‘The Modifiable Area Unit Problem’

Een manier om dit probleem aan te pakken is door gebiedsindelingen datagestuurd te maken. Als we de bestaande wijken/buurten loslaten en kijken naar de achterliggende data, dan kunnen we gebieden creëren die de mensen in het gebied zo veel mogelijk vertegenwoordigen.  Dit doen we door middel van geodemografie;  ‘The study of people by where they live’ (Harris, 2005).

Geodemografie

Zoals de naam al prijs geeft is dit vakgebied een combinatie van geografie en demografie, waarmee de data ook direct complex wordt. In geodemografie word er gezocht naar betekenisvolle bundels om de mensen in een gebied te kunnen beschrijven. Deze bundels worden in de literatuur ook wel micro-communes of urban neighbourhoods genoemd. Door middel van algoritmen worden mensen ingedeeld in clusters, die vervolgens worden geplot op een kaart. In principe volgt iedere geodemografische clustering ruwweg hetzelfde proces van datapreparatie, algoritmeselectie en parameterselectie, maar het probleem ontstaat bij de evaluatie. Want wat zijn betekenisvolle clusters? Dat is een bijna filosofische vraag, die niet zomaar beantwoord kan worden. Voor de fijnproevers raad ik het paper van ‘What are true clusters’ aan van Christian Hennig.

Figuur 2. Voorbeeld van een geodemografische clustering van Eindhoven. Bron: CBS

Geodemografische cluster-evaluatie

In tegenstelling tot standaard ‘gesuperviseerde methoden’ is het valideren van een geodemografische clustering een schemerig gebied tussen kunst en wetenschap, het kwantitatieve en het kwalitatieve, objectiviteit en subjectiviteit (Harris, 2005). Zoals mijn docent het noemt, is cluster-evaluatie in feite een vorm van zwarte magie. 

Binnen de geodemografie is er wel een idee van enkele eigenschappen die een clustering betekenisvol maken, waarvan de belangrijkste eigenschap is, dat de clustering aansluit bij het doel en de context van het clusterprobleem. Om dat doel meetbaar te maken gebruiken we interne en/of externe criteria die helpen bij het maken van de keuze van het algoritme en de parameter instellingen.

De externe criteria bestaan soms uit vergelijkingen met referentieclassificaties of een zogenoemde ground truth. Veel vaker worden subjectieve criteria opgelegd met behulp van experts of de eindgebruikers. De interne evaluatie van een clustering bestaat uit het meten van een bepaalde regel die de data beschrijft zoals ‘hoe compact zijn de clusters?’ of ‘wat is de ratio tussen de gemiddelde inter en intra clusterafstand?’. Hoewel deze regels objectief zijn, is het wel de vraag hoeveel waarde je moet hechten aan de resulterende waarden en hebben deze regels zeker niet altijd toegevoegd nut. Over het algemeen wordt interne evaluatie daarom vooral gebruikt om het cluster proces te sturen en niet te leiden (Alexiou, 2017).

De interne evaluatie regels hebben nog een extra uitdaging, want deze methoden zijn over het algemeen niet aangepast aan geodemografische clustering. De meest gebruikelijke metrieken (zoals de Within-cluster sum-of-squares en de Silhouette index) worden alleen toegepast op de demografische data en niet op de geografische data. Dit terwijl ´echte’ microcommunes samenhang lijken te vertonen in zowel de geografische als demografische ruimte (Wolf et al., 2019).

De kern

In mijn onderzoek heb ik geprobeerd een regel op te stellen die speciaal geadapteerd is voor geodemografische data. Deze regel is gebaseerd op de Silhouette score, maar met een speciale functie die afstand kwantificeert als combinatie van geo- en demografische data. Er zitten aan een dergelijke functie nog flink wat haken en ogen: hoe verhoudt bijvoorbeeld geografie zich tot demografie? Uiteindelijk hebben we als ‘proof of concept’ de aanpak van Wolf et al. overgenomen (inmiddels liep de onderzoeksperiode al tegen het einde).

Uit een kleinschalig experiment komt naar voren dat de geodemografische score wel degelijk wat interessante patronen vertoont. Zeker ten opzichte van de conventionele (non-geografische) Silhouette score lijkt de nieuwe regel een stuk minder triviale patronen weer te geven. Dit bleek ook uit de validatie (feedback van gebruikers) van het prototype van de Risico Radar Ondermijning zoals ik die heb gerealiseerd voor het RIEC Rotterdam.

Lessons learned

Het voorgaande stuk ging vrij snel de diepte in en eindigt tamelijk theoretisch. Maar wat zijn nu de take home wijsheden die we tijdens het onderzoek zijn tegengekomen?

Een van de belangrijkste redenen om interne evaluatie regels te zoeken is om subjectiviteit in geodemografie te verminderen. We willen graag goed gefundeerde keuzes maken tijdens het clusterproces en idealiter is geodemografie zo transparant mogelijk. In de praktijk blijven de objectieve evaluatie technieken slechts een onderdeel van het clusterproces, waar de keuzes voor het algoritme en de parameter instellingen uiteindelijk worden gemaakt door mensen. Het maken van een geodemografische clustering is niet moeilijk, maar een goede geodemografische clustering maken is een flinke uitdaging, die ook afhangt van de context.

Hoe nu verder?

Tot nu toe hebben we een paar keer genoemd dat interne validatie regels vooral ‘betekenis’ krijgen in het kader van een context en met een expert/gebruiker om de context te interpreteren. Hoewel mijn thesis vooral de theorie van geodemografische evaluatie beslaat, zijn we natuurlijk erg benieuwd of de interne regels ook echt hulp bieden tijdens het clusteren. Daarom ben ik met het Shintō Labs team begonnen aan een interactieve module waarmee je je eigen (geodemografische) data kan clusteren. De module geeft adviezen op basis van de interne evaluatie regels, maar uiteindelijk is het aan de gebruiker om de waarde van de clustering in te schatten. Voor nu blijft het dashboard bij een prototype, maar mocht je interesse hebben in deze applicatie, neem dan contact op met het Shintō Labs.

Figuur 3. Prototype van het dashboard

Referenties

  • Alexiou, A. (2017). Putting ’Geo’ into Geodemographics: evaluating the performance of national classification systems within regional contexts. PhD thesis, University of Liverpool.
  • Harris, R., Sleight, P., and Webber, R. Geodemographics, GIS and Neighbourhood Targeting. Wiley, London, UK, 2005
  • Hennig, C. (2015). What are the true clusters?. Pattern Recognition Letters64, 53-62.
  • Wolf, L., Knaap, E., and Rey, S. J. (2019). Geosilhouettes: geographical measures of cluster fit.

Relevante links

Whitepapers

Nieuws

Blogs

Webinars

Praktijkcases

Productinformatie

Research

5 praktische handvatten om ‘algoritmekramp’ tegen te gaan

‘De gemeente Rotterdam stopt omstreden fraudeonderzoek met SyRi,’ kopte de Volkskrant op 4 juli jl. Een van de vele berichten de afgelopen tijd waarin het gebruik van data-analyse of erger ‘algoritmes’ negatief in het nieuws komt. Recent publiceerde de NOS nog een fraai artikel getiteld ‘Overheid gebruikt op grote schaal voorspellende algoritmes, ‘risico op discriminatie’. Ook hier ontstaat (in ieder geval door de kop) het beeld dat er sprake is van wildgroei en het ‘kwaad’ zich verder verspreidt zonder dat er grip op is. De begeleidende podcast van de journalisten geeft een genuanceerder beeld. We horen de journalist zelfs zeggen dat het begrijpelijk en goed is dat de overheid gebruik maakt van moderne technologie.

De discussie is terecht. Het gebruik van algoritmes kent risico’s. Maar het lijkt niet goed te lukken om het gesprek over algoritmes genuanceerd en goed geïnformeerd te voeren. Alleen al het woord algoritme zorgt voor een soort verkramping in de discussie en lijkt de gebruiker ervan in het beklaagdenbankje te zetten. Als bedrijf dat de overheid helpt om datagedreven te werken, waren we ons vanaf het begin bewust van de risico’s en ontwerpen en ontwikkelen we op een verantwoorde manier oplossingen. Niet omdat de publieke opinie daarom vraagt, maar omdat we een eigen moreel kompas hebben.

Omdat we vaker vragen krijgen over de ethische kanten van het gebruik van algoritmes hebben we een aantal handvatten op een rij gezet. Geen doorgrond essay, of concreet raamwerk, maar een aantal ervaringen uit onze praktijk. Omdat we open zijn over hoe wij omgaan met de risico’s van het gebruik van algoritmes.

1. Gebruik geen voorspellende algoritmes (als het niet nodig is)!

Ik geeft toe. Een beetje een dooddoener. Het begint natuurlijk bij de vraag: wat zijn voorspellende algoritmes? Ik ga er vanuit dat hiermee bedoeld wordt het begrip ‘predictive analytics’. Een methode waarmee veelal op basis van machine learning voorspellingen worden gedaan. Maar de wereld van data-analyse is breder dan alleen voorspellende algoritmes. Sterker nog: in onze praktijk zetten we predictive analytics vaak niet eens in. Zeker niet in onze oplossingen in het domein van toezicht & handhaving of veiligheid & openbare orde. Waarom niet? Omdat we geloven in ‘waardegestuurde’ ontwikkeling. Zie ook ons blog ‘Van datagestuurd naar waardegestuurd werken’. In het kort: zet het probleem en de gebruiker centraal en kijk van daaruit welke pijn het grootst is. Keer op keer blijkt dat de meeste waarde in eerste instantie wordt toegevoegd met een ‘beschrijvende analyse’. Niks voorspellingen op basis van machine learning dus, of in ieder geval niet vóór dat we weten waar de waarde zit, wat de feitelijke situatie is (beschrijvende analyse) en waar het probleem zit (diagnostisende analyse). Pas als aan die voorwaarden is voldaan kan er voorzichtig gekeken worden naar voorspellingen. Tot die tijd: gebruik geen voorspellende algoritmes!

Bron: Gartner

2. Wees transparant over data en modellen!

Zoals je in het artikel van de Volkskrant kunt lezen is een van de grootste obstakels bij SyRi dat voor de gebruiker niet duidelijk is op basis van welke datasets en indicatoren er een inzicht wordt verschaft. Omdat wij onze oplossingen ontwerpen vanuit gebruikersperspectief herkennen we hun behoefte om te weten op basis waarvan het systeem ergens een ‘rood puntje laat knipperen’. Zo zijn we voor de gemeente Zaanstad een data applicatie aan het ontwikkelen die de gemeente helpt bij het opsporen van o.a. woonfraude waarbij vanuit de applicatie inzichtelijk is welke datasets zijn gebruikt en op basis waarvan een indicatie wordt gegeven.

Screenshot prototype Ondermijning met beschrijving datasets en indicatoren

Screenshot prototype Ondermijning met beschrijving datasets en indicatoren

3. Gebruik indicatoren op basis van gedegen onderzoek!

Een veelgehoorde vrees is dat data-applicaties inzichten bieden die discrimineren. Data is immers niet objectief! Zeker bij het gebruik van ‘feedback loops’ zal een model leren op basis van ervaringen (data) uit het verleden en dat verleden bevestigen en versterken. Wat is dus een deugdelijk indicatie om bijvoorbeeld een pand te onderzoeken of daar iets mis is? Vaak vertalen we indicatoren van de (vak)mensen uit de praktijk naar het model maar proberen dat ook te onderbouwen door (wetenschappelijk) onderzoek. Zo hebben we met het RIEC Rotterdam een Risico Radar Ondermijning ontwikkeld waarbij Bureau Beke op basis van literatuuronderzoek en expert interviews een lijst van 52 indicatoren samengesteld die wij hebben gebruikt om zicht te krijgen op risico’s op ondermijning door bedrijven. In september organiseren we samen met het RIEC en Bureau Beke een webinar waarin we hier meer over vertellen. Zijn deze indicatoren daarmee allemaal 100% objectief? Nee, maar wel binnen de normen van de (gedrags-)wetenschap als significant bestempeld.

Jurriaan Souer (Shintō Labs) in actie met dr. Henk Ferwerda van Bureau Beke, onderzoeksbureau voor criminologische vraagstukken

4. Laat systemen niet beslissen, maar help de expert!

Er zijn (soms schrijnende) voorbeelden van Kafkaëske situaties waarbij de overheid besluiten neemt waar de mens geen grip meer op heeft. ‘Computer says no.’ De angst is dat voorspellende algoritmes besluiten nemen zonder dat er een mens aan te pas komt. Als ik dan roep dat zoiets nooit moet kunnen, dan zegt mijn collega Jurriaan relativerend tegen me: ‘Dus ook niet bij slimme vuilnisbakken die automatisch opdracht geven aan de vuilnisophaaldienst om geleegd te worden?’. Tja, daar natuurlijk wel. Maar in onze praktijk komt het zelden voor dat gebruikers één antwoord willen, laat staan een geautomatiseerd besluit. Ze willen een instrument dat ze helpt om op basis van hun eigen expertise makkelijker of sneller inzicht te krijgen dan nu het geval is. We kennen voorbeelden van beleidsambtenaren uit het veiligheidsdomein die na een melding soms anderhalve dag kwijt zijn om in 15 systemen te kijken om te bepalen of er iets aan de hand is. Het enige dat we doen is de data sneller aanleveren dan nu en deze zodanig visualiseren dat de expert kan besluiten om al dan niet tot actie over te gaan. We helpen dus bij het maken van een risico inschatting.

5. Realiseer je dat ‘bias’ in de mens zit en daarmee ook in de data

Tijdens onze Design Sprints, het startpunt van onze ontwikkeling, nemen we veel tijd om gebruikers te laten vertellen over het vraagstuk. We willen weten hoe ze daar nu mee omgaan, dus zonder data-analyse en algoritmes. Als wij met mensen uit de wereld van toezicht en handhaving praten en ze vragen waar risico op een overtreding is, dan kunnen ze zo een lijstje van risicoindicatoren oplepelen. Hoe ze daarbij komen? Ervaring. Als jij bij controles meerdere keren fraude aantreft bij een bepaald soort bedrijven dan word je als handhaver alerter en controleer je vaker bij dat soort bedrijven. Is dat terecht? Misschien wel, misschien niet. In iedere geval heel menselijk. Dataprojecten versterken niet de bias. Ze leggen die juist bloot.

Bron: https://dilbert.com/

Tot slot

Ik zat laatst het radioprogramma BNR Digitaal te luisteren toen ik Rudy van Belkom hoorde zeggen: ‘We hebben het altijd over ‘explainable AI’ maar hoe ‘explainable’ is menselijk gedrag eigenlijk?’ Een mooi inzicht wat mij betreft. Geen complexer neuraal netwerk dan het menselijk brein. Discriminatie is een product daarvan. Laten we ons dus met of zonder algoritmen daarvan bewust blijven. Waar het om gaat, is dat we de uitwassen tot een minimum beperken.

P.s. binnenkort zal onze Chief Data Scientist Eric een vervolg op dit blog schrijven hoe we in technische zin het risico op ‘bias’ proberen te minimaliseren. Wil je automatisch bericht ontvangen via email als dat blog verschijnt? Schrijf je dan hier in.

Relevante links

Credits top photo: Alexandra Gorn (via Unsplash.com)

 

CSI: Crime Script Investigation – Netwerkanalyse met hulp van G-CORE

Ik was er helemaal klaar voor. Het vooronderzoek was gedaan en in mijn hoofd zat goed en duidelijk wat ik over zes maanden van toen, in augustus, zou presenteren om mijn ingenieur-titel te bemachtigen ter afronding van mijn afstudeeronderzoek bij Shintō Labs en mijn studie Data Science aan de TU/e. Enfin, we zijn nu 3 maanden verder, en in mijn hoofd is een hoop veranderd over wat ik over drie maanden van nu (nog steeds in augustus, dat is niet veranderd) zal gaan presenteren om mijn ingenieur-titel te bemachtigen. Een kleine tijd terug ben ik naar Den Haag afgereisd, om op uitnodiging van het Nederlands Forensisch Instituut op een maandelijks colloquium te presenteren over mijn onderzoek dusver. Een mooi moment om een blog te schrijven over deze ervaring, en daarmee ook over de huidige status van het onderzoek. Tijd voor een update!

Een mede-student van me, Frans, die bij het Nederlands Forensisch Instituut – NFI – zijn stage in mei begint, was ook mee om zijn vooronderzoek te presenteren en stond als eerste op het programma. Zijn afstudeeronderzoek zal voornamelijk gaan over het onderzoeken van het temporale aspect van criminele netwerken. Aangezien criminele netwerken continu veranderen, is een temporaal aspect in het netwerk van significant belang. Bij huidig onderzoek in netwerken wordt dit aspect vaak genegeerd; er wordt als het ware een snapshot van het netwerk onderzocht. Dit betekent dat onderzoek in deze netwerken mogelijk niet meer relevant is. In mijn eigen thesis staat bij de laatste hoofdstukken “Threats to validity” en “Future Research” de aantekening dat het temporale aspect mist, en ook in literatuur die ik tot dusver heb gelezen wordt gepleit voor een mogelijkheid om netwerken “live” te onderzoeken. Interessant werk dus, en heel veel betrekking op mijn eigen project.

CSI: Crime Script Investigation

Na de presentatie van Frans was het mijn beurt. In deze blog zal ik een uiteenzetting geven van mijn presentatie, en daarmee dus ook een update van mijn onderzoek. Mijn standaardtitel en ondertitel zijn inmiddels “CSI: Crime Script Investigation – Using graph databases to fight crime”. Dit was al zo tijdens het onderzoek, en dit is zo gebleven. De vraag die ik wil beantwoorden is dan ook niet veranderd; kan ik als ik een samenleving weergeef in een graaf doormiddel van slimme queries uitvoeren een crimineel netwerk eruit distilleren? De queries schrijf ik aan de hand van een crime script. Een crime script is een recept of een blauwdruk van hoe een misdaad werkt, het laat zien wat er moet gebeuren door wie, wat hier voor nodig is en waar dit moet gebeuren op welk moment. Het laat de gehele situatie zien van de misdaad, ofwel de gehele modus operandi. In literatuur wordt dit daarom ook een Situational Crime Prevention Approach genoemd. Crime scripts zijn opgebouwd in scenes, en in elke scene zit een set aan rollen die nodig is om de scene te voltooien. Dit is zeer vergelijkbaar met een script in het theater.

Figuur 1 – Cannabis-handel netwerk (Duijn, P. A. C. (2016). Detecting and disrupting criminal networks (Doctoral dissertation, PhD thesis.).

Het crime script is ook nog heel flexibel. Aangezien een crime script op meerdere manieren kan worden uitgevoerd, is dit een handige eigenschap. Morselli en Roy beschrijven in hun onderzoek naar criminele netwerken die auto’s stelen en de onderdelen doorverkopen dat de verkoop vaak naar het buitenland gebeurd. Ze beschrijven hoe de netwerken de auto-onderdelen laten verdwijnen in verschillende landen; Rusland, Egypte, Canada, Italië, etc. Elk zo’n optie heet een facet, en elke rol in een crime script kan meerdere facetten hebben. Hoe meer facetten, hoe moeilijker het is om het netwerk te breken. Bijvoorbeeld, als een crimineel netwerk bestaat uit 7 rollen en elke rol heeft 3 manieren om te voltooien (dus 3 facetten), dan zijn er in totaal 3^7 = 2187 verschillende permutaties waarin dit script kan worden voltooid.

Elk type misdaad zijn eigen crime script

Crime scripts kunnen op verschillende niveaus en voor verschillende soorten misdaad worden gemaakt. Elk type misdaad heeft zijn eigen crime script, en aangezien modus operandi verschillen kan er per crime script heel erg worden ingezoomd op een specifieke misdaad. Maar men kan ook de andere kant op en zo generaliseren, een crime script dat kan wordt gebruikt voor alle misdaden. Dit script is het universele script van Cornish, en is sinds 1994 al vaak gebruikt als begin punt voor het opstellen van een crime script.

Figuur 2 – Universeel script van Cornish (Cornish, D. B. (1994). The procedural analysis of offending and its relevance for situational prevention. Crime prevention studies, 3, 151-196).

Crime scripts verschillen ook per methode. Een misdaad die op een individueel niveau afspeelt is meestal een stappenplan; de scenes zijn in volgorde geschreven van uitvoer. In zulke scripts kunnen rollen in meerdere scenes voorkomen, maar met net iets andere vereisten. Dit betekent dat er net iets andere queries moeten worden gebruikt voor dezelfde rol, en dat er dus verschillende mogelijke nodes uit het netwerk rollen die deze rol kunnen vervullen. Welke van deze nodes geschikt is kunnen we oplossen door de rollen in een conjunctive normal form te zetten. De oplossing van deze CNF zijn de nodes die echt interessant zijn.

Crime script en netwerken

Voor netwerken werken crime scripts weer net iets anders. Hierin zijn de scenes niet op volgorde. De scenes spelen zich simultaan af, omdat de hele operatie meerdere taken heeft die niet een voor een worden uitgevoerd maar tegelijkertijd om zo de operatie efficiënt te maken. Een scene is hier dus een deeloperatie; in een crime script voor drugsnetwerken zijn er dus bijvoorbeeld scenes voor de deeloperatie van productie, een voor verkoop, een voor management etc. Elke scene heeft nog steeds rollen gekoppeld, maar naast de wie, wat waar en wanneer in de standaard crime scripts zijn nu ook de connecties belangrijk zodat kan worden gezien hoe dit netwerk wordt gevormd. De topologie wordt is impliciet opgenomen in het script.

Tijdens mijn vooronderzoek wilde ik me concentreren op crime scripts in het algemeen. Echter, aan de hand van verder onderzoek en feedback heb ik besloten me voornamelijk te focussen op netwerk crime scripts. Deze zijn interessanter, en misdaden op individueel niveau worden weliswaar vaak met meerdere personen uitgevoerd, maar hiervan is een netwerk nog steeds niet echt sprake.

Crime scripts zijn een mooi uitgangspunt om dus queries op te stellen. Maar waarop worden de queries überhaupt op losgelaten? We beginnen met een graaf die een deel van de maatschappij toont. Dit kan bijvoorbeeld, in het straatje van Shintō Labs, een graaf van een gemeente zijn. Het kan ook een graaf zijn die uit is gekomen na aanleiding van uitgebreid politieonderzoek. In mijn vooronderzoek had ik beredeneerd dat ik, omdat ik de queries declaratief wilde hebben, ik deze graaf in het property graph model zou zetten en met zou werken. Een property graph is een graaf waarin de nodes en de edges die de nodes verbinden labels en property key-value pairs hebben. Dus een node kan als label Persoon hebben, en als properties leeftijd en geslacht, met een geassocieerde waarde. Cypher is de taal waarmee je deze grafen kan queryen. Hiermee kon je al interessante patronen herkennen in de graaf.

G-CORE: een nieuwe generatie netwerk analyse

Echter, een heel nieuw netwerk opbouwen vanuit het originele netwerk dat een crimineel netwerk representeert , dat gaat niet met Cypher. Tijdens het vooronderzoek werd door mijn begeleider vanuit de TU/e G-CORE aangeraden. Dit zou een oplossing kunnen bieden voor dit probleem, en dit heb ik dus onderzocht. G-CORE is een Graph Query Language (GQL) die werkt volgens het “Graph In, Graph Out” principe. Met als input een graaf, geven de queries dus een nieuwe graaf terug, en dat is inderdaad precies wat we nodig hebben. G-CORE werkt met het Path Property Graph model. Dit is hetzelfde als het property graph model, maar in plaats van alleen nodes en edges die labels en property key-value pairs kunnen hebben, kunnen paden in dit model dat ook. Daarmee kun je dus paden tussen verschillende dingen creëren en zoeken, om zo het gehele netwerk bij elkaar te krijgen. Ook stelt G-CORE je in staat om data te aggregeren, om zo de facetten van het crime script of de verschillende scenes in het netwerk te visualiseren.

Ter illustratie: G-CORE werkt met een “Graph In, Graph” out principe. De query die je gebruikt wordt dus losgelaten op een graaf, en er komt een nieuwe graaf uit die de query beantwoord. Een voorbeeld is te vinden in de afbeeldingen. In de eerste afbeelding is een kleine graaf te zien na aanleiding van de boeken en films van Harry Potter. De graaf toont gedeeltelijk wie een vloek heeft losgelaten op wie. Elke node is een tovenaar of heks, en de edge geeft aan wie een vloek heeft losgelaten op wie. Elke edge heeft een property key-value pair dat laat zien welke vloek er is gebruikt, de values zijn afgebeeld op de edge.

Figuur 3: G-CORE voorbeeld uitgewerkt in de wereld van Harry Potter

Door middel van G-CORE kunnen we een nieuw netwerk maken, dat alle vloeken als node gebruikt, alle tovenaars en heksen als node, en pijlen die laten zien hoe een tovenaar of heks in aanraking is geweest met de vloek. Een groene pijl betekent dat hij of zijn de vloek heeft gebruikt, een zwarte pijl betekent dat hij of zij slachtoffer is geweest van de vloek. Met dit nieuwe overzicht kunnen we dus in een opslag zien wie door de meeste vloeken is geraakt en wie de meeste vloeken kent, iets wat uit de eerste graaf niet direct via een query kon worden opgevraagd.

 

Figuur 4: Detaillering van de vloeken

Dit alles zou in een tool moeten komen, waarin een gebruiker een graaf en een crime script als input geeft, en op verschillende niveaus mogelijke criminele netwerken eruit vist, samen met enkele statistieken die heel handig zijn om dit netwerk snel te analyseren. Deze statistieken zijn eenvoudig via ingebouwde algoritmen met Cypher te verkrijgen. Ook krijgt de gebruiker een visualisatie te zien van het netwerk en een verdeling hoe de rollen in het netwerk zijn verdeeld. Het ontwikkelen van deze tool staat op een lager pitje op dit moment, daar de haalbaarheid van deze tool niet meer zo hoog is als aan het begin van het afstudeerproject. De connectie maken tussen alle verschillende mechanieken die de tool moet kunnen is zacht gezegd te hoog gegrepen om te voltooien in zes maanden, zeker als we bedenken dat G-CORE nog in de kinderschoenen staat en veel zaken nog niet geïmplementeerd zijn die wel nodig zijn voor deze toepassing. Deze gebreken in G-CORE oplossen zijn op het moment de grootste hindernis, en een groot deel van de bezigheden de laatste komende maanden. Voor nu test ik dit op een kleine graaf die ik zelf heb gemaakt met zelf verzonnen data, en een crime script dat lichtelijk is gebaseerd op het crime script over cannabis-netwerken van Duijn. De graaf heb ik gemaakt in Neo4j met Cypher. Echter, G-CORE kan helaas niet rechtreeks zijn graaf inlezen vanuit Cypher, dit moet eerst worden herschreven. Dit houdt in dat ik de afgelopen week alles heb gexporteerd naar een JSON-file, en met een Python script deze JSON file heb omgeschreven naar de bestanden die de G-CORE interpreter die de TU/e heeft gemaakt kan lezen. Dit had een paar pogingen nodig, maar inmiddels is mijn property graph omgezet naar een path property graph. De G-CORE queries die ik al heb gemaakt kunnen nu dus getest worden. Als alles werkt, zal de volgende stap zijn dit toe te passen op “echte” data, data vanuit gemeenten en openbare data, om te zien of daar interessante zaken uitgehaald kunnen worden. De komende maanden zal er op dat gebied dus data worden geworven en een crime script worden ontwikkeld. Qua tool wordt er waarschijnlijk een klein prototype gemaakt zodat er een algemeen beeld is van hoe de tool eruit kan zien en hoe hij gebruikt kan worden. In het vooronderzoek had ik daar al wat schetsen gemaakt, deze moeten lichtelijk veranderd worden en natuurlijk moet er een clickable prototype van worden gemaakt.

Dit sloot mijn presentatie bij het NFI. De aanwezigen waren onder de indruk, en gaven nuttige feedback. Zo waren ze er nog niet helemaal zeker van hoe precies ik het crime script kon toepassen; veel data die ik in mijn voorbeeld had gebruikt was niet zomaar aanwezig. Natuurlijk was mijn voorbeeld ook niet realistisch, maar gebruik ik het enkel om G-CORE queries mee te testen, maar het geeft wel aanzet tot denken dat in echte cases het crime script dus goed moet worden uitgedacht om kans van slagen te hebben. Ondanks dat men bij het NFI niet veel met graph technology doet, vonden ze de toepassing van G-CORE zeer veelbelovend. Het colloquium werd beëindigd door een presentatie van een vrouw die onderzoek doet in criminele organisaties voor de nationale politie. De precieze inhoud was vertrouwelijk, maar de conclusie was dat als men wetenschappelijk onderzoek hard wil maken in rapporten of de rechtbank, dat alle stappen moesten kloppen en duidelijk waren. Er mogen geen shortcuts gebruikt worden, want dan maken advocaten gehakt van je, vertelde ze. Deze boodschap heb ik ook ter harte genomen; de queries die ik had opgeschreven heb ik opgesplitst in delen, zodat bij elke stap duidelijk is wat er gebeurt en waarom.

Van uitwerken naar implementatie

We zitten op de helft, en er is al een hoop gedaan en veranderd. Waarschijnlijk gaat er nog wel wat meer veranderen. Het doel is echter nog steeds hetzelfde, en ik hoop dat in de blog die ik over drie maanden schrijf er ook het nieuws in staat dat ik ben afgestudeerd met dit onderzoek. Waar ik mij op ga richten is het uitwerken van deze concepten in Apache Spark met hulp van Scala. Dat gaan we vervolgens toetsen bij een van de gemeentes om het netwerk daar inzichtelijk te maken. Ondertussen zal ik kleine updates blijven geven over interessante gebeurtenissen tijdens mijn afstuderen.

Bronnen

– Cornish, D. B. (1994). The procedural analysis of offending and its relevance for situational prevention. Crime prevention studies3, 151-196. Bekijk PDF
– Duijn, P. A. C. (2016). Detecting and disrupting criminal networks (Doctoral dissertation, PhD thesis. Retrieved from https://dare. uva. nl/search). Bekijk PDF
– Morselli, C., & Roy, J. (2008). Brokerage qualifications in ringing operations. Criminology46(1), 71-98. Bron
– Angles, R., Arenas, M., Barceló, P., Boncz, P., Fletcher, G., Gutierrez, C., … & van Rest, O. (2018, May). G-CORE: A core for future graph query languages. In Proceedings of the 2018 International Conference on Management of Data (pp. 1421-1432). ACM. Bron

Relevante links

Whitepapers

Nieuws

Blogs

Webinars

Praktijkcases

Productinformatie

Research

Een crimineel samenwerkingsverband in 10 minuten

Ook dit jaar werd het VNG Realisatie congres georganiseerd in de Fabrique – een prachtige locatie, nabij Utrecht.  Het thema van het congres – pardon, Congrestival – was samen organiseren: DURF en vertrouwen. Een mooi moment om te kijken wat de ontwikkelingen zijn op het gebied van ondermijning. Daarnaast kregen wij de kans om onze aanpak en status op het gebied van datagedreven aanpak Ondermijning in Zaanstad te presenteren. Naast een aantal interessante contacten en netwerkmogelijkheden waren er ook verschillende demonstraties, waaronder de Wiet Container van netbeheerder Stedin – waar de foto hierboven genomen is.

Een crimineel samenwerkingsverband in 10 minuten

In de ochtend was ik bij een presentatie van Ben van der Hoeven, programmamanager Ondermijning bij de gemeente Utrecht. Het was een buitengewoon interessant en leuk verhaal. Hij begon zijn betoog met de constatering dat afgelopen decennia er heel veel onderzoek gedaan is naar de ‘kopstukken’ van criminele organisaties. De politie en FIOD concentreren zich met name op die kopstukken en daarmee worden grote kansen gemist. De hedendaagse criminele organisaties bestaan immers uit een aantal sleutelfiguren en een hele grote groep ZZP-ers die meewerken.

Ondermijning gaat door alle lagen heen van de maatschappij. Als voorbeeld wordt genoemd dat in tijden van crisis het voor makelaars aantrekkelijk kan zijn om open te staan voor ‘alternatieve inkomsten’. Ook de overheid is een van de grootste facilitators, aldus Ben. Meer specifiek gaat Ondermijning over

  • Sleutelpersonen
  • Sleutelplaatsen
  • Sleutelbranches

Als oefening werd met de groep een gedachte experiment gedaan. Om voor te stellen hoe het zou zijn om een criminele organisatie te zijn – een techniek die Bureau Beke ook hanteert. Vanuit de groep werd synthetische drugs gekozen als onderwerp. Ben trapte af met een vraag over de productie: ‘Wie van jullie kent een scheikundige die kan helpen bij de productie‘. Direct gingen er een paar handen omhoog. Oké, dat was snel geregeld. ‘Locatie? Iemand ideeën?’ Ideeën genoeg: er zijn voldoende lege panden. Kwestie van kiezen. ‘Productie: welke grondstoffen hebben we nodig?’ Ben lijkt een kenner: voor productie heb je veel specifieke grondstoffen (‘zuren’) nodig, die toevalligerwijs ook gebruikt worden door autowasstraten voor het schoonmaken van velgen. Andere grondstoffen moeten we bijvoorbeeld uit China importeren. ‘Heeft iemand contacten in de logistiek?‘ Ja hoor. Ook geen probleem. Binnen 10 minuten hebben we een fantastisch criminele samenwerkingsverband bedacht en ontworpen. Van productie tot en met de logistiek. ‘Maar wat gaan we doen met het geld?’ Tja. Witwassen dan maar?

Ondermijning aanpakken in 4 stappen

Een vraag is die Ben aan de groep vroeg was: is ondermijning wel een wettelijke taak van de gemeente? Het antwoord is natuurlijk: ja! Maar niet in directe zin.

  • Algemene Verantwoordelijkheid: Voorkomen dat het vertrouwen in een veilige en integere samenleving wordt ondermijnd
  • Specifieke verantwoordelijkheid: Voorkomen dat (lokale) wet- en regelgeving wordt misbruikt.

Georganiseerde ondermijnende criminaliteit is overal. De uitdaging is hoe we een weerbare overheid kunnen creëren. Een nauwe samenwerking met het RIEC is daarbij cruciaal. Daarbij heeft Utrecht een model in 4 stappen gedefinieerd:

  • Stap 1: Weet wat er buiten speelt en waar binnen kansen zijn.  (mogelijke middelen ter ondersteuning vanuit het RIEC zijn: Ondermijningsbeelden, een Quickscan gemeente, en de IVP beleidsplannen)
  • Stap 2: Creëer bewustwording en eigenaarschap
  • Stap 3: Maak een meerjarig actieplan / programmaplan
  • Stap 4: Plan Do Check en Act! 

Quickscan voor uw gemeente

Ter verduidelijking werd een Quickscan toegelicht. De Quickscan biedt inzicht in hoe uw gemeente voorbereid is om Ondermijning tegen te gaan. Dit doen ze in Utrecht langs de volgende dimensies:

 

1. Bewustwording & Organisatie

Zorg voor een goede bewustwording binnen de organisatie en beleg de verantwoordelijkheid:

  1. Is er eigenaarschap in MT? Uit de groep bleek dat dit typisch bij de Directeur Veiligheid ligt.
  2. Verzorg awareness trainingen binnen alle lagen van de organisatie.
  3. Bewustwording creëren bij Raad, College en MT.

2. Informatiepositie

Versterk de informatiepositie om slagvaardiger tewerk te gaan. Daarbij moet veiligheid en privacy niet uit het oog verloren worden:

  1. Meldpunt (signalen van overtreding van lokale wet en regelgeving en handelingsperspectief voor Onderbuikgevoel)
  2. Signalen overleg (intern + politie / RIEC)
  3. Informatiebeveiliging
  4. Informatie ontsluiten (VIK) en ontwikkelen naar Intelligence.
  5. Van reactief werken naar proactief detecteren en barrières omhoog.

3. Beleid & Handhaving:

Zorg ervoor dat er een duidelijk beleid is en zorg voor integrale interventies. Gebruik daarbij een informatiegestuurde of datagedreven aanpak.

  1. BIBOB (verbreden van beleidslijn BIBOB bv Huisvestingswet en Vastgoedtransacties).
  2. Beleid op orde
  3. Informatie gestuurde handhaving – ontsluiten van straatkennis. De mensen op straat hebben goud aan kennis. Centrale vraag is hoe je die straatkennis op een nette en juridisch passende manier vast kan leggen.
  4. Participeren in integrale acties

4. Integere & Veilige werkomgeving

Creëer een integere en veilige werkomgeving waarbij de ambtenaar van vandaag en morgen goed kan werken.

  1. Ambtenaar 3.0. Dit vraagt om een andere type ambtenaar
  2. Integriteit op orde
  3. Dilemmatafel (bij dilemma middels morele oordeelsvorming komen tot juiste beslissing)
  4. VPT op orde
  5. VOG/ Screening
  6. Kwetsbare processen en functies in beeld.

5. Communicatie

Communiceer goed wat er gaande is. Zowel intern als extern.

  1. Intern: wat is ondermijning en wat doen we er aan als gemeente?
  2. Communicatie als instrument gebruiken
  3. Extern communiceren over acties – maak het onzichtbare zichtbaar
  4. Extern in gesprek gaan met met wijken / buurten – meldingsbereidheid vergroten.

Actieplan gemeente Utrecht

De gemeente Utrecht heeft vervolgens een actieplan gedefinieerd om Ondermijning te ondermijnen. Daarbij richten ze zich op de volgende onderdelen:

  • Het verstoren criminele ondernemingsklimaat.
  • Het versterken van bestuurlijke weerbaarheid. ‘De ambtenaar’ wordt daarbij nog wel eens vergeten
  • Het vergroten maatschappelijke weerbaarheid: allianties met andere partners, met ondernemers, met brancheverenigingen zoals Horeca Nederland maar ook BOVAG.
  • Vergroten sociale weerbaarheid
  • Versterken Intelligence positie

Als voorbeeld werd Tilburg genoemd waarbij 80 autoverhuurbedrijven bij elkaar zaten. Daar hebben ze een actie op ondernomen. Daarbij hebben ze ondernemers geholpen met ‘alle auto’s registreren in het ANP’ en bij controles van de auto’s;  als er niet iemand in rijdt die op het huurcontract staat, wordt de auto teruggebracht naar de huurorganisatie. Daarmee wordt het anders benaderd en meer als service aan bonafide bedrijven geboden die geholpen worden. Malafide bedrijven vinden die registratie uiteraard minder fijn.

De Piramide naar fitte gemeente

Geïnspireerd door de piramide van Maslow hebben ze een piramide voor een fitte gemeente opgesteld. Wellicht is een vergelijking met de Capabilitiy Maturity Model (CMM) beter toepasbaar maar in essentie wordt hier bedoeld dat je als gemeente op verschillende niveau’s kunt opereren in context van ondermijning

 

  • Niveau 5: Regisseur. Op het hoogste niveau heeft de gemeente de rol van regisseur. Hierbij heeft de gemeente een zeer proactieve houding en schakelt met alle ketenpartners om
  • Niveau 4: Integraal. Het integrale niveau is een proactieve houding waarbij ook politie, RIEC en OM een rol spelen alsmede andere belanghebbende organisaties zoals woningcorporaties, netleveranciers en brancheorganisaties.
  • Niveau 3: Actie – plannen uitvoeren. Op dit niveau zijn er uitvoerbare plannen die uitgevoerd kunnen worden. Hierbij is het idee dat er plannen gemaakt worden en meer proactief gehandeld wordt.
  • Niveau 2: Infrastructuur – organisatie. Het opzetten van een organisatie en benodigde infrastructuur om beter te kunnen anticiperen zodra er iets gaande is.
  • Niveau 1: Acute hulp (EHBO). Op dit niveau heeft de gemeente een zuiver reactieve houding waarbij ad-hoc wordt gehandeld zodra er wat mis gaat.

Een groeimodel. De vraag is ook: waar je wil je staan als gemeente?

Versterken Intelligence Positie

Met intelligence wordt bijvoorbeeld geanalyseerd op basis van meetpunten in het afvalwater waar drugs wordt geproduceerd. Dat wordt vervolgens vertaald naar wijken, bevolkingsgroepen en andere statistieken. De vraag die ze nog niet kunnen beantwoorden is hoe zich dat vertaalt naar voorspelling: waar moeten ze straks gaan controleren?

“We hebben nog geen Google” is zijn constatering. Een integrale zoekmachine om te zien wie, wat, waar en in welk systeem zit. Als voorbeeld hoe het wel kan is de Privacy Impact Assessment (PIA) vanuit het VIK die op basis van de BIBOB wet informatie-uitwisseling mogelijk maakt.

Karin Akkers – gemeente Den Bosch – had het ook over Intelligence en maakt vooral een onderscheid tussen Informatie en Intelligence: Informatie: casus specifieke data. Intelligence: correlaties op geaggregeerd niveau

Vanuit het JADS wordt gewerkt aan een Open Source Ondermijning Database, wat een prikkelende gedachte is en wellicht goed gebruikt kan worden bij ons traject met het RIEC Rotterdam en Bureau Beke rondom de Risico Radar Ondermijning. De ervaringen in Den Bosch tot nog toe zijn zeker interessant. De belangrijkste lessen op een rij:

  • Oplossing rondom ondermijning vragen om integrale aanpak
  • Creëer gezamenlijk perspectief én taal op de vraagarticulatie
  • Bepaal vooraf in op te zetten samenwerking ‘hoe’ om te gaan met:
    • Diversiteit aan belangen
    • Aanbestedingsrecht
    • IP en gebruiksrecht
    • Eigendom van publieke domein verzamelde data
    • Privacy en ethiek
  • Publiek-privaat samenwerken rondom innovatie vraag om gezamenlijke investering (vooral in O&O) en flexibel proces.

Relevante links

Whitepapers

Nieuws

Blogs

Webinars

Praktijkcases

Productinformatie

Research

32 Design Sprint Tips na 2 jaar ervaring in de praktijk

De afgelopen jaren hebben we meerdere prachtige Design Sprints mogen doen zoals bij de gemeente Ede en Hilversum (Sociaal Domein), Eindhoven (Ruimtelijk en Veiligheidsdomein), en ook landelijke overheden zoals de Inspectie Leefomgeving en Transport (ILT) en de Nationale Voedsel en Waren Autoriteit (NVWA). Steeds vaker krijgen wij de vraag hoe organisaties zelf een Design Sprint kunnen uitvoeren. Met die gedachte zijn we gestart met de Shintō Labs Academy om kennis overdracht te organiseren. Daarnaast deel ik ook graag mijn ervaringen voor potentiële Sprint Masters ter lering en vermaak, voor organisaties die interesse hebben in het Design Sprint Proces en een kijkje onder de motorkap willen. Zie het als mijn check list voordat ik aan een nieuwe Design Sprint begin.


1. Always Be Capturing: leg alles vast

Een basisprincipe dat mij vaak heeft geholpen: alles vastleggen dat besproken wordt. Niet letterlijk ieder woord, maar alle relevante opmerkingen, conclusies, aandachtspunten, noem maar op. Bij aanvang van de Design Sprint is zelden bekend wat de relevante vraagstukken zijn. Een ogenschijnlijk onbenullige opmerking blijkt op dag 2 ineens zeer relevant te zijn.  Door het systematisch en structureel vast te leggen kan je altijd terug grijpen naar wat er eerder besproken is. Vaak helpt het alleen al voor het ontleden van specifieke begrippen zoals ‘Woonoverlast’ of ‘Ondermijning’.

Woonoverlast (Design Sprint in Eindhoven)

2. Volg het proces

Het Design Sprint proces zit goed in elkaar en dat geeft houvast. In het begin las ik voor aanvang van de dag nog even mijn aantekeningen door, maar inmiddels heb ik leren vertrouwen op het proces en weet ik dat zolang ik mij aan het proces hou, het resultaat er gaat komen. Uiteraard is er enige flexibiliteit in het te volgen tijdschema, maar qua processtappen vormt dit onze basis voor succes.

Shintō Labs Design Sprint proces

3. Zorg voor de juiste middelen

Het klinkt haast te eenvoudig voor woorden, maar is het meer dan de moeite waard om te investeren in de juiste middelen. Vooral voor het maken van de Solution Sketches adviseer ik de ‘bredere’ Post-its, 76x127mm. Daarvan passen er perfect drie op één A-4 vel papier; zijn groot genoeg om schetsen op te maken zien er representatief uit bij het uithangen (art-gallery). Zorg ook voor ‘powerdots’ van het ideale formaat: 12mm voor ‘heat maps’ en een tandje groter voor het stemwerk. Supertip: kijk goed naar het formaat als je iets op internet besteld: ik zit nu nog met een grote hoeveelheid microstickertjes…

Shintō Labs Moderator Koffer

4. In de meeste gevallen geldt dat als het prototype niet voldeed, de challenge onvoldoende helder was

The Big Challenge. Het klinkt zo mooi. Maar vaak genoeg komen wij bij organisaties die graag willen sprinten met daarbij de opmerking dat het onderwerp eigenlijk niet zoveel uit maakt. Hoewel het Shintō Labs Design Sprint proces zich leent voor het toepassen op vele onderwerpen is onze ervaring dat als de Design Sprint niet wordt toegepast op een echte Challenge (het liefst waar iemand buikpijn van heeft of ’s nachts ervan wakker ligt), de ervaring achteraf tweeledig is: het proces zélf word als zeer positief ervaren (gemiddeld soms met een ‘9’ beoordeeld), maar het resultaat uitgedrukt in ‘waarde van het protoptype’ zeer beperkt. Als we doorvragen blijkt vaak dat er ook niet echt een probleem was, maar dat men vooral wilde leren van het Shintō Labs Design Sprint proces. Dan zou je kunnen concluderen dat het traject dus succesvol was, maar ik beschouw het zelf eerlijk gezegd als onvoldoende als er geen basis ligt voor een vervolg. Kortom: zorg dat je van tevoren de Big Challenge goed helder hebt.

Voorbeeld van een heldere Big Challenge

5. Een goede challenge heeft een verticale en horizontale as

Eén van de methodes die wij hanteren om de Big Challenge te definiëren is onze Challenge Fix. Hierin gaan we met de organisatie volgens een vaste aanpak werken aan een definitie van de challenge. Daarbij hanteren we twee dimensies:

  • Verticaal: is het probleem te herleiden naar een hoger doel (het ‘waarom‘, de maatschappelijke waarde) en is het tegelijkertijd te operationaliseren naar één of meerdere hypotheses en mogelijke databronnen (het ‘hoe‘).
  • Horizontaal: welke waarde of Output (het ‘wat‘) gaat het bovendien opleveren voor welke actor/gebruiker (‘wie‘).

Feitelijk beantwoorden we hiermee de wie, wat, waarom en hoe in een samenhangend geheel. In de praktijk lijkt de horizontale as het lastigst te definiëren.

Challenge Fix: horizontaal en verticaal bij de Milieu Navigator

6. Hanteer de ‘No devices’-regel

De Design Sprint – eigenlijk net als iedere belangrijke meeting – wordt vele malen effectiever als iedereen de devices weglegt. Ik hoorde van iemand over een ‘vakantiedoos’ om de devices een paar dagen ‘vakantie te geven’. Persoonlijk ben ik niet zo van dat soort constructen, maar ik vind het wel een teken van respect naar elkaar en naar de opdrachtgever om dit proces met volle aandacht te doorlopen. De enige uitzondering hierop is de Data Scientist: alles wat hij kan doen vóór dag 4 is pure winst en zal een positieve uitwerking hebben op het prototype en het uiteindelijke resultaat.

7. Voor aanvang: vraag commitment van het team

Veel deelnemers zijn zich onvoldoende bewust van wat het is – zo’n Design Sprint. Feitelijk krijgen ze een unieke kans om iets compleet nieuws te ontwerpen, ontwikkelen en toetsen voor een als het goed is voor hun bekend en groot probleem (zie punt 4: ‘Big Challenge’). In alle eerlijkheid heb ik nog niet meegemaakt dat iemand niet enthousiast was – achteraf. Het probleem is echter dat velen aan tafel zitten omdat ze ‘moeten’ en ze gevraagd zijn om op maandag ochtend om 09:00 in lokaal te zijn maar geen idee hebben waarom. Dan helpt het om ze zowel uit te leggen wat het is wat we gaan doen, maar ook ze expliciet commitment te vragen dat ze alles in het werk gaan zetten om er een succes van te maken. Een simpele vraag met een simpel knikje als antwoord volstaat. Daarmee geven ze zichzelf over aan het proces en gaan ze in de succes stand.

8. Wees bewust van dat niet iedereen hetzelfde probleem ziet

Dat klinkt haast als een open deur. Ik had het ook kunnen formuleren: dat niet iedereen het probleem hetzelfde ziet. Een kleine nuance, maar beide statements zijn waar. Waar ik op doel is dat iedereen vanuit zijn of haar perspectief aan tafel zit en er verschillend naar kijkt. Dat is een ‘double edged sword’ zoals ze dat zo mooi zeggen: dat haalt het uiterste van zo’n multi-disciplinair team naar boven, maar zorgt ook voor onduidelijkheid, ruis, soms tegenstrijdige argumenten en belangen (lang leve de beslisser!).

9. Leg het proces van de Design Sprint goed uit

Dit is iets waar ik zelf zelden in slaag: het uitleggen van wat de Design Sprint proces precies is. Ik heb m’n slide deck en m’n verhaal en voor aanvang krijg ik de juiste boodschap, het beoogde resultaat, de weg er naartoe en ook de juiste vibe wel overgedragen. Het blijkt echter vele malen moeilijker te zijn om aan de deelnemers van de Design Sprint uit te leggen wat het is dat zij mogen en gaan doen. Na afloop is werkelijk iedereen enthousiast en krijg ik vaak te horen dat ze het mooi hadden gevonden als ze van tevoren wisten dat ze dit gingen doen…  tja, tips zijn welkom…

10. Manage verwachting over het ‘gevalideerd prototype’

Het prototype is sterk afhankelijk van de kwaliteit van de data en van externe validatie. Het prototype is m.a.w. nog niet informatief zonder externe validatie van de inspecteurs” – aldus een van de opmerkingen die wij als feedback krijgen tijdens de evaluatie. Al gedurende het proces werd duidelijk dat er verwarring was over wat een ‘gevalideerd prototype’ precies betekende. Nu is de uitkomst van het prototype ook lastig van vooraf te voorspellen, neemt niet weg dat er wel duidelijkheid moet ontstaan over wat het prototype precies is. In ons geval ontwikkelt de Data Scientist vaak het (data)model, maakt keuzes in de algoritmes en ontwikkelt het datagedreven prototype – waar mogelijk in samenwerking met de data scientists van de organisatie. Feit blijft wel dat je maar één dag de tijd hebt om het prototype te ontwikkelen en dat zal nooit alle antwoorden geven, maar wel de basis vormen om de belangrijkste sprintvragen te kunnen beantwoorden.

11. Vraag ’toestemming’ aan het begin

Als Sprint Master is het bij de introductie van de Design Sprint op dag 1 absoluut aan te raden om ’toestemming’ te vragen. Een klein gebaar en vraagt weinig inspanning, maar door expliciet akkoord te krijgen van alle deelnemers accepteren ze later in het proces dat je op sommige momenten zaken ‘parkeert’, met zachte hand vooruithelpt of rücksichtslos een handrem-bochtje neemt om het proces bij te sturen. Simpel, maar zeer effectief.

12. Zorg voor lichte versnaperingen en voldoende koffiebreaks

Behoeft weinig toelichting. Maar voor deelnemers van de Design Sprint is het hard werken. Zorg voor wat lichte versnaperingen en voldoende koffiebreaks om bij te tanken en sommige onderwerpen even te laten bezinken. Bovendien merken wij dat veel deelnemers aan een Design Sprint zelden met elkaar samenwerken in het dagelijks leven. Kortom: alleen al het samen koffiedrinken is een verbindende factor en een waardevol resultaat van de Design Sprint.

13. Skip de Crazy 8’s. Niemand wordt daar gelukkig van.

De originele Design Sprint methode van Google Ventures heeft een tekenoefening genaamd de ‘Crazy 8’. Hierin moeten de deelnemers in hele korte tijd onder hoge druk creatieve alternatieven verzinnen op een zelf gekozen ontwerp. Op het moment dat die oefening voorgeschreven wordt (typisch dag 2, na de lunch) is de creativiteit al bijna op en daarna moet eigenlijk nog de belangrijkste schets gemaakt worden: de Solution Sketch. Onze tip: schrap de Crazy 8’s. Wij noemen het niet eens meer. Sorry Melvin, Jan-Willem, jullie moesten deze oefening nog wel doen…

Crazy 8’s: uit de Milieu Navigator

14. Het ideale Design Sprint Team

Het ideale Design Sprint Team is een multi-disciplinair team van circa 5 tot 7 personen.

  • 1 Beslisser: hakt knopen door, heeft groot belang bij goede oplossing
  • 1 à 2 Domein Experts: leveren inhoudelijk expertise
  • 1 Functioneel beheer: kennis van en vertaling naar bestaande systemen
  • 1 à 2 Databeheer / -scientist: kennis (en leveren!) van beschikbare data
  • 1 à 2 Eindgebruikers/mensen in het veld: deze moeten met het prototype uiteindelijk werken en moeten hun stempel drukken op het ontwerp om de acceptatie zo makkelijk mogelijk te maken.

In essentie draait het dus om een team uit lijnorganisatie die zelf het prototype gaan ontwerpen. Daar zit deels de kracht van de Design Sprint.

15. Zorg voor een goede beslisser

Bij de Design Sprint is er een belangrijke rol in het ontwerpteam: de Beslisser. Vaak is dit iemand uit de lijnorganisatie en verantwoordelijk voor het gekozen onderwerp. Bij voorkeur iemand die de pijn ‘voelt’ en er wakker van ligt en bovendien iemand die het mandaat heeft om vervolgens door te pakken als er wat moois uit de Design Sprint komt. Ik ken voorbeelden van prachtige resultaten, maar waar het management uiteindelijk anders besloot.

16. Onderscheid tussen hoofd- en bijzaken niet altijd evident

Het onderscheid tussen hoofd- en bijzaken is niet altijd evident bij het begin van een Design Sprint (handig gebruik maken van tip #1: Always Be Capturing): gedurende het proces komen soms onderwerpen naar voren die niet te ‘parkeren’ zijn (tip #24). Dan is het raadzaam om het onderwerp te verkennen in een afgebakende tijdseenheid (bijvoorbeeld een half uurtje). Als het te herleiden is naar de Long Term Goal en de Sprint Vragen dan zou het zomaar eens een belangrijk onderwerp kunnen zijn terwijl het eerder als een bijzaak leek. Het onderstaande voorbeeld kwam naar voren in de Design Sprint op het onderwerp van Illegaal Kamerverhuur, waaruit bleek dat de Status van een Pand een cruciaal onderwerp bleek te zijn waar alle businesslogica voor de Data Scientist aan opgehangen kon worden.

Status van een pand: uit Design Sprint Illegaal Kamerverhuur

17. De schetsen hoeven geen kunstwerken te zijn

Op dag 2 is er het onderdeel waarbij de Solution Sketches gemaakt moeten worden: een soort mini storyboard bestaande uit 3 stickers met daarin een stukje van de oplossing voor het vraagstuk. Veel deelnemers vinden dit een lastig onderdeel en zien ertegenop om met pen en papier aan de slag te gaan. Een groot deel komt dit omdat er kennelijk een verwachting is dat er een prachtig kunstwerk uit moet komen. Dit is allerminst het geval. Het doel van dit onderdeel is het verzamelen van ideeën en iedereen de kans te geven dat tot uitdrukking te brengen. Keep it simple: maak korte maar duidelijke schetsen en geef een heldere toelichting aan de zijkant. Als het te complex wordt is het raadzaam om op te splitsen in 2 losse schetsen.

Schets uit de Design Sprint met ILT

18. Kiezen met stickers ‘niet meest inspirerend, wel meest effectief’

De feedback van het NVWA: ‘Kiezen met Stickers is niet het meest inspirerend, wel het meest effectief’. En dat is ook onze ervaring. Gebruik dit mechanisme om knopen door te hakken waar nodig. Ook ad hoc: zo hebben wij een keer een naam voor een product moeten verzinnen bij een project. We lieten iedereen eerst een paar minuten zelfstandig brainstormen, vervolgens hebben we alles opgeschreven en via het stem mechanisme de knoop doorgehakt. In 5 minuten waren we eruit. Zo snel kan het soms gaan. Maak daar gebruik van.

Kiezen met Stickers bij de NVWA

19. Het samen werken aan een gezamenlijk doel heeft al enorme waarde

Een veel gehoord compliment over het proces:  “Gezamenlijkheid“, “Goed voor de onderlinge relatie; je kweekt zo begrip voor elkaar(s rol)”. In lijn met de koffiebreaks tip eerder: zorg voor voldoende ruimte dat de team leden met elkaar in contact kunnen komen en met elkaar kunnen overleggen. Dit is een onderdeel dat niet onderschat moet worden en wat best benadrukt mag worden vooraf en achteraf.

20. Ask why, why, why, why, why?

Geleend uit het Root Cause Analyses model: vraag 5 x ‘waarom’ om een goed begrip te krijgen over een onderwerp. Voorbeeld:

  1. “Ondermijning is een groot probleem!”   – why ?
  2. “Nou, omdat het een verweving is van bovenwereld en onderwereld en dús een grote impact heeft op de maatschappij” – ehm, why?
  3. “Ondermijning omvat o.a. georganiseerde drugshandel en dat zorgt voor veel overlast en kost ons veel geld” – why?
  4. “Nou, de drugshandel gaat o.a. gepaard met uitbuiting van mensen, chemisch afval dumping op straat en in de natuur en daar worden wij niet veel beter van, bovendien moeten we veel mensen inzetten op controle, toezicht en handhaving (en opruiming)” – ….why?
  5. “Omdat we onvoldoende capaciteit hebben om preventief te werk te gaan en onvoldoende kunnen prioriteren waar we onze middelen op inzetten:”.

Ah. Maar dat is een probleem waar we mee aan de slag kunnen!

21. Samenvatten, samenvatten, samenvatten

Een algemene tip die helpt de focus te houden gedurende de Design Sprint. De Design Sprint is een traject dat vlot loopt en waarbij weinig tijd is voor reflectie. Het is de taak van de Sprint Master om gedurende het proces iedereen mee te nemen. De handigste methode om dat te doen is consequent blijven samenvatten. Samenvatten wat gezegd is, wat we gedaan hebben en wat er gaat komen (en waar we naartoe gaan). Vaak ontstaat er een muur van post-its en aantekeningen, maar is het proces helder genoeg om aan het eind van dag 1 te kunnen zeggen: “We begonnen met de Big Challenge ‘C’, toen hebben we de stip op de horizon ‘S’ bepaald en de Sprint Vragen Sv1 t/m Sv2, daarmee hebben we vervolgens de Map gemaakt en experts erbij gehaald om te toetsen of we op de goede route zitten. Tot slot hebben we een focus point gekozen van waar we morgen verder vertrekken!” 

22. ‘Lastige’ collega’s helpen discussies scherp te krijgen

Bij de Intake wordt vaak gesuggereerd dat de ‘lastige’ collega vast niet in het Sprint Team moet zitten. Wij zijn van mening dat die persoon juist kan helpen. Afhankelijk natuurlijk van hoe lastig de betreffende persoon is, moet in onderling overleg bepaald worden op welk moment hij of zij het beste een bijdrage kan leveren. Soms is dat in het ontwerpteam, maar soms als expert op dag 1 of dag 5. Vaak helpen de lastige collega’s om de dingen te zeggen die anderen ook al dachten of kan ontwikkelingen noemen die ook al lopen in de organisatie die hierop lijken. Dit soort kennis helpt het ontwerpteam om de discussies scherper te krijgen en een helder doel te formuleren.

23.  Laat de gesprekken soms lopen

In mijn koffer zit een klok. Een timer timer om precies te zijn. Die is bedoeld om gesprekken binnen een gegeven tijd af te kunnen ronden en geeft een ‘sense of urgency‘. De ervaring leert echter dat het soms handig is om gesprekken even te laten lopen en niet al te strikt met de precieze tijden om te gaan. Het vraagt enige ervaring om aan te voelen hoeveel tijd een bepaald onderwerp nodig heeft en of je wat kunt uitlopen met onderdeel ‘A’ om vervolgens bij onderdeel ‘B’ wat in kan halen, maar neem soms wat tijd.

24. Indien nodig: ‘parkeer’ opmerkingen en onderwerpen

Maak een parkeerlijst gedurende de Design Sprint. De parkeerlijst is bedoeld voor onderwerpen die je op dat moment niet kan (of wil) behandelen maar ook niet wil verliezen. Het kan ook een methode zijn om ingewikkelde onderwerpen letterlijk even te parkeren en op een later moment weer op te pakken (zie tip #16). Soms is het parkeren ook een manier om iets permanent te parkeren – en dat is oké. In de Design Sprint streven we niet naar volledigheid maar naar maximaal leer-rendement en om te kijken hoever we kunnen komen in 5 dagen.

25. Samen schetsen is relatief makkelijk – samen ‘Data Science’ beoefenen relatief moeilijk

Ons Design Sprint proces is opgezet om in 5 dagen van een idee naar een gevalideerd prototype te komen. Op dag 2 en 3 maken we onderscheid tussen de creatieve designs (wat moet het prototype doen? wat levert het op? hoe moet het er uit zien? wat gaan we gebruiken? wie zijn de gebruikers?) en  de data science (welke bronnen? hoe ziet de data er uit? wat is de kwaliteit van de data? welke analyses kunnen we doen? welke algoritmes gaan we gebruiken?). De ervaring leert dat het gezamenlijk bespreken van schetsen en ontwerpen in het creatieve gedeelte eenvoudiger is dan het gezamenlijk Data Science te beoefenen. Dat is inherent aan het vakgebied en is lastiger te organiseren. Voorbeeld: bij de creatieve methode kan er met stikkers een consensus gevormd worden van welke schetsen de meest belovend zijn. Voor data science weet je pas wat werkt als je de (eerste) resultaten hebt. In onze ervaring lijkt het meest effect te hebben om vooraf, tijdens en na afloop te bespreken welke data science keuzes gemaakt worden/zijn en gezamenlijk te evalueren. Tijdens de Solution Rush is er meer ruimte voor gezamenlijk optrekken en analyses te doen.

26. Vijf dagen direct achter elkaar is te krap voor een uitgewerkt prototype

Wij hebben de Design Sprint een enkele keer ook letterlijk in 5 dagen achter elkaar gedaan. In onze ervaring is dat te krap. Het vraagt nogal wat van de deelnemers om (3 van de) 5 dagen hun agenda leeg te gooien en gedurende die dagen naast het analyseren, bedenken en ontwerpen ook de data te verzamelen, op te schonen, te analyseren en te verwerken in een prototype. In het ideale geval wordt een Design Sprint in 2 weken uitgevoerd met wat ademruimte tussen de dagen. De eerste 3 dagen hebben we het liefst wel vlot achter elkaar (bijvoorbeeld: maandag, woensdag, donderdag) en dag 4 en 5 kunnen dan verspreid over de tweede week gepland worden. Daarmee heeft het Design Sprint team en de Data Scientist de ruimte om het probleem met de data om te zetten in het prototype.

27. Privacy By Design

In het vakgebied waarin wij zitten is Privacy een zeer belangrijk onderwerp wat wij ook bijzonder serieus nemen. Afhankelijk van het onderwerp betrekken we de Privacy Officer al gedurende de Design Sprint. Wat we in ieder geval altijd doen is het vaststellen van welke data er persoonsgegevens gebruikt moeten worden (vaak volstaat het om gepseudonimiseerde data te krijgen – daarmee heeft het prototype geen persoonsgegevens in gebruik) en of er daarmee een Privacy Impact Assessment (PIA) gedaan moet worden bij een vervolg. Verder is het zo dat voor het prototype ook een ‘sample’ data volstaat. We hoeven niet alle data direct beschikbaar te hebben om het onderzoek te kunnen doen. Aan het eind van de Design Sprint heb je dan inzichtelijk

  • welke databronnen er gebruikt kunnen worden;
  • of er persoonsgegevens nodig zijn en of er daar een wettelijke grondslag / doelbinding voor is (voorzet voor PIA);
  • in welke vorm (gepseudonimiseerd, anoniem); en
  • wat de te verwachten waarde is voor het oplossen van het probleem

Daarmee kan daarna een onderbouwt gesprek gevoerd worden en bepaald worden of en in welke vorm het vervolg vormgegeven gaat worden.

28. Maak het team bewust van dat ze de kans krijgen om iets unieks te ontwerpen

Dit is iets wat veel deelnemers aan een Design Sprint onvoldoende beseffen: ze hebben een prachtige kans om iets unieks te ontwerpen voor een probleem dat – als het goed is (zie tip #4) – zij ook als een echt probleem ervaren.  Op het momént dat dat kwartje valt zie je iedereen actief z’n best doen om zijn of haar beste ideeën te pitchen met de ambitie om het beste prototype in de gegeven tijd te ontwerpen.

29. Validatie: Positieve punten, Verbeterpunten en vragen

Bij de validatie (zowel interne validatie als externe validatie) zijn wij erachter gekomen dat vrijwel alle feedback samen te vatten is in de drie categorieën:

  • Positieve punten: wat vonden ze goed/mooi/handig/etc aan het prototype
  • Verbeterpunten: wat vonden ze minder goed, of wat ontbrak, of wat zou gewoon beter kunnen
  • Vragen: vaak zijn er ook een hoop vragen. Soms over de data en soms over de werking van het prototype en hoe het gebruikt kan worden.

Met deze driedeling kan je een mooi overzicht maken van wat er uit de validatieronde gekomen is om er patronen in te ontdekken.

30. Sprint vragen: expliciet beantwoorden (of niet)

Na afloop van de validatie proberen wij altijd expliciet de Sprint Vragen te beantwoorden die op dag 1 gesteld zijn. In het mooiste geval zijn alle Sprint Vragen zowel beantwoord als positief. Vaker is het zo dat niet alle Sprint Vragen beantwoord zijn en worden er gezamenlijk vervolgacties gepland. Ook hier geldt dat de Design Sprint niet naar volledigheid streeft maar zoveel mogelijk en zo goed mogelijk probeert te beantwoorden in de gegeven tijd om maximaal te leren en het vervolg te kunnen bepalen. Het is daarmee van belang om op dag 1 de Sprint Vragen ook goed te prioriteren.

31. Maak de waarde inzichtelijk van het ontworpen prototype

Aan het eind van de week maken wij naast een inhoudelijke validatie ook zo goed als mogelijk de ‘waarde’ inzichtelijk. Hiervoor gebruiken lenen wij methode uit de Value Proposition Design om het probleem inzichtelijk te maken en onderdeel van de oplossing te plotten op de probleemstelling. Vervolgens maken we per onderdeel een ruwe inschatting met de organisatie om te bepalen wat de beoogde waarde is van de oplossing (bijvoorbeeld uitgedrukt in efficiëntie, of terugdringen aantal oneigenlijke uitkeringen). Het maatschappelijke karakter van de publieke sector maakt het soms lastig om de waarde te kwantificeren in uren of euro’s, maar dat maakt het niet minder noodzakelijk om gezamenlijk de maatschappelijke waarde van de beoogde oplossing te duiden.

Voorbeeld: Value Proposition Design

32. Evalueer en leer van iedere sprint: build – measure – learn – improve!

De lijst met punten hierboven zijn het resultaat van een flink aantal Shintō Labs Design Sprints. Na iedere Design Sprint (build) meten we het resultaat middels evaluatieformulieren (measure). Daarbij kijken we zowel naar kwalitatieve zaken (“die Crazy 8’s zijn echt niet te doen!”) als kwantitatieve beoordeling. Ook komen wij als Sprint Team bij elkaar om te leren van sprints en om te bedenken wat we anders willen (learn!). En daar passen we de toepassing van het Design Sprintproces op aan. Op hoofdlijnen blijft het proces overeind: dat zit inmiddels bewezen goed in elkaar. Maar op detailniveau en de toepassing is er altijd ruimte voor verbetering.

Als jullie tips voor ons hebben? Mail ze naar mij op jurriaan@shintolabs.nl

Relevante links