Verantwoording over gebruik “big data” is noodzakelijk

Een recent experiment van Facebook met ‘slimme’ chatbots heeft de discussie over de risico’s van artificial intelligence (AI) in de media doen oplaaien. Deze discussie is niet nieuw. Tesla-ceo Elon Musk waarschuwt al enkele jaren voor de gevaarlijke keerzijde van AI. Futuristisch? Misschien. Maar ook minder complexe algoritmes en big datagebruik vragen om verantwoording en transparantie.

Elon Musk: ‘Ongerust over geavanceerde artificial intelligence’

Elon Musk herhaalde zijn boodschap onlangs tijdens de National Governors Association meeting in Providence, Rhode Island. Musk vindt dat overheden proactief moeten worden in het reguleren van de risico’s van artificial intelligence, nu het nog kan. “Ik heb toegang tot de meest geavanceerde artificial intelligence en ik denk dat we er heel ongerust over moeten zijn”, aldus Musk. En hij staat niet alleen. Musk krijgt bijval van mensen zoals Bill Gates en Steven Hawking.

Even terug naar de ‘slimme’ chatbots die de onderzoekers van Facebook Artificial Intelligence Research (FAIR) creëerden. Zij programmeerden twee artificial agents om met elkaar te onderhandelen over items die moesten worden verdeeld. Gaandeweg het experiment constateerden de onderzoekers dat de chatbots hun eigen taal ontwikkelden, die voor mensen niet te begrijpen viel. Omdat dit een onwenselijke uitkomst was, veranderden de onderzoekers de parameters van het experiment.

Discussie

En daarmee laaide de discussie op. Media berichtten over het stilleggen van het uit de hand gelopen experiment door Facebook. ‘Niet waar’, zo liet Facebook in een verklaring weten. De onderzoekers pasten alleen enkele parameters aan en maakten het experiment gewoon af. Bovendien meldde Facebook dat de constatering dat artificial agents hun eigen taal ontwikkelen om efficiënt een taak uit te voeren, heel normaal is en vaker zichtbaar is binnen dit specifieke AI-domein.

De discussie of Facebook het experiment stopzette of – na aanpassing – gecontroleerd afmaakte, is eigenlijk niet zo interessant. Belangrijker is de vraag binnen welke kaders bedrijven en organisaties kunstmatige intelligentie en big data inzetten. Waar ligt de regie en de verantwoordelijkheid, hoe worden ongewenste effecten beheerst en hoe leggen organisaties verantwoording af over de werking van deze systemen?

Sommige handelingen zijn zo complex dat wij mensen ze niet meer kunnen volgen

In het experiment van Facebook ging het om het onderhandelen over niet bestaande, online artikelen, zoals ballen, boeken en hoeden. Anders wordt het als deze technieken worden toegepast binnen onze werkelijke wereld. Zoals de beurshandel, de zorg of defensie. Zelfs als intelligente systemen communiceren in een taal die wij begrijpen, zijn sommige handelingen zo complex en is de snelheid van uitvoeren zo hoog, dat wij mensen ze niet meer kunnen volgen. In geval van autonome systemen, die zelf besluiten nemen, levert dat mogelijke risico’s op.

FACT-model

Maar ook bij minder complex gebruik van algoritmes en (big) data, waar de mens nog altijd zelf de uitkomsten beoordeelt en beslissingen neemt, speelt het dilemma van verantwoord gebruik. Vanuit goed bestuur doen organisaties er verstandig aan om beleid te ontwikkelen over de regulering en controle van het gebruik van machine learning en (big) data. Diverse wetenschappers en kennisinstituten hebben de handen ineen geslagen om op dit gebied inzichten te delen en het debat vorm te geven. Om het verantwoord gebruik te beoordelen, is het FACT-model ontwikkeld, dat staat voor Fairness, Accuracy, Confidentiality en Transparency.

Met Fairness wordt het onbevooroordeeld gebruik bedoeld, ook al zijn de verkregen inzichten betrouwbaar. Hier spelen wetgeving en ethische afwegingen een rol, maar in mijn optiek ook de vraag hoeveel autonomie wordt toegekend aan systemen en mensen. Accuracy richt zich op de betrouwbaarheid van de gegenereerde inzichten en de daarop gebaseerde besluiten. Een voorbeeld hiervan zijn voorspellende modellen, die iets zeggen over de waarschijnlijkheid van een toekomstige situatie.

Privacy en veiligheid

Een ander belangrijk element is de bescherming van de privacy en het veilig gebruik van persoonsgegevens, gevat in de term confidentiality. Op dit gebied is de wetgeving aangepast. Vanaf 25 mei 2018 is binnen de gehele Europese unie de Algemene Verordening Gegevensbescherming van toepassing die toeziet op een uitbreiding van de privacy rechten van burgers en organisaties verplicht tot maatregelen om de informatie van personen beter te beschermen. BDO heeft een multidisciplinair team beschikbaar dat organisaties helpt om aan de veranderende wetgeving te voldoen.

Transparantie aan de voor- en achterkant

Het laatste element uit het FACT-model is transparency. Hoe maken organisaties inzichtelijk welke data zij gebruiken, hoe de algoritmes werken en welke besluiten hieraan gekoppeld worden. Het gaat hierbij om complexe materie, die snel verkeerd geïnterpreteerd kan worden. Of helemaal ondoorgrondelijk wordt, in geval van de autonome chatbots uit het Facebook experiment. Transparantie is nodig aan de voorkant, bijvoorbeeld bij het toekennen van een vergunning voor bedrijfsactiviteiten of het besluit van een consument om klant te worden. Maar ook aan de achterkant is transparantie gewenst, onder andere wanneer er een dispuut ontstaat en de vraag beantwoord moet worden wie waarvoor verantwoordelijk kan worden gesteld.

Organisaties moeten proactief beleid ontwikkelen

De controle op het gebruik van machine learning en (big) data staat – in tegenstelling tot bijvoorbeeld de financiële jaarrekeningcontrole – nog in de kinderschoenen. Overheid, toezichthouders en accountantskantoren zijn in gesprek om hierover afspraken te maken. Tot die tijd hoeven organisaties niet stil te staan en kunnen zij zelf proactief beleid ontwikkelen om de voordelen van machine learning en (big) data verantwoord te kunnen benutten. Internal audit, Risk & Compliancy-afdelingen kunnen hierin een belangrijke taak vervullen, mits zij over de benodigde kennis beschikken. Zo kan de organisatie bouwen aan een duurzaam ecosysteem voor haarzelf en haar stakeholders waarin behoefte is aan verantwoording en transparantie. Wilt u dat wij met u meedenken over dit onderwerp? Kijk dan wat ons multidisciplinaire team voor u kan betekenen.

Dit blog is geschreven door Daan van den Broek, september 2017.