Het is vijf voor twaalf

    Artificiële intelligentie laat overheid en bedrijven sneller en efficiënter werken. Maar het roept ook vragen op. Begin april publiceerde de Europese expertengroep haar richtlijn rond AI. "We weten nog niet helemaal hoe AI onze wereld zal veranderen. Maar we kunnen en moeten nu al ingrijpen."

    Nathalie Smuha
    Nathalie Smuha

    Nathalie Smuha is advocate, onderzoeker aan de KU Leuven en coördinator van de High-Level Expert Group rond artificiële intelligentie van de Europese Commissie. Ze spreekt hier in eigen naam. Liever dan over artificiële intelligentie (AI) heeft ze het over artificieel intelligente systemen: "Het gaat over een amalgaam van technologie, geprogrammeerd door mensen, die autonoom beslissen en zelf kunnen leren – en dat laatste is nieuw."

    De meeste AI-systemen werken op basis van data en maken autonoom een analyse en een voorspelling of beslissing. "Een AI-systeem maakt bijvoorbeeld bij een sollicitatie de eerste shift van de stroom cv’s. Als basis neemt het dan de cv’s van werknemers die de voorbije jaren goed presteerden in dat bedrijf. En dan maakt het op grond van die historische data een selectie", legt Smuha uit.

    "En daar beland je bij het eerste probleem. Wat als de voorbije twintig, dertig jaar de werkvloer voornamelijk bevolkt werd door blanke mannen? Die historische data beïnvloeden de selectie die je systeem vandaag maakt. En dus moet je je AI-systeem aanpassen. Als je daarbij stilstaat, neemt AI objectievere en efficiëntere beslissingen. Want een AI-systeem herkent patronen die mensen niet zien, en kan dus processen optimaliseren."

    Dankzij het AI-systeem belanden discriminatie en vooroordelen nu expliciet op tafel. Het dwingt ons om na te denken over onze eigen vooroordelen.

    Ook mensen laten zich leiden door hun vooroordelen. "Vaak is die discriminatie onbewust’, weet Nathalie Smuha. ‘Maar dankzij het AI-systeem belanden discriminatie en vooroordelen nu expliciet op tafel. Het dwingt ons om na te denken over onze eigen vooroordelen. We beseffen dat data en technologie niet neutraal zijn. Mensen programmeren AI-systemen. AI werkt op basis van data die een mens invoert. En onbewust sluipen daar je eigen waarden en vooroordelen in."

    Maar bij AI bestaan er technieken om die vooroordelen uit te wissen. "Daarvoor moet je eerst en vooral een ethische mindset creëren: beseffen dat ook jij geleid wordt door vooroordelen. Wat willen we dat het systeem kan doen? Wat zijn de beperkingen? Welke waarden willen we invoeren, denk bijvoorbeeld aan de m/v-verhoudingen in een bedrijf."

    Black box

    Discriminatie is illegaal. En ook al is AI nieuw, bestaande wetten zijn ook van toepassing op AI. "Misschien moeten ze gereviseerd worden zodat ze volledig up-to-date zijn met de nieuwe technologie, maar ze blijven wel de wet", zegt Nathalie Smuha.

    Waar ligt dan het probleem? "Er zijn twee grote categorieën AI. Er zijn de rule based systems, waarbij programmeurs elke regel van het systeem schrijven’, legt Smuha uit. ‘Dat is redelijk transparant, en dus heb je daar veel controle over beslissingen en hoe die genomen worden."  

    Maar daarnaast zijn er de zelflerende systemen, of machine learning AI, zoals neurale netwerken die geïnspireerd zijn op de activiteit van ons brein. Dat is de AI die vandaag de grootste successen boekt en de oorzaak is van de huidige boost. "Hier programmeer je niet regel per regel, maar je voert data in, en het systeem herkent patronen. Het resultaat? Een grote accuraatheid, in beslissingen en patronen."

    We weten niet hoe de beslissing genomen werd. Maar we kunnen wel achterhalen of de juiste stappen werden genomen om onnauwkeurigheden of vooroordelen in te perken.

    Maar daar ontstaat ook het probleem van de zogenoemde black box. "Bij deze systemen weet je niet precies hoe een beslissing tot stand is gekomen. Stel dat een bank je lening afwijst, na selectie door een AI-systeem. Dan is het technisch onmogelijk om te checken wat de precieze reden van die afwijzing is. De programmeur ziet niet wat er gebeurt in het systeem. Daar is nog veel meer research voor nodig. Dat is niet echt een probleem als het een AI-systeem is dat een liedje of film aanraadt. Maar het wordt een groter probleem als het systeem een beslissing neemt die een serieuze impact heeft op je leven. Denk aan een job, een lening of een medische behandeling."

    Moeten overheid en burgers dan zeggen: hier eindigt AI voor ons? Zeker niet, vindt Nathalie Smuha: "Je moet blijven nadenken over welke data je gebruikt hebt. Waren die inclusief genoeg? Hoe is je systeem getest? En al die factoren kun je documenteren. Dan kan in gevoelige situaties een auditor, nagaan of er iets problematisch gebeurd is. Op die manier kan niemand zich verbergen achter de black box. Want we weten niet hoe de beslissing genomen is. Maar we kunnen wel achterhalen of de juiste stappen werden genomen om onnauwkeurigheden of vooroordelen in te perken."

    Europa geeft AI boost

    In april 2018 maakte de Europese Commissie haar strategie rond AI bekend. "Europa wil AI boosten" weet Smuha. "We moeten meer investeren in onderzoek, en overheden en bedrijven pushen om AI op te nemen. Zo blijf je competitief."

    Daarnaast bestudeert Europa de socio-economische impact van AI. "Er zullen jobs verloren gaan, er zullen job gecreëerd worden, en er zullen vooral veel jobs transformeren. Maar niemand weet exact hoeveel of welke jobs, of in welke sectoren of tijdsspanne." Europa spoort lidstaten aan om nu al actie te ondernemen. "Dat is een collectieve verantwoordelijkheid. Je kunt niet precies voorspellen in welke domeinen je welke skills nodig zult hebben. Maar een groot deel gaat over basic AI literacy’" zegt Smuha. "En daar kun je trainingen rond organiseren. Online gebeurt dat nu al gratis. Finland bijvoorbeeld heeft als doelstelling vooropgesteld dat 1 procent van de bevolking de online cursus rond AI met succes moet volgen. In navolging van Finland is er ook in Nederland een gratis online ‘nationale AI-cursus’ ontwikkeld."

    En tot slot bekijkt Europa ook het ethisch en juridisch kader.

    Trustworthy AI

    De High-Level Expert Group rond artificiële intelligentie van de Europese Commissie stelde onlangs haar ethische richtlijn voor. Die richt zich niet alleen naar AI die in Europa ontwikkeld wordt, maar ook naar alle AI die in Europa gebruikt wordt.

    Een eerste deel van de richtlijn bevat algemene ethische principes, en is geïnspireerd op de fundamentele rechten in Europa. De tweede pijler wordt concreter met zeven key requirements. "Dat zijn de vereisten waaraan AI moet beantwoorden om ‘trustworthy’ te zijn: om je vertrouwen waard te zijn’" legt Smuha uit. "En dan moet niet alleen het systeem betrouwbaar zijn, maar ook alle actoren en processen daarrond. Betrouwbaar is ook meer dan ethisch correct: je systeem moet bijvoorbeeld robuust zijn, en bestand zijn tegen hackers."

    De derde laag bestaat uit een praktische assessment list, een concrete checklist voor ontwikkelaars. Hoe is de kwaliteit van je data? Heb je het systeem voldoende getest en resultaten geverifieerd? Heb je als ontwikkelaar de juiste stappen genomen om die vereisten in het systeem te krijgen?

    Europees = betrouwbaar

    Die richtlijn is niet bindend, benadrukt Nathalie Smuha. "Sommige  lidstaten willen er op termijn een soort keurmerk van maken, waardoor je weet: Europese AI is betrouwbare AI." Vergeleken met China en de VS hanteert Europa nu al striktere normen rond data. "Daardoor moeten ontwikkelaars veel voorzichtiger omspringen met persoonlijke data, en dat kan een nadeel kan zijn. Want vaak geldt: hoe meer data, hoe accurater. Maar aan de andere kant is er het concurrentiële voordeel: hoe meer je werkt in overeenstemming met de ethische regels, hoe groter het vertrouwen in je systeem zal zijn."

    "Om van de vrijblijvende richtlijn een echt keurmerk te maken, heb je een autoriteit nodig, die checkt of een bedrijf ook echt alles doet wat het belooft. En daar zitten we nog lang niet.", weet Smuha. "Het lijkt mij wel een onvermijdelijke evolutie. Als je AI betrouwbaar wil maken, kan dat alleen als je het ook kunt bewijzen. We moeten vooral vermijden dat zo’n keurmerk een pure pr-stunt wordt."

    En in Vlaanderen?

    "Ook de Vlaamse overheid moet gebruik maken van AI. Het is een enorm krachtige methode om efficiënter te werken’" vindt Smuha. "Voor de overheid is vertrouwen van de burger nog belangrijker dan voor bedrijven. Zonder vertrouwen zullen burgers AI-technologie niet aanvaarden, en genieten ze niet van de voordelen. Daarom is de Europese richtlijn nog belangrijker voor de overheid. Want die heeft ook een voorbeeldfunctie naar het bedrijfsleven: ze kan het goede voorbeeld geven en een voortrekkersrol spelen."

    Om dat te bereiken moet er veel meer aandacht komen voor de ethische aspecten van AI. Moet je daarom een ethicus in dienst nemen? Neen, niet noodzakelijk, vindt Nathalie Smuha, maar je moet wel bewust zijn van de ethische gevoeligheden. "De ethical mindset moet worden opgenomen in opleidingen. Zo kan het bewustzijn en de gevoeligheid groeien. Want als je niet weet wat de impact is, kan je geen maatregelen nemen."

    Het totaalplaatje is belangrijk, want de vooroordelen van een programmeur zijn niet dezelfde als die van een ethicus.

    Daarnaast bepleit Smuha de noodzaak van een multistakeholder-benadering: ethici, juristen en ontwikkelaars moeten meer samenwerken. "Al in het begin van je design moet je alle stakeholders erbij betrekken. Op wie heeft het systeem een directe invloed? Alleen als je mensen met verschillende competenties samenbrengt, krijg je een totaalbeeld. En dat totaalplaatje is belangrijk, want de vooroordelen van een programmeur zijn niet dezelfde als die van een ethicus."

    Politici experts?

    De wetgever moet op zoek naar de juiste balans tussen innovatie aan de ene kant en de ethische en juridische aspecten aan de andere kant, denkt de juriste. "Het is geen goed idee om op voorhand alles vast te leggen en te verbieden. Zo betonneer je het systeem en fnuik je innovatie. We hebben vandaag al een reguleringskader dat sterke bescherming biedt. Je kunt beter de systemen laten draaien en achteraf nagaan wat waar misgelopen is, en waar welke regels je eventueel moet aanpassen. Bovendien weten we nog niet exact welke wetgeving we nodig zullen hebben. Het heeft dan ook weinig zin om nu al iets aan te nemen."

    Politici hoeven geen experts te zijn. Maar ze moeten zich wel bewust zijn van de uitdagingen.

    Hebben onze politici vandaag dan wel de juiste competenties om AI aan te pakken? "Politici hoeven geen experts te zijn" vindt Smuha. "Maar ze moeten zich wel bewust zijn van de uitdagingen en een visie hebben. Want ook al weten we nog niet wat er precies zal veranderen, we kunnen nu al dingen doen om de impact op te vangen."

    En dan kijkt Smuha vooral naar het onderwijs. "Dat je al in de middelbare school in contact komt met AI. Dat rechtenstudenten ook technologie krijgen. En dat informatici het vak ethiek moeten volgen. Interdisciplinair werken begint door te sijpelen. En dat is goed. Want er is nog tijd, maar het is vijf voor twaalf. En vergeet niet dat als je vandaag een verandering doorvoert in het onderwijs, die pas over tien jaar een impact heeft op de maatschappij."

    Dit interview maakt deel uit van een reeks die SERV maakt rond digitalisering. ‘Een ecosysteem voor AI creëren’ en ‘De dialoog organiseren over de ethische en maatschappelijke impact’ zijn twee van de kernaanbevelingen van de SERV-oproep voor een digitale beleidsagenda.