Europese Commissie presenteert ‘Ethische Guidelines voor Artificiële Intelligentie’

Europese Commissie presenteert ‘Ethische Guidelines voor Artificiële Intelligentie’

In juni 2018 stelde de Europese Commissie een groep van 52 experten samen om te werken aan een aantal aanbevelingen rond artificiële intelligentie (AI). De High Level Expert Group bestaat uit personen uit de academische wereld, de industrie en consumentenorganisaties en heeft de taak gekregen om na te denken over de uitdagingen en gevaren van AI.

Betrouwbare AI

Het doel van het document is om betrouwbare AI te promoten. We bevinden ons in Europa in een unieke situatie waarbij we de mogelijkheid hebben om AI te bouwen rond de Europese waarden en normen. De Europese Commissie zal de komende jaren sterk inzetten op betrouwbaarheid en transparantie van AI-systemen, waarbij de mens centraal staat. Dit vertaalt zich praktisch gezien naar een beoordelingslijst (in hoofdstuk 3) die door ontwikkelaars van AI gebruikt zou kunnen worden tijdens het ontwikkelingsproces.

Enkele belangrijke opmerkingen bij het document. Dit document geeft geen wettelijke verplichtingen. Het zijn guidelines, die niet als doel hebben om een bestaande of toekomstige wetgeving te vervangen. Het is een levend document, dat doorheen de tijd onderhouden moet worden, zodat het relevant blijft aan de bestaande technologie en de maatschappelijke context.

Verder wordt erkend dat er in verschillende situaties verschillende uitdagingen zijn. Dit is voor Agoria een belangrijke toevoeging, die initieel niet opgenomen was. Er zijn verschillende uitdagingen in de context van business-to-consumer, business-to-business, employers-to-employee, etc. Het is belangrijk dat de vereisten van de AI-systemen nauw verbonden zijn met de context waarin ze gebruikt worden. Een systeem dat aanbevelingen doet voor nieuwe muziek heeft andere ethische vereisten dan een systeem dat een medische interventie voorstelt.

Inhoud van de ‘Ethics Guidelines for Trustworthy AI’

Het document is opgebouwd uit 3 hoofdstukken, die samen een framework bieden voor betrouwbare AI.

In Hoofdstuk 1 worden ethische principes geïdentificeerd. Deze zijn niet nieuw maar gebaseerd op internationale mensenrechten en het handvest van de grondrechten van de EU. Men identificeert er kernprincipes, namelijk respect voor de menselijke autonomie, het voorkomen van schade, eerlijkheid en verklaarbaarheid. Een aanbeveling die hieruit voortvloeit, is dat er specifiek bij AI aandacht moet worden gegeven aan situaties waarin kwetsbare groepen van de bevolking betrokken zijn, zoals kinderen en gehandicapten. Bij deze groepen is er, historisch gezien, een groot risico dat ze uitgesloten zouden kunnen worden. Als finale punt stellen de experts dat AI de maatschappij op een positieve manier zal veranderen, maar dat er ook risico’s aan verbonden zijn. Daarom is het belangrjik dat er mechanismen geïnstalleerd worden om de maatschappij te behoeden en beschermen. Het oprichten van een Kenniscentrum Ethiek zoals Vlaanderen dit in het kader van het impulsprogramma AI zal doen, is hiervan een mooi voorbeeld.

Na de analyse van ethische principes worden deze in Hoofdstuk 2 omgevormd tot een lijst van 7 vereisten waaraan ‘betrouwbare AI’ zou moeten voldoen: (1) menselijk gezag en toezicht, (2) technische robuustheid en veiligheid, (3) privacy en gegevensbeheer, (4) transparantie, (5) diversiteit, non-discriminatie en eerlijkheid, (6) maatschappelijk en ecologisch welzijn en (7) aansprakelijkheid.

Als conclusie stelt men dat onderzoek en innovatie in AI-systemen enorm belangrijk zijn om ‘betrouwbare AI’ te bereiken. Ook communicatie richting alle betrokken stakeholders over de mogelijkheden, maar ook de beperkingen van AI-systemen, is sterk aanbevolen. Dit niet enkel bij de ontwikkeling, maar doorheen de hele levenscyclus van het systeem. Om dit alles te bereiken, worden er een aantal methoden voorgesteld, die geclassificeerd worden als ‘technisch’ en ‘niet-technisch’. 

Het uiteindelijke doel van de Guidelines volgt in Hoofdstuk 3, dat een beoordelingslijst bevat die gebruikt kan worden om betrouwbaarheid te operationaliseren. Het is specifiek gericht op AI-systemen die in rechtstreeks contact staan met mensen. Het hanteren van de beoordelingslijst is vooral bedoeld voor ontwikkelaars en providers van AI-systemen.

We kunnen zeggen dat dit hoofdstuk nog niet helemaal klaar is. Daarom gaat deze zomer een pilootfase van start. Het doel is om met een aantal bedrijven het gebruik van deze beoordelingslijst te testen in de praktijk. De lijst wordt nadien aangepast om uiteindelijk te komen tot een tool die op alle AI-systemen toepasbaar zou kunnen zijn.

Visie van Agoria

We zijn over het algemeen zeer tevreden met hoe dit proces verlopen is. Het is een realiteit dat de ethiek van AI-systemen niet zomaar aan de kant geschoven kan worden, en we ondersteunen het opstellen van Ethische Guidelines. Het document zelf is ook zeer positief geëvolueerd. Waar het eerst een algemene visie over ethiek was, is het nu gekomen tot een werkbaar document dat voor de industrie een meerwaarde zou kunnen betekenen. We willen dus ook, samen met enkele Belgische bedrijven, onderzoeken of dit document in de praktijk bruikbaar zou kunnen zijn.

Scroll naar boven