Robuuste, ethische AI systemen bouwen

Robuuste, ethische AI systemen bouwen

Vijf avatars in een cirkel met één in het midden. Ze zijn met elkaar verbonden wat staat voor het verbinden van de elementen om een Robuust, ethisch AI systeem te bouwen

Het aantal toepassingen van AI groeit snel. Met alle kansen en bedreigingen die daarbij horen. De Europese Unie vindt het erg belangrijk dat AI betrouwbaar is. Dit is ook terug te zien in de (voorgestelde) regelgeving. In dit artikel staat robuuste, ethische AI systemen bouwen centraal. De Europese Unie noemt drie voorwaarden voor betrouwbare AI, het is:

  1. Wettig
  2. Ethisch
  3. Robuust

Dit artikel focust op de laatste twee punten: ethische en robuuste AI. Wat zijn de kenmerken van robuuste en ethische AI systemen? De zeven eigenschappen een robuust en ethisch AI systeem zijn volgens deskundigen:

  1. Er is altijd menselijke toezicht
  2. Het systeem is technisch robuust en veilig
  3. De privacy en data-governance zijn gegarandeerd
  4. Processen zijn transparant
  5. Het is inclusief en discrimineert niet
  6. Houd rekening met milieu en maatschappelijk welzijn
  7. Er is een verantwoordingsplicht

Het volledige document met de ethische richtlijnen voor betrouwbare AI van de EU is hier te downloaden.

Robuuste, ethische AI systemen bouwen: wat is robuust?

Het woord robuust komt een aantal keer terug. In het algemeen noemt je iets dat stevig is, niet snel stuk kan robuust. Omdat AI is gebaseerd op modellen, is het interessant te kijken wat robuust in die context betekent. Een robuust model is een model dat binnen een vooraf gedefinieerde nauwkeurigheid blijft. In de statistiek, dat een grote rol speelt in berekeningen binnen AI, verwijst robuust naar procedures om weerstand te bieden tegen afwijkingen buiten de bandbreedte van het model. Robuuste AI blijft ethische en wettige resultaten leveren (nauwkeurig genoeg om binnen die bandbreedte te blijven) ondanks de grote verscheidenheid aan input.

Bouwen aan positeive impact als moreel leider
Robuuste, ethische AI systemen bouwen begint met de juiste bouwblokken

De verantwoordingsplicht voor AI

Een ander interessant punt is de verantwoordingsplicht. Verantwoordelijkheid nemen betekent kort gezegd twee dingen:

  • vooraf de gevolgen van je acties doorzien en die voor jezelf kunnen verantwoorden
  • achteraf rekenschap afleggen over je keuzes tegenover de maatschappij

Het is dan ook in lijn met de gewenste ethische aanpak bij inzet van AI. Echter is het makkelijker gezegd dan gedaan. Het artikel over het oplossen van morele dillemma’s bevat een stappenplan om afwegingen te maken voor jezelf en voor de maatschappij. Om het in de praktijk te brengen is het in ieder geval belangrijk dat je het volgende doet:

  • Maak een lijst waaraan je AI systeem moet voldoen om ethisch en robuust te zijn
  • Check regelmatig of je AI-toepassing nog voldoet én kijk waar het beter kan
  • Blijf kritisch punten toevoegen of aanpassen, voorkom dat het ‘afvinken’ wordt

De vier pilaren van betrouwbare AI voor de EU

Tot slot: de EU werkt met vier uitgangspunten voor betrouwbare AI. Daarop zijn alle voorwaarden en kenmerken die hierboven zijn genoemd gebaseerd. De vier uitgangspunten van betrouwbare AI voor de EU zijn:

Goed om als laatste stil te staan bij preventie van schade als uitgangspunt. Dat betekent dat procedures zijn ingericht om schade te voorkomen. Anders gezegd: bij twijfel niet inhalen. Pas actie ondernemen als je de gevolgen volledig kunt overzien. Net als bij de AVG-wetgeving wordt een grote verantwoordelijkheid voor het inschatten van risico’s bij diegene die AI gebruikt neergelegd. Robuuste, ethische AI systemen bouwen is dan ook belangrijk is het kader van risico beheersing. Om dezelfde reden is het raadzaam een moreel beraad te starten voordat je gaat bouwen.


Nick Nijhuis maakt organisaties digitaal volwassen, is docent in business innovation, trainer in moreel leiderschap en NIMA-examinator.

Een reactie

  1. Pingback: Rechtvaardige (AI-)systemen en algoritmes ontwikkelen - Moreel Leider

Reacties zijn gesloten.