AI-regelgeving

De Europese AI-wet zal een nieuw juridisch kader bieden voor het gebruik van kunstmatige intelligentie, waarbij AI-toepassingen worden ingedeeld in risicocategorieën. Toepassingen met een onaanvaardbaar risico worden verboden, terwijl hoog-risico toepassingen specifiek gereguleerd worden. Daarnaast moeten bedrijven niet alleen voldoen aan de wetgeving, maar ook aandacht besteden aan ethische principes zoals fairness, accountability, transparency en control om AI-systemen verantwoord te gebruiken en mogelijke risico’s te minimaliseren.
Geschatte leestijd: 3 minuten

nog veel onduidelijk

Juridisch kader
Overheden hebben er belang bij om de verspreiding van verantwoordelijke, ethische en betrouwbare AI te bevorderen. Het is echter waarschijnlijk dat zij snel bepaalde regels zullen vaststellen voor de governance van AI, met name voor de productie en consumptie van media.

In België is er op dit moment nog geen specifiek juridisch kader rondom AI. De Europese AI-wet zal de eerste regelgeving op dit gebied zijn. Wat betreft overheidsinitiatieven loopt de EU voorop met de recente Wet op Kunstmatige Intelligentie. Deze wet wil verder gaan dan vrijblijvende AI-manifesten en -codes.

De voorgestelde Europese regelgeving zal alle AI-toepassingen indelen in drie risicocategorieën. Toepassingen en systemen met een onaanvaardbaar risico zullen worden verboden, hoog-risicotoepassingen zullen specifiek worden gereguleerd, en alle overige toepassingen blijven grotendeels onaangetast.

We verwachten dat er in de nabije toekomst verdere richtlijnen en wetten worden ontwikkeld om het gebruik van AI te reguleren, wat impact kan hebben op corporate governance. Tot die tijd moeten we rekening houden met bestaande (niet AI-specifieke) wetten.

We kunnen ook wijzen op de Europese Productaansprakelijkheidsrichtlijn 85/374/EEG (2022), die de bijna 40 jaar oude Richtlijn 85/374/EEG (omgezet in Belgische wetgeving in de wet van 25/02/1991 inzake aansprakelijkheid voor gebrekkige producten) zal actualiseren. De voorgestelde AI-aansprakelijkheidsrichtlijn (2022) bevat procedurele regels voor civiele claims door personen die schade hebben geleden als gevolg van AI. De richtlijn bevat definities van welke partij verantwoordelijk is voor schade in welke omstandigheden, ook als het product van buiten de EU komt.

Aanvullende overwegingen
We raden aan verder te denken dan alleen de wettelijke verplichtingen.

AI is afhankelijk van een typische gelaagde technische IT-architectuur. Aan de basis staan hardwarecomponenten die de nodige rekenkracht, dataopslag en connectiviteit bieden. Op die hardware draaien ontwikkeltools die AI-ontwikkelaars gebruiken om nieuwe algoritmen te ontwikkelen, zoals software die nodig is voor het verwerken en interpreteren van data door “databibliotheken”, voor verschillende soorten algoritmische verwerking en voorbereidend werk, en voor interoperabiliteit met andere systemen. Op de bovenste laag bevinden zich de diensten die gericht zijn op de eindgebruikers van de AI-software, zowel professioneel als privé.

Zowel de strategische als de juridische kansen en de mogelijke bronnen van risico’s en problemen kunnen zich bevinden op de verschillende technische lagen. Op alle niveaus moet rekening worden gehouden met cybersecurity om de integriteit van de datasets te waarborgen die door AI-systemen worden gebruikt.

Generatieve AI kan heel snel algemene inzichten creëren waarvoor mensen vele uren of dagen onderzoek zouden moeten doen. Maar we moeten kritisch blijven over het beperkte aantal bronnen waar AI soms op vertrouwt. Generatieve AI op basis van grote taalmodellen zal altijd proberen een antwoord te geven, zelfs als het de taak niet heeft begrepen. In het ergste geval zal het een antwoord verzinnen met onjuiste informatie. Bovendien moet men zich bewust zijn van hoe menselijke factoren voor vooroordelen kunnen zorgen in de training of interpretatie van AI-algoritmen.

Daarom moet AI, gezien het bedrijfs- en publieke belang, aan bepaalde minimale eisen voldoen wat betreft de constructie ervan. In de afgelopen jaren is het concept van ‘verantwoorde AI’ verschoven van een loutere belofte om bewustzijn te creëren en eindgebruikers te onderwijzen over AI, naar een meer proactieve inzet van concrete (zelf)reguleringen van AI. Er zijn al verschillende ethische codes, overheidsdocumenten, richtlijnen en verklaringen opgesteld met wereldwijde principes of basisrechten rondom concepten zoals verantwoorde of betrouwbare AI.

Fundamentele concepten
Bij de ontwikkeling en het gebruik van AI kunnen altijd onbedoelde gevolgen optreden. Daarom zijn deze vier fundamentele concepten belangrijk in elke regelgeving: fairness, accountability, transparency en control.

  • Fairness: Vermijd discriminatie ten koste van specifieke individuen of doelgroepen. Er zijn veel manieren waarop oneerlijke vooroordelen kunnen ontstaan bij het gebruik van AI-algoritmen. Bijvoorbeeld, de gegevens of datasets die in het algoritme worden ingevoerd, kunnen zelf bevooroordeeld of gebrekkig zijn (“garbage in, garbage out”). Het meetinstrument kan ook de resultaten vertekenen.
  • Accountability: Zorg ervoor dat het AI-systeem op de juiste manier kan worden gecontroleerd.
  • Transparency: Wees in staat om aan derden uit te leggen hoe het model werkt en tot bepaalde resultaten komt. Het probleem hierbij is vaak dat organisaties die fundamentele AI-modellen beheren, om concurrentieredenen weigeren hun gegevens en werkwijzen openbaar te maken.
  • Control: Zorg voor mechanismen en procedures waarmee kan worden ingegrepen als er iets misgaat. Een slecht uitgerolde of slecht ontworpen technologie vormt fundamentele risico’s. AI vereist ook planning rondom kwaadaardig gebruik, cyberbeveiliging en cyberweerbaarheid. Voorstanders van AI beweren dat voor elk ‘aanvallend’ gebruik van AI voor kwaadaardige doeleinden er even sterke argumenten zijn om dezelfde AI in te zetten voor ‘verdedigende’ doeleinden tegen deze risico’s.

Geef een reactie

Uw e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *