EU's forordning om kunstig intelligens (AI-forordningen) blev vedtaget i august 2024 og er verdens første omfattende lovgivning, der regulerer brugen af kunstig intelligens. Formålet med forordningen er at skabe klare rammer for udvikling og anvendelse af AI-systemer, sikre ansvarlig og sikker brug af teknologien samt beskytte borgernes rettigheder og sikkerhed.
Indhold og anvendelse
AI-forordningen anvender en risikobaseret tilgang og opdeler AI-systemer i fire kategorier baseret på deres potentielle risici:
-
Minimal eller ingen risiko: Disse systemer anses for at være lavrisiko og er ikke underlagt særlige krav. Eksempler inkluderer anbefalingssystemer i streamingtjenester og autokorrektur.
-
Begrænset risiko: Systemer under denne kategori skal overholde specifikke gennemsigtighedskrav. For eksempel skal brugere informeres, når de interagerer med en chatbot, eller når de præsenteres for AI-genereret indhold som deepfakes.
-
Højrisiko AI-systemer: Disse systemer har en væsentlig risiko og er underlagt strenge krav, herunder detaljeret dokumentation, risikostyring og overvågning. Eksempler er AI-systemer anvendt i kritisk infrastruktur, uddannelse (fx bedømmelse af eksaminer) og ansættelsesprocedurer (fx sorteringssoftware til rekruttering).
-
Forbudte AI-systemer: Systemer, der udgør en klar trussel mod sikkerhed, borgernes rettigheder eller værdighed, er forbudt. Dette inkluderer AI anvendt til masseovervågning eller til automatisk at vurdere risikoen for, at personer begår kriminalitet.
Konsekvenser for softwaretest
For softwaretest har AI-forordningen flere betydelige konsekvenser, især for højrisiko AI-systemer:
-
Strengere testkrav: Højrisiko AI-systemer skal gennemgå omfattende test for at sikre, at de opfylder forordningens krav. Dette inkluderer validering af systemets nøjagtighed, robusthed og cybersikkerhed.
-
Dokumentation og sporbarhed: Der er krav om detaljeret dokumentation af testprocedurer og resultater for at sikre sporbarhed og ansvarlighed. Dette betyder, at softwaretestere skal føre nøjagtige optegnelser over testforløb og -resultater.
-
Gennemsigtighed og forklarbarhed: Test skal sikre, at AI-systemer opererer på en gennemsigtig måde, hvilket kræver, at systemernes beslutningsprocesser kan forklares og forstås af mennesker.
-
Løbende overvågning: Efter implementering skal højrisiko AI-systemer underkastes løbende overvågning og periodiske evalueringer for at sikre, at de fortsat overholder kravene og fungerer som tiltænkt.
For softwaretestere betyder dette, at der skal udvikles nye teststrategier og -metoder, der adresserer disse krav, hvilket kan medføre behov for yderligere uddannelse og opkvalificering inden for AI-specifikke testprocedurer.
Ingen kommentarer:
Send en kommentar