top of page

5 gode råd til sikker og ansvarlig virksomhedsbrug af kunstig intelligens

Forfatters billede: Rune D. DidriksenRune D. Didriksen

Vi har her samlet fem gode råd til, hvordan din virksomhed kan sikre, at I anvender kunstig intelligens ansvarligt. Det sikrer ikke kun virksomheden selv, men også alle virksomhedens kunder og samarbejdspartnere.

Illustration i lilla, der viser en stiliseret figur, som står med armen under hagen foran en tjekliste med fire afkrydsede punkter. Ved siden af ses en hængelås og et lille nøgleikon, som symboliserer sikkerhed og beskyttelse.

Kontrollér kunstig intelligens

Kontrollér løbende AI-modellens datainput 


Mange danske virksomheder er allerede i gang med at afsøge potentialet for brug af kunstig intelligens. I nogle virksomheder kan digitale assistenter lette sagsbehandling, og i andre kan intelligente produkter forudsige vedligehold og dermed holde driftsomkostningerne nede. Fælles for løsningerne er, at AI-teknologien kan genkende mønstre og ud fra dette anbefale handlinger.


For at arbejde ansvarligt med kunstig intelligens, er det afgørende, at algoritmen fodres med korrekt data, og at virksomhederne løbende kontrollerer, at AI-modellen rådgiver korrekt. Datakvalitet er derfor enormt vigtigt. Hvis ens AI-model trænes på forkert data, kan der opstå bias og AI’en vil rådgive og handle forkert på baggrund af disse data. Derfor bliver virksomheder nødt til at overvåge datainputtet og databehandlingen i deres AI-model. Derudover skal ansvaret og kontrollen for den overvågning varetages af eksperter med den nødvendige indsigt i den specifikke AI-model.


Ansvar

Tydeliggør hvordan ansvarsfordelingen er sat op omkring virksomhedens brug af kunstig intelligens


I forlængelse af kontrollen for en virksomheds AI-løsning er det også vigtigt at virksomheden er tydelig omkring, hvordan fordelingen af ansvarsområder er i forbindelse med deres brug af AI. Hvordan kontrolleres modellen/systemets behandling af data og selve den data modellen fødes med? Hvordan bliver resultaterne formidlet og hvem står for det? Hvor lægger det overordnede ansvar?


Det er vigtigt at en virksomheds ledelse her træder frem og viser at de står ved deres ansvar om at bruge kunstig intelligens sikkert og etisk korrekt. Ledelsen skal vise sig som et aktiv ved at drøfte konsekvenserne af virksomhedens brug af kunstig intelligens, og klart kommunikere dette ud både internt og eksternt.


Transparens og sporbarhed

Sikr at algoritmernes proces er så kortlagt som muligt


Beslutninger taget af eller på baggrund af kunstig intelligens er ikke ufejlbarlige. Skulle det ske at en kunde eller bruger klager over en AI-relateret beslutning, vurdering eller afgørelse i en sag, er det vigtigt at kunne forstå og spore det, der har ledt til algoritmens anbefalede handling. Det kan f.eks. være socioøkonomisk data og potentielt yderligere bias i data, som er udslagsgivende i en anbefalet handling. Derfor er det vigtigt at sikre at man kan forklare, hvorfor en beslutning er blevet truffet eller forholde sig til om en beslutning skal genbehandles.


En del af AI’s proces befinder sig i det man kalder en ”sort boks”, hvor man ikke ved, hvad der sker inde i AI’en for at få den til at komme med de forslag/konklusioner den gør. Det skyldes AI’s opbygning som et neuralt netværk. Ligesom tankeprocessen i menneskets hjerne ikke kan kortlægges, så kan AI’s proces heller ikke gøres fuldstændig sporbar. Derfor er det enormt vigtigt, at en virksomhed sørger for at deres AI-models proces kan spores så meget som muligt, så medarbejderne altid kan forklare og kunderne forstå en beslutning. Virksomheder bør tilbyde fuld transparens omkring deres AI-model, hvor og hvordan den bruges, samt hvordan modellen behandlinger sine data. Ved ukorrekte resultater er den eneste måde at rette op på det, at gå ind og enten tjekke input-data og/eller justere på hvordan modellen vægter disse data.


Formidling

Gør kommunikationen med kunstig intelligens databehandling tydeligt for brugeren


Første del af formidlingsprocessen er kompetenceopbygning og -kvalificering af virksomhedens medarbejdere. Det er vigtigt at de har kompetencerne og forståelse for, hvordan et resultat er frembragt. Derudover skal medarbejderne kunne formidle AI-algoritmens anbefalinger. Der skal være en menneskelig forståelse for og kontrol med AI-teknologien.


Næste del af formidlingsprocessen er relationen til brugerne. Det er enormt vigtigt, at virksomheden har styr på al behandling af data på tværs af e-mails, dokumenter og databaser. Mange AI-produkter og -løsninger er baseret på personlige data, f.eks. fra et kundeforhold. Derfor skal virksomheder gøre det helt tydeligt, hvordan de indsamler, bruger og opbevarer data. Hvis ikke virksomheder er tydelige i deres kommunikation og interaktion med deres kunder/brugere kan der opstå tillidsbrud. For at udvikle de bedst mulige løsninger, forbedre effektivisering og løfte kvaliteten af virksomhedens produkter, er virksomheden afhængige af, at brugerne frivilligt afgiver data. Formidlingen handler i bund og grund om at gøre det klart for brugerne hvad og hvordan kunstig intelligens bruger deres data.


Lovgivning

Følg altid gældende lov


En virksomheds udvikling, implementering og brug af kunstig intelligens skal bestræbes på både at være moralsk ansvarligt og kunne forsvares juridisk og etisk. Etiske principper er ikke just lette altid at omsætte til konkrete handlinger, især ikke når de påvirker daglige beslutninger. Her burde en virksomhed etablere og udvikle et etisk kodeks, som burde være offentligt tilgængeligt. Virksomhedens transparens her hænger unægtelig sammen med deres formidlingsproces som nævnt i det ovenstående. Virksomheden skal konstant holde sig opdateret på lovgivningen om AI, og forstå hvordan nye reguleringer og love kan påvirke deres forretning og deres kunder/brugere både på det indestående tidspunkt og fremadrettet.


Her gør EU’s AI Pact og AI Act sig særligt nævneværdige. AI Pact er en ny indsats, der har til formål at sikre, at udvikling og brug af kunstig intelligens (AI) i EU følger principper for sikkerhed, gennemsigtighed og etik. Pagtens mål er at opmuntre virksomheder – fra store multinationale selskaber til små og mellemstore virksomheder – til frivilligt at efterleve de retningslinjer, som snart bliver påkrævet under EU’s kommende AI Act. EU’s AI Act er en lovgivning, der regulerer AI-systemer baseret på deres risikoniveau. AI Act’en gør sig gældende for enhver virksomhed og organisation både inden for og uden for EU, så længe et AI-system er placeret på markedet i EU eller på nogen måde påvirker personer, der befinder sig i EU, ved dets anvendelse. I 2024 forpligtede vi os allerede i SiteSage til AI Pact’en, hvilket betyder at vores AI-løsninger allerede tilpasses gældende og kommende EU-lovgivning.

Tags:

bottom of page