Process för säkerställandet av etiken och pålitligheten i AI-lösningar
Bakgrund och ändamål
Arcadas Laboratorium för Pålitlig AI (Trustworthy AI) lär ut och utvecklar konkreta
bedömningsprocesser för utvecklare av AI-lösningar, vilket är avgörande för att skapa förtroende.
Denna bedömning görs i kombination med en förståelse av de etiska metoderna för användningen
av tekniken ur ett mänskligt perspektiv. För att fastställa metoder för att bedöma utvecklingen av
AI-lösningar, måste vi, tillsammans med slutanvändare, företag, samfund och andra, utveckla en
gemensam praktisk syn på hur komplex teknik bör tillåtas interagera med samhället. Detta är
viktigt i synnerhet i känsliga miljöer som hälso- och sjukvård. Vi använder Z-inspections (Zicari et
al, 2021) process för att bedöma Pålitlig AI, och skapa AI-lösningar som är säkra, pålitliga och
hållbara. Detta görs genom att kombinera en holistisk och analytisk kvalitativ process för att
bedöma säkerheten hos AI-lösningar och forskning om praxis för AI- och andra lösningar.
Målsättningar och nyttan
Tillämpningen av AI kräver en djup förståelse för säker användning och etiska överväganden. Skillnaderna mellan AI-baserade lösningar och traditionell IT-mjukvara kärver ett förfinat tillvägagångssätt för att integrera lösningar som inte är deterministiska. Vi studerar sådana skillnader för att få insikter om hur olika processer måste skapas och anpassas för att passa införandet och underlättandet av AI. Detta är inte bara en teknisk uppgift, utan sträcker gränsen för tillämpad etik in i den tekniska praktiken när det gäller att hantera modeller som ibland kan vara svåra att tolka. Vår verksamhet syftar också till att kritiskt granska de etiska och subjektiva konsekvenser som kan uppstå vid användningen av sådan teknik, genom att inleda en långsiktig induktiv datainsamling på fältet.
Resultat
Kvalitativa processer och metoder för att bedöma pålitligteten på AI-lösningar.
Samhällelig inverkan
This is a project with the intention of creating a permanent organization. Everything we learn during the project, and the new networks we create, will be important to ensure that we can continue to
assess the trustworthyness of AI solutions in the future. Arcada's goal is to be a pioneer in Finland, we already have the only laboratory in Trustworthy AI that uses this qualitative process.