III. Transparens och riskerna med öppenhet
Transparens antyder ofta ett modernt, etiskt-socialt-juridiskt ”ideal” (Koivisto 2016), en normativ efterfrågan på en acceptabel användning av teknik i våra samhällen. Det är en reflektion om ett öppenhetsideal som kan materialiseras i form av ”öppen styrelseform”, ”öppna data”, ”öppen källa/kod/åtkomst”, och även i form av ”öppen vetenskap” (Larsson, 2020). Det innebär att transparensöverväganden måste göras för att främja en jämn spridning av vetenskapliga framsteg så att fördelarna med AI-utvecklingen blir tillgängliga för alla.
Sammanfattningsvis kan vi säga att även om det finns ett behov av utökad transparens inom AI, så behöver vi också utveckla metoder som kan hjälpa oss att förhindra missbruk. Transparens kan förvisso hjälpa oss att minska de etiska problemen med till exempel rättvisa och ansvar, men den leder också till etiskt relevanta risker. För stor öppenhet i fel sammanhang kan skada den positiva utvecklingen av AI-baserade processer. Sammantaget är det tydligt att idealet med helt transparenta algoritmer måste övervägas noggrant – vi behöver hitta en balans mellan säkerhet och transparens.
Du har nått slutet på det här avsnittet.
Fortsätt till nästa avsnitt