III. Exempel på mänskliga rättigheter: integritet, säkerhet och inkludering
Integritet
Frågan om integritet blir aktuell till exempel när digitala register innehåller information som kan användas för att få fram känslig information om egenskaper (ålder, kön eller sexuell läggning), preferenser eller religiösa eller politiska åsikter. Även biometriska data kan bli ett integritetsproblem, eftersom de kan avslöja uppgifter om fysisk eller mental hälsa. Ofta är det inte själva datainnehållet som är det stora problemet, utan det sätt på vilket data kan användas för att manipulera, påverka eller skada en person.
Etiskt sett har integritet en hel del med personlig autonomi att göra. Enligt de principer som myntades av John Locke har rätten att styra våra egna privata liv setts som en förutsättning för vår autonomi. Om vi fråntas den rätten kränker det vår psykologiska och moraliska integritet i grunden.
Dataskyddsförordningen
Den allmänna dataskyddsförordningen är ett juridiskt ramverk som sätter upp riktlinjer för insamlingen och bearbetandet av personuppgifter från personer bosatta inom EU.
Förordningens mål är att se till att individer får kontrollen över sina personuppgifter. All information som berör en individ som kan bli direkt eller indirekt identifierad klassas som personuppgifter. Det innefattar bland annat namn, personnummer och e-postadresser. Även platsinformation, biometriska data, etnicitet, kön, webbkakor samt politisk eller religiös övertygelse kan utgöra personuppgifter. Pseudonymdata (data som inte direkt identifierar någon men som kan kopplas till en person) kan också ingå i definitionen om det är lätt att identifiera personen.
Personen måste ge sitt specifika, otvetydiga samtycke till att hens data bearbetas. Samtycket måste vara ”frivilligt, specifikt, informerat och otvetydigt”. Samtycket kan när som helst dras tillbaka av den berörda personen. Barn under 13 år kan endast ge sitt samtycke med tillstånd från en förälder.
Dataskyddsförordningen erkänner ett flertal integritetsrelaterade rättigheter. Dess mål är att ge oss mer kontroll över våra data. Här är några av dessa rättigheter:
- rätten att informeras (en person måste informeras om användningen av hens personuppgifter)
- rätten till åtkomst (en förklaring måste ges för hur någons personuppgifter används)
- rätten att ångra sig (en person har rätt att glömmas bort, dvs. att uppgifterna om personen raderas)
- rätten att neka till bearbetningen (en person kan neka till användningen av hens personuppgifter).
Om du bearbetar data måste du enligt dataskyddsförordningen göra det i enlighet med principer för skydd och ansvar. Du måste ta hänsyn till dessa dataskyddsprinciper i utformningen av alla nya produkter och aktiviteter. Dataskyddsprinciperna är följande:
- Lagenlighet, rättvisa och transparens: Bearbetningen måste vara lagenlig, rättvis och transparent gentemot den berörda personen.
- Ändamålsbegränsning: Du måste bearbeta data för de specifika rättmätiga ändamål som uttryckligen har angetts vid insamlingen av dem.
- Dataminimering: Du får endast samla in och bearbeta de data du absolut behöver för de ändamål som angetts.
- Riktighet: Du måste hålla personuppgifterna korrekta och aktuella.
- Lagringsbegränsning: Du får endast lagra personligt identifierbara data så länge de behövs för det ändamål som angetts.
- Integritet och konfidentialitet: Bearbetningen måste genomföras på ett sätt som garanterar lämpliga nivåer av säkerhet, integritet och konfidentialitet (till exempel med hjälp av kryptering).
- Ansvar: Den personuppgiftsansvarige måste kunna visa att dataskyddsförordningen är uppfylld vad gäller alla dessa principer.
Enligt förordningen måste den som bearbetar data även hantera dessa data på ett säkert sätt genom att vidta ”lämpliga tekniska och organisatoriska åtgärder”.
Så skyddas integriteten – metoder för dataanonymisering
Dataskyddsförordningen tillåter organisationer att utan samtycke samla in anonymiserade data, använda dem för valfritt ändamål och lagra dem utan tidsbegränsning – så länga alla identifierare avlägsnas från dessa data. Det finns flera tekniker för dataanonymisering. Här är några:
- Generalisering är en metod som avsiktligen tar bort vissa data för att göra resten mindre identifierbara. Data kan modifieras i ett antal intervall eller i ett större område med lämpliga avgränsningar. Du kan till exempel ta bort gatuadresser, men låta ortsinformation vara kvar. På så sätt kan du avlägsna vissa av identifierarna men ändå behålla en viss precision i dina data.
- Pseudonymisering är en datahanterings- och avidentifieringsmetod som ersätter identifierare – namn id-nummer osv. – med falska identifierare eller pseudonymer. Till exempel skulle identifieraren ”Santeri” kunna ersättas med ”Saara”. Med pseudonymisering bibehålls den statistiska riktigheten och dataintegriteten. Modifierade data kan användas samtidigt som dataintegriteten skyddas.
- Syntetiska data är en metod som använder påhittade, artificiella datauppsättningar istället för att ändra i den ursprungliga datauppsättningen. Processen innefattar skapandet av statistiska modeller baserat på mönster från den ursprungliga datauppsättningen. Du kan använda standardavvikelser, medianer, linjär regression eller andra statistiska tekniker för att generera syntetiska data.
Dataanonymisering kan vara en riktig utmaning. Det finns även metoder för s.k. ”avanonymisering”. Avanonymiseringsmetoder försöker återidentifiera krypterad eller dold information. Avanonymisering, eller återidentifiering av data, kan till exempel korsreferera anonymiserad information med andra tillgängliga data för att på så sätt identifiera en person, grupp eller transaktion.
Säkerhet
Rätten till säkerhet är en norm som skyddar individer från fysisk, social och känslomässig skada, inklusive olyckor och tekniska fel. Med säkerhet menas ett skydd mot skadliga och avsiktliga hot.
Som rättighet skapar säkerhet en moralisk förpliktelse att utforma våra produkter, lagar och miljöer på ett sådant sätt att säkerheten kan garanteras även under ovanliga omständigheter eller hinder. När det kommer till AI har säkerhet kommit att omfatta ett flertal olika diskurser, däribland följande:
1) AI som ett existentiellt hot
Diskursen om AI som ett existentiellt hot tittar på artificiell intelligens utifrån ett starkt spekulativt och framtidsinriktat perspektiv. Den ställer frågor om vilken typ av hot AI-systemen ställer mänskligheten inför om de blir för komplicerade för att vi ska kunna kontrollera dem (den här typen av ”superintelligensscenarier” målas upp av tänkare som Nick Bostrom och Ray Kurzweil).
Sannolikheten för en framtid med superintelligent AI har dock ifrågasatts, både av filosofer och teknologer. Som situationen ser ut idag finns det ingen anledning att förmoda att superintelligens kommer att uppstå ur moderna algoritmiska metoder.
2) Säkerhet inom AI
Den andra tolkningen av säkerhet inom AI är den praktiska frågan om hur system kan utvecklas som fungerar på ett säkert och förutsägbart sätt. Allteftersom AI-system integreras i allt fler områden i livet blir det viktigare att systemen är välutformade för att klara av världens komplexitet. Ett mycket praktiskt och redan befintligt exempel på det här är filbytesvarnare, som använder maskininlärning för att förhindra att bilar lämnar sin fil om det inte är förarens avsikt. Maskininlärningsforskare har upptäckt att vissa filbytesvarnaralgoritmer lätt förväxlar linjerna med märken i vägen, vilket kan leda till att bilen kör av vägen genom att följa fel markeringar.
Den etiskt – och juridiskt – betydelsefulla frågan är ”vilka är de acceptabla gränserna för robusthet?” Det är förstås möjligt att förhållanden kan uppstå som är så osannolika att vi – även om systemets säkerhet inte kan garanteras – kan medge att ”ingen rimligtvis kunde ha sett det komma”. Det är dock svårt att avgöra var den här gränsen går, och det är definitivt inte något som är unikt för AI eller ens för tekniken.
Den framåtlängtan som är kopplad till framtidsvisionerna för AI har dock på ett helt nytt sätt väckt frågor om gränserna för säkerhet och stillandet av den miljömässiga osäkerheten. Ett exempel på detta hittar vi i diskursen om självgående fordon.
3) Skapa säkerhet med AI
Det tredje konceptet för säkerhet inom AI som vi kommer att titta på i det här avsnittet är skapandet av säkerhet med hjälp av AI. Kan AI göra världen säkrare? Kan AI göra att världen känns säkrare? Säkrare för vem?
Robotiseringen kan ge ett praktiskt exempel på detta koncept. Arbetet med hantering av farliga material eller att arbeta i riskfyllda miljöer kan delegeras till robotar för att skydda hälsan för arbetande människor (eller djur).
En annan typ av säkerhet som skapas genom AI är automatiserad övervakning. AI-styrd övervakning har använts på många områden: på allmän plats, i upprätthållandet av lag och ordning i form av prediktivt polisarbete och i hemmet via produkter som Amazons Ring. Även om övervakningskameror har funnits och dominerat offentliga och halvoffentliga platser i tiotals år hävdar ACLU att automatiseringen innebär en stor kvalitativ förändring i hur övervakning går till. Man vad är det som är så annorlunda?
”Föreställ dig en övervakningskamera i en typisk mataffär på 1980-talet. Kameran var stor och dyr och ansluten via en kabel genom väggen till en videospelare inne på kontoret. Utvecklingen i kameratekniken har gått långt under de följande decennierna, både vad gäller upplösning, digitalisering, lagring och trådlös överföring, och kamerorna har blivit billigare och långt vanligare.
“Men trots alla dessa förbättringar har de sociala implikationerna med att bli filmad inte förändrats: när vi går in en affär förväntar vi oss vanligtvis att vi inte kommer att påverkas av kameror. Vi förväntar oss att våra rörelser kommer att spelas in och vi kanske känner oss medvetna om oss själva om vi ser en kamera, särskilt om vi gör något som kan påkalla uppmärksamhet. Förutsatt att inget dramatiskt inträffar förstår vi i allmänhet att det inte är särskilt sannolikt att de filmer som vi är med i kommer att granskas.”
-The Dawn of Robot Surveillance, ACLU
Det är dessutom en obesvarad empirisk fråga i hur stor utsträckning AI-övervakning egentligen bidrar till säkerheten. Som exemplet med den sordinerande effekten visar kan förekomsten av AI-övervakning i sig själv leda till en känsla av osäkerhet. Dessutom kan den bidra direkt till faktisk osäkerhet och orsaka skada. AI-drivet polisarbete kan till exempel leda till direkt fysisk skada på grund av dess prediktiva karaktär och dess verkställighetsmetoder. Och när det med allestädes närvarande automatisk övervakning går att övervaka och logga minsta lilla överträdelse riskerar vi att göra konsekvenserna av polisarbetet mer skadliga än det ursprungliga brottet.
Med olika nivåer av polisnärvaro, olika verkställighetsmetoder och olika grader av övervakning i olika delar av samhället – oftast på en etniskt betingad skala – blir det tydligt att AI-övervakning skapar olika typer av säkerhet (och osäkerhet) för olika grupper. Återigen flätas värdet säkerhet ihop med andra etiska värden såsom rättvisa och icke-diskriminering.
4) En säker och hälsosam miljö: AI och klimatförändringar
Med säkerhet menas också rätten till en säker och hälsosam miljö. Idag är den här rättigheten hotad av klimatförändringar. Effekterna av klimatförändringar är redan synliga – stormar, torka, bränder och översvämningar har blivit allt vanligare och alltmer förödande. De globala ekosystemen förändras. De påverkar alla den miljö som vår existens är så beroende av. Rapporten om klimatförändringar (2018) uppskattade att det kommer att få katastrofala konsekvenser för världen om inte utsläppen av växthusgaser elimineras inom 30 år.
Sammanfattningsvis kan man säga att säkerheten har betydelse för AI-tekniken på flera olika sätt. Alla väcker frågor om balansering av normativa värden: strävan efter att göra ”AI för goda ändamål” låter förvisso lovande, men i praktiken är det ofta så att genomförandet av rättigheter och normativa värden i tekniska system står i strid med en uppsjö av motstridiga intressen och de stora orättvisor som finns i världen. När vi utvärderar säkerheten är det därför viktigt att utvärdera vilka andra rättigheter som också finns med i bilden och fråga oss: ”säkerhet för vem?”.
Inkludering och könsskillnad
Inkludering innebär att alla människor, oavsett på vilket sätt de är annorlunda – det kan handla om etnicitet, kön, sexualitet, förmåga eller någon annan egenskap – har lika rätt till ett komplett deltagande i samhället.
Inkludering av personer med funktionsnedsättning
Enligt Världshälsoorganisationen (2018) lever mer än en miljard människor med funktionsnedsättning. Å ena sidan kan AI bidra till att personer med funktionsnedsättning marginaliseras och exkluderas ytterligare. Men å den andra så har AI-teknik en enorm potential att öka dessa människors välbefinnande. AI kan förstärka och stödja personer med funktionsnedsättning.
Det finns till exempel ett flertal verktyg för att utveckla kommunikationskapaciteten och läskunnigheten som kan hjälpa oss att förstå personer med kognitiv svikt och/eller allvarliga tal- och språksvårigheter (som demens, cerebral pares eller autism). Ett annat exempel är utvecklingen av AI-baserade tekniska hjälpmedel, som bildbeskrivningar för synskadade, taligenkänning, textning för hörselskadade, teckenspråksigenkänning och -tolkning för hörselskadade, flerspråkiga text-till-tal-alternativ som kan läsa upp text för personer med kognitiv svikt och dyslexi, vårdrobotar för äldre och ledstråk för synskadade.
Inkludering och könsskillnad
Många teknikforskare har uppmärksammat skillnaderna mellan könen. Dessa skillnader kan se ut på många olika sätt. Enligt Unesco, ligger kvinnors digitala och algoritmiska kompetens på en lägre nivå än den för män. Kvinnor vet till lägre grad hur datorer fungerar, hur internet och sociala medier kan användas och hur information kan skyddas i digitala medier. Det här är kunskaper som krävs för många uppgifter på arbetet och i livet i övrigt, och som är viktiga för personer i alla åldrar. Unesco uppskattar att män har fyra gånger större sannolikhet än kvinnor att besitta avancerad kompetens i informations- och kommunikationsteknik (IKT), som till exempel programmeringskunskaper.
Det är också mindre sannolikt att kvinnor utvecklar avancerad teknik. Det finns undersökningar som pekar på att inte mer än sju procent av IKT-patenten i G20-länderna har tagits fram av kvinnor. En färsk enkätundersökning med studerande i 29 länder visar att en överväldigande majoritet av dem som är tidiga att använda ny teknik är män. Beräkningar som baseras på deltagandet i världens främsta maskininlärningskonferenser under 2017 visar att endast tolv procent av framstående maskininlärningsforskare är kvinnor.
Teknikstudier visar att tekniken ofta avspeglar dess utvecklare. Trots att de flesta kvinnor som är låginkomsttagare i utvecklingsländer arbetar inom jordbruket är det oftast män som traditionellt har använt och utvecklat jordbrukstekniken, och jordbruksrelaterade uppfinningar och verktyg har utformats specifikt för att användas av män. Det har resulterat i att många verktyg har utvecklats för att utföra mäns arbete på åkrarna, och brukar vara för tunga för kvinnor eller ha handtag som kvinnor inte kan nå. Samma sak gäller ofta även för modern smart teknik – det finns röstigenkänningssystem som inte känner igen kvinnoröster, och storleken på smarttelefoner och tangentbord lämpar sig ofta inte för kvinnor.
Inkludering handlar dock om så mycket mer än att se till att kvinnor kan delta. Det är obligatoriskt att främja kulturell, åldersbaserad och geografisk mångfald och kombinationer av dessa. När vi tänker på AI och dess påverkan på samhället finns det helt enkelt ett behov av att avsiktligen utveckla system i olika varianter och med olika användare i åtanke.