Vad innebär AI-etik och vilken roll spelar värden och normer? Vi tittar även på de principer för AI-etik som vi kommer att följa genom den här kursen.
icon

II. Vad är AI-etik?

Etik söker svaret på frågor av typen ”vad är bra och dåligt?”, ”vad är rätt och fel?” eller ”vad är rättvisa, välbefinnande och jämlikhet?”. Som vetenskapsgren ägnar sig etiken åt att systematisera, försvara och rekommendera olika begrepp för rätt och fel uppförande med hjälp av begreppsanalys, tankeexperiment, och argumentering. (Mer information om filosofiska resonemang hittar du i den här videon från Crash Course Philosophy.)

AI-etik hittar vi under kategorin tillämpad etik. Nuförtiden anses AI-etik vara en del av den teknologiska etik som tillämpas för robotar och andra AI-entiteter. Denna lära behandlar frågor om hur utvecklare, tillverkare, myndigheter och tjänsteleverantörer ska agera för att minimera de etiska risker som artificiell intelligens kan medföra i samhället, vare sig det handlar om design, otillbörlig användning eller avsiktligt missbruk av tekniken.

Dessa frågor kan delas in i tre grupper enligt följande:

  • omedelbara här-och-nu-frågor om till exempel säkerhet, integritet eller transparens i AI-system systems
  • frågor på medellång sikt om till exempel effekterna av AI på försvar, sjukvård eller rätts- och utbildningssystem
  • långsiktiga frågor om de grundläggande etiska målen med utvecklingen och implementeringen av AI i samhället.

Nuförtiden är AI-etik ett mer allmänt fält och ligger närmare ingenjörsetik: vi behöver inte anta att maskinen är en etisk agent för att kunna analysera dess etik. Forskningen inom AI-etik kan handla om allt från reflektioner om hur etiska eller moraliska principer kan implementeras i självgående maskiner, till en empirisk analys av hur s.k. spårvagnsproblem ska lösas, en systematisk analys av etiska principer som till exempel rättvisa, och en kritisk utvärdering av etiska ramverk.

Du har nått slutet på det här avsnittet.

Fortsätt till nästa avsnitt