Etisk användning av AI

Etisk AI

Etisk AI innebär att använda artificiell intelligens på ett sätt som respekterar mänskliga rättigheter, främjar rättvisa, skyddar integritet och säkerställer transparens. Detta omfattar både hur AI-system utvecklas och hur de används i praktiken. Enligt en PwC undersökning 2024 är det bara en procent av svenska befolkningen som har förtroende för AI och 18 procent att de är mycket eller ganska benägna att lita på AI så det kommer få mer fokus det närmaste året.

Centrala aspekter av etisk användning av AI:

  1. Transparens och ansvarighet: AI-system bör vara transparenta, vilket innebär att beslutsprocesserna inom systemen ska vara förståeliga och spårbara. Ansvarighet innebär att det måste finnas tydliga ansvarsområden och mekanismer för att hantera fel och missbruk av AI-teknik.
  2. Rättvisa och icke-diskriminering: AI-system bör utvecklas och användas på ett sätt som undviker diskriminering och främjar rättvisa. Detta innebär att systemet inte får baseras på bias eller partiska data som kan leda till orättvisa beslut mot vissa grupper.
  3. Integritet och säkerhet: Användningen av AI bör skydda individers integritet och säkerhet. Detta innebär att personuppgifter som används av AI-system måste hanteras med stor omsorg och i enlighet med dataskyddsregler och principer.
  4. Mänsklig kontroll: AI bör användas som ett stödverktyg för människor snarare än en ersättning. Det är viktigt att människor alltid har möjlighet att förstå och kontrollera AI-systemens beslut och resultat.

Utmaningar och risker

Den etiska användningen av AI möter flera utmaningar och risker:

  • Bias i data och algoritmer: AI-system är beroende av de data de tränas på. Om dessa data är partiska kan AI-systemet göra diskriminerande eller felaktiga beslut. Algoritmer som favoriserar viss typ av innehåll kan förstärka fördomar. Detta kräver noggrann granskning och justering av data och algoritmer.
  • Brist på transparens: Många AI-algoritmer, särskilt de som bygger på maskininlärning, kan vara svåra att förstå och förklara. Detta kan leda till bristande förtroende och svårigheter att fastställa ansvarighet vid felaktiga beslut. Exempelvis vem bär ansvaret om ett AI-beslut leder till felbehandling?
  • Övervakning och integritet: AI används ofta i övervakningssyfte, vilket kan leda till integritetsintrång. Det är avgörande att balansen mellan säkerhet och individers rätt till privatliv upprätthålls.
  • Spridning av desinformation: AI kan sprida falsk information snabbare och mer effektivt.

En annan stor utmaning är hur mycket energi som konsumeras av artificiell intelligens. AI-system, särskilt stora språkmodeller, kräver betydande mängder energi för träning och drift. Energiåtgången för olika AI-modeller varierar kraftigt, från mycket energikrävande system som GPT-4 till mer optimerade lösningar som Bard, numera Gemini. Detta väcker etiska frågor kring miljöpåverkan och hållbarhet. Utvecklare och företag behöver ta hänsyn till energieffektivitet vid val och implementering av AI-system.

Utmaningar i olika branscher med AI

I takt med att artificiell intelligens (AI) fortsätter att utvecklas och integreras i olika branscher, uppstår allt fler etiska frågor och utmaningar. Detta gäller särskilt för branscher som hälsovård, finans, media och statlig övervakning.

Inom hälsovård är patientdata mycket känslig, och det är avgörande att skydda den från obehörig åtkomst och missbruk. AI-algoritmer som används för diagnostik måste också vara fria från bias för att säkerställa rättvis behandling av alla patienter, oavsett kön, etnicitet eller socioekonomisk bakgrund. En annan viktig fråga är ansvaret vid medicinska beslut som baseras på AI-rekommendationer. Om ett AI-system ger en felaktig diagnos eller behandlingsrekommendation, vem bär då ansvaret?

Inom finanssektorn används AI för att automatisera och förbättra olika processer, såsom kreditvärdering, algoritmisk handel och upptäckt av finansiella bedrägerier. Rättvisa i utlåning är avgörande för att säkerställa att alla kunder behandlas lika. AI-algoritmer måste vara transparenta och förklarbara för att bygga förtroende hos kunderna. Transparens i automatiska beslut är viktigt för att kunna förklara hur ett beslut har fattats, vilket är särskilt relevant vid negativa besked som låneavslag. Upptäckt av finansiella bedrägerier är ett område där AI har visat stor potential, men det är också viktigt att systemen är noggrant övervakade för att undvika falska anklagelser och skydda kundernas integritet.

Mediesektorn har påverkats kraftigt av AI-teknik, från nyhetsgenerering, contentproduktion till innehållsmoderering och personaliserat innehåll. Spridning av desinformation är en av de mest akuta frågorna. AI kan skapa och sprida falsk information snabbt och effektivt, vilket kan ha allvarliga konsekvenser för samhällsdebatten och demokratin. Bias i rekommendationsalgoritmer kan förstärka befintliga fördomar och skapa filterbubblor som begränsar användarnas exponering för olika perspektiv. Integritet i riktad reklam är också en stor fråga, eftersom AI-system använder stora mängder persondata för att skräddarsy annonser, vilket kräver noggrann hantering för att skydda användarnas integritet.

Användningen av AI inom statlig övervakning har ökat, med teknologier som ansiktsigenkänning och prediktiv polisingripande. Integritetskränkning är en central fråga, då övervakningstekniker kan invadera privatlivet på ett sätt som tidigare inte var möjligt. Missbruk av övervakningsdata är en annan risk, där insamlad data kan användas för andra ändamål än vad som var avsett, vilket kan leda till allvarliga integritetsbrott. Medborgerliga rättigheter kan påverkas om AI används felaktigt inom rättsväsendet, till exempel genom att AI-system används för att förutsäga och förebygga brott, vilket kan leda till diskriminering och orättvisa ingripanden.

Åtgärder för etisk AI

För att säkerställa etisk användning av AI behövs en kombination av reglering, företagsansvar och medvetenhet hos allmänheten:

  1. Reglering och standarder: Utvecklingen av tydliga lagar och riktlinjer som reglerar användningen av AI är nödvändig. Detta inkluderar dataskyddsregler, riktlinjer för transparens och krav på ansvarsrapportering.
  2. Företagsansvar: Företag som utvecklar och använder AI bör implementera etiska riktlinjer och principer i sina arbetsprocesser. Detta inkluderar regelbunden granskning av AI-system för att säkerställa att de följer etiska standarder.
  3. Utbildning och medvetenhet: Ökad medvetenhet om AI och dess etiska implikationer bland allmänheten och yrkesverksamma är viktigt.

Etisk användning av AI enligt UNESCO

AI kan påverka friheter och rättigheter om den används felaktigt. Den internationella organisationen UNESCO har kommit med en rekommendation kring etisk AI som sätter 10 mänskliga rättigheter i centrum.

  1. Proportionalitet och ”Do No Harm”
    Användningen av AI-system får inte gå utöver vad som är nödvändigt för att uppnå ett legitimt mål. Riskbedömning bör användas för att förhindra skador som kan uppstå från sådana användningar.
  2. Säkerhet och trygghet
    Oönskade skador (säkerhetsrisker) samt sårbarheter för attacker (säkerhetsrisker) bör undvikas och åtgärdas av AI-aktörer.
  3. Rätt till integritet och dataskydd
    Integriteten måste skyddas och främjas under hela AI-livscykeln. Lämpliga dataskyddsramverk bör också etableras.
  4. Multi stakeholder och adaptiv governance & collaboration
    Internationell lag och nationell suveränitet måste respekteras vid användning av data. Dessutom är deltagande av olika intressenter nödvändigt för inkluderande tillvägagångssätt för AI-styrning.
  5. Ansvar och ansvarsutkrävande
    AI-system bör vara granskbara och spårbara. Det bör finnas tillsyns-, konsekvensbedömnings-, revisions- och tillbörlig aktsamhetsmekanismer på plats för att undvika konflikter med normer för mänskliga rättigheter och hot mot miljöns välmående.
  6. Transparens och förklarbarhet
    Den etiska användningen av AI-system beror på deras transparens och förklarbarhet (T&E). Nivån av T&E bör vara lämplig för sammanhanget, eftersom det kan finnas spänningar mellan T&E och andra principer som integritet, säkerhet och trygghet.
  7. Mänsklig tillsyn (human oversight) och bestämmanderätt
    Medlemsstaterna bör säkerställa att AI-system inte ersätter det yttersta mänskliga ansvaret och ansvarsutkrävandet.
  8. Hållbarhet
    AI-teknologier bör bedömas utifrån deras påverkan på ”hållbarhet”, förstådd som en uppsättning ständigt utvecklande mål, inklusive de som anges i FN  mål för hållbar utveckling.
  9. Medvetenhet och Kunskap Allmänhetens förståelse av AI och data bör främjas genom öppen och tillgänglig utbildning, medborgerligt engagemang, digitala färdigheter och AI-etikutbildning, medie- och informationskunnighet.
  10. Rättvisa och Icke-Diskriminering
    AI-aktörer bör främja social rättvisa, rättvisa och icke-diskriminering samtidigt som de tar ett inkluderande tillvägagångssätt för att säkerställa att AI fördelar är tillgängliga för all

Läs mer

Etisk användning av AI inom Svenska Advokatsamfundet

Sveriges advokatsamfund har släppt allmänna råd om användning av generativa AI-modeller i advokatverksamhet vilket godkänts av organisationens styrelse. Organisationen har ett större arbete för att ta fram mer heltäckande vägledning men det kommer senare under 2024. Listan över praktiska råd i dokumentet är inte uttömmande. Den utgör endast exempel på överväganden som advokatbyråer bör göra inför användning av generativa AI-modeller i advokatverksamhet. Likt vad som i allmänhet förespråkas för advokatverksamhet handlar det om att använda sunt förnuft, iaktta viss försiktighet samt vidta åtgärder till skydd för information och upprätthållande av yrkesplikter.

Sammanfattningsvis

Regelefterlevnad

  • Vid användning av generativa AI-modeller ska en advokat säkerställa att användningen inte står i strid med gällande
    rätt eller vad som följer av god advokatsed.
  • En advokat behöver säkerställa att personuppgifter behandlas på ett ansvarsfullt och lagenligt sätt.
  • En advokat behöver även säkerställa att användningen av generativa AI-modeller beaktar tredje mans rätt. En
    advokat bör kritiskt granska och kontrollera att promptar, indata, utdata och träningsdata inte inskränker tredje
    mans rätt, inklusive men inte begränsat till immateriella rättigheter, företagshemligheter, data samt rättigheter i
    avtal med tredje man

Rådgivningsansvaret

  • En advokat kan i sitt arbete komma att använda generativa AI-modeller på otaliga sätt, exempelvis för att
    granska avtal, upprätta och sammanfatta dokument, samt genomföra juridiska analyser och bedömningar.
  • Generativa AI-modeller kan emellertid generera utdata som är fiktiva, felaktiga, irrelevanta, stötande eller
    partiska. En advokat behöver därför typiskt sett kritiskt granska de resultat som en generativ AI-modell levererar
    innan resultaten införlivas i rådgivningen, såsom att verifiera källor, kontrollera statistik samt säkerställa
    tillämpligheten av lagar och rättsfall som refereras.
  • En advokats råd ska vara grundade på erforderliga undersökningar av gällande rätt. Det innebär att
    rådgivningsansvaret gäller fullt ut oavsett om rådet helt eller delvis baseras på resultat från en generativ
    AI-modell.

Tystnadsplikten, diskretionsplikten och sekretess

  • Vid användningen av generativa AI-modeller finns all anledning att överväga om information som användaren
    lämnar i tjänsten, t.ex. i promptar eller annan indata såsom filer med text, bild och ljud, blir tillgänglig för
    utomstående. Flera tjänster läser, sparar, återanvänder eller sprider information. Det kan ske i olika syften, t.ex.
    för att fortsätta träna och förbättra AI-tjänsten eller dela promptar och annan indata med andra användare.
  • Advokaten behöver säkerställa att den tystnadsplikt, diskretionsplikt och lagstadgade sekretess som gäller för
    advokatverksamheten iakttas.
  • En advokat bör granska användarvillkoren och annan relevant information för att avgöra hur modellen
    använder promptar eller annan indata som förs in i tjänsten samt att modellen uppfyller adekvata säkerhetskrav.
  • En advokat bör även rådgöra med IT- eller säkerhetsexpert för att säkerställa att den generativa AImodellen, där en advokat matar in konfidentiell
    klientinformation, kan svara upp till kraven på tystnadsplikt, diskretionsplikt och sekretess. Advokaten behöver därför, om det inte är fullständigt utrett att dessa skyldigheter upprätthålls, avstå från att
    föra in känslig eller annan klientrelaterad information i systemet, t.ex. genom promptar med specifika uppgifter.

Principalansvaret och kontorsorganisation

  • En advokat är bl.a. skyldig att vidta de åtgärder som rimligen kan ankomma på advokaten för att säkerställa
    att advokatbyråns personal fullgör sina uppgifter på sätt som god advokatsed kräver. Detta gäller även vid
    användning av generativa AI-modeller.
  • Mot denna bakgrund bör advokatbyrån anta och implementera tydliga riktlinjer gällande hur generativa
    AI-modeller får/inte får användas av personal på advokatbyrån, vilka advokatetiska regler och annan
    lagstiftning som kan bli tillämpliga på användandet av sådana modeller i verksamheten, samt de särskilda
    frågorna med avseende på bl.a. faktagranskning, transparens och etik som generativa AI-modeller ger
    upphov till. Givet hur snabbt teknologin utvecklas bör sådana riktlinjer uppdateras löpande.
  • Riktlinjerna kan även behöva följas upp av ytterligare utbildning och praktiska råd till personalen, genom
    exempelvis interna utbildningar. Detta för att säkerställa att personalen fullgör sina uppgifter på ett sätt som god
    advokatsed kräver.

Läs listan från advokatsamfundet

Om författaren

Website |  + posts

Daniel Larsson började jobba professionellt med webben 1994. Han är utbildad civilekonom inom marknadsföring och har jobbat +20 år som senior SEO-specialist. Daniel har arbetat inhouse som webbansvarig och marknadsansvarig. Han har på byråsidan varit konsult för flera av Sveriges största varumärken och suttit med i juryn för Nordic Search Awards och European Search Awards.