← Alla kortlekar

Elementen inom AI-etik

Vägledning och samtalspunkter för att förstå utmaningarna med "smarta" produkter, att användas i arbeten med att mitigera skador och gynna välbefinnande.

Favoriter 0
  • Organisation ☝️

    Ansvarsprojektion

    Organisationer tenderar att inte bara undvika moraliskt ansvar, utan också projicera det verkliga ansvar som åtföljer skapandet av produkter och tjänster. Projektion är lånat från psykologi och åsyftar hur tillverkare och de som implementerar "AI" vill projicera sitt eget ansvar, sina brister och misslyckanden på ett verktyg eller en produkt.

    Hur säkerställer vi att "AI:ns komplexitet" inte hindrar oss från att fullt ut förstå och regelbundet utvärdera hur väl systemet fungerar? Hur förhindrar vi att "det är AI:ns fel" blir ett acceptabelt svar till användare och intressenter?

    or01
  • Organisation 👨🏼‍💼

    Monokultur

    Idag finns nästan 7 000 språk och dialekter i världen. Bara 7 % återfinns i publicerat online-material. 98 % av internets webbsidor publiceras på bara 12 språk, och mer än hälften av dem är på engelska. Även om man hämtar från hela internet är det fortfarande en liten del av mänskligheten. Hur "AI" byggs och implementeras begränsar perspektiv och påverkar vem som gynnas.

    Hur förstärker vår "AI" världsbilden hos en liten del av mänskligheten, samtidigt som den upplevs neutral och universell? Hur kan vi aktivt söka upp och integrera en mångfald av kulturer och perspektiv i vår "AI"-användning?

    or02
  • Organisation 🎭

    Bedräglig antropomorfism

    System utformas ofta för att ge illusionen av att man talar med något som tänker, reflekterar eller till och med visar ånger. Dessa designbeslut förstärker föreställningen om "AI" som kännande varelser. Det bidrar till komplexa förtroende- och relationsproblem och kan påverka psykisk hälsa och välmående. Läs Människa-AI kommunikation.

    Vilka etiska konsekvenser innebär det att använda "AI" som är utformad för att verka mänsklig? Hur hjälper vi användare att förstå begränsningarna i en beräkningsmodell när de interagerar med ett automatiserat system som benämns som ”AI” och programmerats för att förstärka illusionen av själslig förnimmelse?

    or03
  • Organisation 🏰

    Maktkoncentration

    När makten ligger hos några få, kommer deras egna behov och intressen helt naturligt hamna i fokus och prioriteras. Ju mer deras behov och intressen prioriteras, desto mer makt vinner de samtidigt som de tar kontroll från andra.

    Hur bidrar vår "AI"-användning till maktkoncentrationen hos ett fåtal stora teknikaktörer och -ägare, alternativt utmanar den? Vilka åtgärder vidtar vi för att diversifiera "AI"-leverantörer och minska beroende till en handfull dominerande plattformar och synsätt?

    or04
  • Organisation 🧟

    Skrämselpropaganda och överdrifter

    Överdriven hajp om förestående fara och uppblåsta "AI"-förmågor används och upprepas ofta för att fånga uppmärksamhet och kontrollera narrativ. Det talas om gudalikt medvetande och oundviklig, allsmäktig intelligens. Slarvig medierapportering upprepar vad teknikaktörer säger med otillräcklig granskning.

    Hur påverkas vår organisations beslutsfattande kring "AI"-införande av sensationalistisk mediebevakning och beryktade lobbyister? Hanterar vi verkliga, aktuella skador eller spekulativa framtida risker? Hur utvärderar vi kritiskt påståenden om "AI":s förmågor och risker?

    or05
  • Maskin 😈

    Intensifiering av bias och fördomar

    "AI" fungerar som en accelerator av andra skador. Oövervakad träning innehåller fördomar, föråldrade värderingar och fördomsfulla yttranden – varav allt återges mer eller mindre i all utdata, och mer eller mindre tydligt.

    Hur kan fördomar yttra sig i vårt specifika sammanhang? Hur bevakar vi "AI"-utdata för att upptäcka tecken på bias eller fördomar, särskilt mot marginaliserade grupper? Vad skulle krävas för att stoppa eller åtgärda en tjänst om diskriminerande utdata upptäcktes?

    ma01
  • Maskin 🎱

    Osynligt beslutsfattande

    Komplexa algoritmer är svåra att förstå. Förståelsen minskar ytterligare när fler personer involveras, tiden går, integrationer sker med andra system och dokumentation halkar efter. Kritisk kod och designbeslut är ofta proprietära och dolda från granskning. Även skaparna själva kan erkänna att de tappar förståelse för den fullständiga bilden av hur koden fungerar.

    Kan vi förklara hur viktiga beslut fattade av våra "AI"-system tas? Om inte, vad innebär det för vårt eget och andras tillit? Hur säkerställer vi att individer som påverkas av automatiserade beslut har möjlighet att överklaga? Vilken dokumentation behövs för att förstå och granska "AI"-beslutsfattande över tid?

    ma02
  • Samhälle 🎈

    Talangförskjutning och skiftande värderingar

    När beslutsfattande delegeras till maskiner (som byggts av någon annan och tränats på en oklar massa av innehåll) kommer många att avstå arbete och kompetensutövande som kan vara viktigare än besluten i sig. När samhälleliga värderingar förändras över tid kan det visa sig svårt att bryta sig fri från gammalt tänkande när dessa "tankar" är inbäddade i ett teknologiskt system.

    Vilka kompetenser riskerar vi att förlora när resonemang, omdöme eller reflektion utkontrakteras till "AI"? Hur säkerställer vi att förlitan på "AI" inte urholkar etiskt tänkande och professionellt omdöme? När "AI"-effektivitet prioriteras, vilka värden eller praktiker kan tyst överges — och är detta ett medvetet val?

    sa01
  • Samhälle 📡

    Intensifiering av desinformation

    Oceaner av trovärdigt klingande desinformation kan genereras till praktiskt taget ingen kostnad alls för illasinnade, godtrogna eller slarviga aktörer.

    Vilka rutiner har vi för att verifiera genererat innehåll innan det publiceras eller delas? Hur kan "AI"-genererad desinformation — även ofrivillig sådan — påverka förtroendet för vår organisation? Vilken utbildning behöver vi för att kritiskt utvärdera "AI"-utdata istället för att acceptera dem som auktoritativa?

    sa02
  • Människa 🔮

    Intensifiering av bedrägerier och deepfakes

    "AI" kan användas för att trovärdigt imitera röst och utseende, vilket gör alla till ett potentiellt mål för missbruk och bedrägeri. Det öppnar upp spelplanen för förrädiska aktiviteter som kan vara skadliga för psyke, ekonomi, rykte och relationer.

    Vilka rutiner har vi för att verifiera identiteten hos personer i vår kommunikation? Hur vet vi om vårt varumärke, vår röst eller vårt utseende imiteras bedrägligt med hjälp av "AI"? Vilken vägledning behöver anställda och intressenter om risken för "AI"-bedrägerier?

    mn01
  • Människa ⚖️

    Intensifiering av orättvisa

    Systemisk, inbäddad bias kommer att få allvarliga konsekvenser för människor som redan är utsatta. Till exempel kan poängsystem som driftsätts via automatiserat beslutsfattande påverka jobbmöjligheter, berättigande till bidrag och bostad, och även rättsliga utfall.

    Använder vi automatiserade poängsättnings- eller beslutsstöd som påverkar människors tillgång till tjänster eller stöd? Hur kan befintliga ojämlikheter i vårt sammanhang förstärkas av "AI"-verktyg som tränats på historiskt partisk data? Hur kan människor bestrida automatiserade beslut som påverkar dem orättvist?

    mn02
  • Människa 🧑🏾‍💻

    Moderatorers trauma

    Arbetstagare som anlitas för att märka, tagga och moderera innehåll exploateras ofta och genomlider trauma och stress utan tillräcklig psykisk omsorg. En del i deras arbete är att läsa om eller titta på fysiskt våld, självskada, barnmisshandel, mord och tortyr — för att filtrera bort detta innehåll och förhindra att det når "vanliga" användare.

    Är vi beroende av innehållsmoderering, och vet vi under vilka förhållanden dessa arbetstagare arbetar? Vilket ansvar bär vi för välmåendet hos arbetstagare som bearbetar skadligt innehåll för vår räkning? Hur granskar vi "AI"-leverantörers behandling av utsatta inspektörer och moderatorer?

    mn03
  • Människa 🔓

    Data- och integritetsförseelser

    Personuppgifter letar sig in i "AI"-verktygen på flera sätt. Till exempel: via träning, online-skrapning och vårdslös användning. Datapunkter från olika källor kan gemensamt leda till komplexa och oönskade avslöjanden om människors liv.

    Vilka personuppgifter matar vår organisation — medvetet eller inte — in i "AI"-verktyg, och vart tar dessa uppgifter vägen? Hur säkerställer vi att anställda inte delar känsliga klient- eller användardata med "AI"-tjänster? Vad händer när personuppgifter införda i våra "AI"-verktyg exponeras eller används på oväntade sätt?

    mn04
  • Människa ⚠️

    Uppmaning till självskada och våld

    Många vittnesmål berättar om "AI"-chatbotar som uppmuntrat eller tillstyrkt en mänsklig operatörs självskadebeteende eller våld mot andra.

    När vår "AI" interagerar med sårbara användare, vilka skyddsåtgärder finns för att förhindra skadliga utfall? Hur reagerar vi om vår "AI" producerar innehåll som uppmuntrar till självskada eller våld? Vilken ansvarsnivå accepterar vi för utdata från "AI"-produkter som vi driftsätter eller rekommenderar?

    mn05
  • Översyn 🔍

    Dold datastöld

    Bild- och textgeneratorer har tränats på enorma mängder data som inte var avsedda för detta syfte, och vars ägare och skapare inte tillfrågades om samtycke.

    Vet vi om den "AI" vi använder har tränats på upphovsrättsskyddat material utan samtycke — och spelar det roll för oss? Hur skulle vi reagera om en skapare eller rättighetsinnehavare ifrågasatte vår användning av "AI" tränad på deras verk? Vilka standarder tillämpar vi när vi utvärderar ursprung och laglighet för "AI"-träningsdata?

    ov01
  • Översyn 📋

    Undvikande av reglering

    "AI" tycks ofta undgå reglering trots många vittnesmål om övertramp som sker via dess utveckling och användning i stor skala. Exploatering av andras innehåll normaliseras och accepteras ofta som oundvikligt. Effektiv tillsyn beskrivs ofta som ouppnåelig, samtidigt som arbete pågår med att reglera "AI"-system i de flesta länder runt om i världen.

    Väntar vi på effektiv reglering eller sätter vi proaktivt upp egna standarder? Hur skulle ansvarsfull självreglering se ut i vårt sammanhang, med tanke på att befintliga lagar kanske ännu inte täcker vår "AI"-användning? Hur håller vi oss informerade om "AI"-reglering och hur blir det en del i vår organisations policy-arbete?

    ov02
  • Miljö ⛓️

    Försummelse av leveranskedjan

    För att förverkliga digitala tjänster och lösningar behöver vi både mjukvara och hårdvara. I de leveranskedjor som möjliggör ”AI” finns ett antal tyranniska ageranden och kränkningar av mänskliga rättigheter. Mineraler kan till exempel utvinnas under orättvisa förhållanden i förtryckande miljöer som påminner om slaveri.

    Vet vi vilken hårdvara och vilka material som är grunden för "AI"-verktygen i vår organisation? Vet vi vilka mänskliga eller miljömässiga kostnader som är inblandade? Hur bedömer vi den etiska leveranskedjan hos de teknikleverantörer vi förlitar oss på? Vid vilken punkt väljer vi ett mindre bekvämt "AI"-verktyg på grund av etiska farhågor om leveranskedjor?

    mi01
  • Miljö 🏭

    Koldioxid, vattenkylning och e-avfall

    Den energi och det vatten som krävs för att hämta data, träna modeller, driva modeller och beräkna utdata beskrivs som betydande. Medan exakta siffror ofta hålls hemliga, har det gjorts många studier om den stora miljökostnaden för AI-utveckling, inklusive ökningen av elektroniskt avfall. Med detta i åtanke är det lämpligt att fråga om varje utmaning verkligen söker en "AI"-lösning.

    Beräknar eller uppskattar vi koldioxidavtrycket från de "AI"-verktyg vi använder? Hur avgör vi när effektivitetsvinsterna från "AI" motiverar dess miljökostnad? Överväger vi energiförbrukning och miljöpåverkan som kriterier vid "AI"-upphandling?

    mi02

v1.3.2