Vilka problem möter AI-etik?
I det här avsnittet tar vi upp några av de viktigaste frågorna inom AI-etik:
AI:s inverkan på jobb
En färsk Tech.co-undersökning fann det 47 % av företagsledarna överväger AI framför nyanställningar, och artificiell intelligens har redan kopplats till en “liten men växande” antal uppsägningar i USA.
Alla jobb är inte lika utsatta, med vissa roller mer sannolikt att ersättas av AI än andra. En Goldman Sachs-rapport förutspådde nyligen att ChatGPT skulle kunna påverka 300 miljoner jobboch även om detta är spekulativt, har det redan beskrivits som en viktig del av den fjärde industriella revolutionen.
Samma rapport sa också att AI faktiskt har kapacitet att skapa fler jobb än vad det tränger undan, men om det orsakar en stor förändring i sysselsättningsmönster, vad är skyldig – om något – de som förlorar på det?
Har företag en skyldighet att spendera pengar och ägna resurser åt att omskola eller uppgradera sina anställda så att de inte blir eftersatta av ekonomiska förändringar?
Icke-diskrimineringsprinciper kommer att behöva tillämpas strikt i utvecklingen av alla AI-verktyg som används i anställningsprocesser, och om AI konsekvent används för fler och fler affärsuppgifter med hög insats som sätter jobb, karriärer och liv på spel, etiska överväganden kommer att fortsätta att uppstå i massor.
AI-bias och diskriminering
I stort sett fungerar AI-verktyg genom att känna igen mönster i enorma datamängder och sedan använda dessa mönster för att generera svar, slutföra uppgifter eller utföra andra funktioner. Detta har lett till ett stort antal fall av AI-system som visar partiskhet och diskriminerar olika grupper av människor.
Det överlägset enklaste exemplet att förklara detta är ansiktsigenkänningssystem, som har en lång historia av diskriminering av människor med mörkare hudtoner. Om du bygger ett ansiktsigenkänningssystem och enbart använder bilder av vita människor för att träna det, finns det alla chanser att det kommer att kunna känna igen ansikten ute i den verkliga världen.
På det här sättet, om dokumenten, bilderna och annan information som används för att träna en given AI-modell inte exakt representerar de människor som den ska tjäna, så finns det stor chans att det kan sluta diskriminera specifik demografi.
Tyvärr är ansiktsigenkänningssystem inte det enda stället där artificiell intelligens har tillämpats med diskriminerande resultat.
Använder AI i anställningsprocesser hos Amazon skrotades 2018 efter att det visade en kraftig partiskhet mot kvinnor som ansöker om mjukvaruutveckling och tekniska roller.
Flera studier har visat det prediktiva polisiära algoritmer som används i USA att tilldela polisresurser är rasistiskt partiska eftersom deras utbildningsuppsättningar består av datapunkter utvunna från systematiskt rasistiska polisiära metoder, skulpterade av olaglig och diskriminerande politik. AI kommer, om den inte ändras, att fortsätta att återspegla de fördomar och skillnader som förföljda grupper redan upplevt.
Det har varit problem med AI-bias i samband med att förutsäga hälsoresultatockså – Framingham Heart-studien Cardiovascular Score var till exempel mycket exakt för kaukasier, men fungerade dåligt för afroamerikaner, konstaterar Harvard.
Ett intressant nyligen fall av AI-bias fann det ett verktyg för artificiell intelligens som används i moderering av innehåll i sociala medier – designad för att fånga upp “rasighet” i bilder – var mycket mer benägen att tillskriva denna egenskap till bilder av kvinnor än till män.
AI och ansvar
Tänk dig en värld där helt autonoma självkörande bilar utvecklas och används av alla. Statistiskt sett är de mycket, mycket säkrare än människodrivna fordon, kraschar mindre och orsakar färre dödsfall och skador. Detta skulle vara en självklar, nettonytta för samhället.
Men när två människodrivna bilar är inblandade i en fordonskollision, kan insamling av vittnesrapporter och granskning av CCTV-bilder ofta klargöra vem den skyldige är. Även om det inte gör det, kommer det att vara en av de två individerna. Ärendet kan utredas, domen avkunnas, rättvisa kan avkunnas och målet avslutas.
Om någon dödas eller skadas av ett AI-drivet system är det inte direkt uppenbart vem som är ansvarig i slutändan.
Är personen som designade algoritmen som driver bilen ansvarig, eller kan själva algoritmen hållas ansvarig? Är det individen som transporteras av det autonoma fordonet för att inte vara på vakt? Är det regeringen som tillåter dessa fordon på vägen? Eller är det företaget som byggde bilen och integrerade AI-tekniken – och i så fall skulle det vara ingenjörsavdelningen, VD:n eller majoritetsägaren?
Om vi bestämmer oss för att det är AI-systemet/algoritmen, hur håller vi det ansvariga? Kommer offrens familjer att känna att rättvisa skipas om AI helt enkelt stängs av, eller bara förbättras? Det skulle vara svårt att förvänta sig att familjemedlemmar till de sörjande skulle acceptera att AI är en kraft för det goda, att de bara är olyckliga och att ingen kommer att hållas ansvarig för sin älskades död.
Vi är fortfarande en bit ifrån universell eller till och med utbredd autonom transport – Mckinsey förutspår precis 17 % av nya personbilar kommer att ha vissa (nivå 3 eller högre) autonoma köregenskaper till 2035. Helt autonoma bilar som inte kräver någon förarkontroll är fortfarande ganska långt borta, än mindre ett helt autonomt privat transportsystem.
När du har icke-mänskliga aktörer (dvs artificiell intelligens) som utför jobb och följduppgifter utan mänsklig avsikt, är det svårt att kartlägga traditionella förståelser av ansvar, ansvar, ansvarighet, skuld och straff.
Tillsammans med transporter kommer ansvarsproblemet också intimt att påverka vårdorganisationer som använder AI under diagnoser.
AI och integritet
Sekretesskampanjgruppen Privacy International höjdpunkter ett antal integritetsfrågor som har uppstått på grund av utvecklingen av artificiell intelligens.
En är omidentifieringen. “Personliga data är rutinmässigt (pseudo-) anonymiserade inom datauppsättningar, AI kan användas för att avanonymisera denna data,” säger gruppen.
En annan fråga är att utan AI kämpar människor redan för att fullt ut förstå i vilken utsträckning data om deras liv samlas in, genom en mängd olika enheter.
Med framväxten av artificiell intelligens kommer denna massinsamling av data bara att bli värre. Ju mer integrerad AI blir med vår befintliga teknik, desto mer data kommer den att kunna samla in, under sken av bättre funktion.
Bortsett från hemligt insamlad data är mängden data som användare fritt matar in i AI-chatbotar ett problem i sig. En studie tyder nyligen på att runt 11 % av dataarbetarna klistrar in i ChatGPT är konfidentiellt – och det finns väldigt lite offentlig information om exakt hur allt detta lagras.
När AI-verktygen för allmän användning utvecklas kommer vi sannolikt att stöta på ännu fler integritetsrelaterade AI-problem. Just nu låter ChatGPT dig inte ställa en fråga om en individ. Men om AI-verktyg för allmänt bruk fortsätter att få tillgång till allt större uppsättningar livedata från internet, kan de användas för en mängd invasiva åtgärder som förstör människors liv.
Detta kan hända snabbare än vi tror också – Google uppdaterade nyligen sin integritetspolicyförbehåller sig rätten att skrapa allt du lägger upp på internet för att träna dess AI-verktyg, tillsammans med dess Bard-ingångar.
AI och immateriella rättigheter
Detta är en relativt mindre etisk fråga jämfört med några av de andra diskuterade, men en som ändå är värd att överväga. Ofta finns det lite tillsyn över de enorma uppsättningar data som används för att träna AI-verktyg – särskilt de som tränas på information som är fritt tillgänglig på internet.
ChatGPT har redan startat en stor debatt om upphovsrätt. OpenAI bad inte om tillåtelse att använda någons arbete för att utbilda familjen av LLM som driver det.
Rättsliga strider har redan börjat. Det är komikern Sarah Silverman enligt uppgift stämmer OpenAI – liksom Meta – med argumentet att hennes upphovsrätt hade kränkts under utbildningen av AI-system.
Eftersom detta är en ny typ av fall, finns det få juridiska prejudikat – men juridiska experter hävdar att OpenAI sannolikt kommer att hävda att användningen av hennes arbete utgör “tillåten användning”.
Det kan också finnas ett argument att ChatGPT inte “kopierar” eller plagierar – det är snarare “lärande”. På samma sätt skulle Silverman inte vinna ett mål mot en amatörkomiker för att bara titta på hennes program och sedan förbättra deras komedikunskaper baserat på det, utan tvekan, hon kan kämpa med den här också.
Hantera miljöpåverkan från AI
En annan aspekt av AI-etiken som för närvarande befinner sig i periferin av diskussionen är miljöpåverkan från artificiell intelligenssystem.
Ungefär som bitcoin-mining kräver utbildning av en artificiell intelligensmodell en enorm mängd beräkningskraft, och detta kräver i sin tur enorma mängder energi.
Att bygga ett AI-verktyg som ChatGPT – strunt i att underhålla det – är så resurskrävande att bara stora teknikföretag och nystartade företag som de är villiga att sätta pengar på har haft förmågan att göra det.
Datacenter, som krävs för att lagra den information som behövs för att skapa stora språkmodeller (liksom andra stora tekniska projekt och tjänster), kräver enorma mängder el för att drivas. De beräknas konsumera upp till 4 % av världens el till 2030.
Enligt en studie från University of Massachusetts för flera år sedan, att bygga en enda AI-språkmodell “kan släppa ut mer än 626 000 pund koldioxidekvivalenter” – vilket är nästan fem gånger så många utsläpp som en amerikansk bil under hela livet.
Rachana Vishwanathula, en teknisk arkitekt på IBM, uppskattade dock i maj 2023 att koldioxidavtrycket för att helt enkelt “köra och underhålla” ChatGPT är ungefär 6782,4 toner – vilket EPA säger motsvarar de utsläpp av växthusgaser som produceras av 1 369 bensindrivna bilar över ett år.
När dessa språkmodeller blir mer komplexa kommer de att kräva mer datorkraft. Är det moraliskt att fortsätta utveckla en allmän intelligens om den datorkraft som krävs ständigt förorenar miljön – även om det har andra fördelar?
Kommer AI att bli farligt intelligent?
Denna etiska oro lyftes nyligen fram av Elon Musk, som lanserade en AI-startup med målet att undvika en “terminator-framtid” genom ett “maximalt nyfiken”, “pro-humanity” artificiell intelligenssystem.
Denna typ av idé – ofta kallad “artificiell allmän intelligens” (AGI) – har fångat fantasin hos många dystopiska sci-fi-författare under de senaste decennierna, liksom idén om teknisk singularitet.
Många tekniska experter tror att vi är rättvisa fem eller sex år bort från något slags system som skulle kunna definieras som “AGI”. Övrig experter säger att det finns en 50/50 chans vi kommer att nå denna milstolpe 2050.
John Tasioulas ifrågasätter om denna syn på hur AI kan utvecklas är kopplad till etikens avståndstagande från centrum för AI-utvecklingen och den tekniska determinismens genomträngning.
Den skrämmande idén om någon sorts superväsen som från början är designad för att uppfylla ett syfte, men skäl som det skulle vara lättast att uppfylla genom att helt enkelt utplåna mänskligheten från jordens yta, är delvis skulpterad av hur vi tänker om AI: oändligt intelligent, men konstigt känslolös och oförmögen till mänsklig etisk förståelse.
Ju mer benägna vi är att sätta etiken i centrum för vår AI-utveckling, desto mer sannolikt är det att en eventuell artificiell allmän intelligens kommer att inse, kanske i större utsträckning än många nuvarande världsledare, vad som är djupt fel med förstörelsen av mänskligt liv.
Men frågorna florerar fortfarande. Om det är en fråga om moralisk programmering, vem får bestämma över den moraliska koden, och vilken typ av principer ska den innehålla? Hur kommer den att hantera de moraliska dilemman som har genererat tusentals år av mänsklig diskussion, utan att det fortfarande finns någon lösning? Tänk om vi programmerar en AI att vara moralisk, men den ändrar sig? Dessa frågor måste övervägas.