Det är 2019 och robotar finns överallt. De finns i våra fickor, våra bilar, våra kaffebryggare och ja även våra toaletter. Men det finns några jobb som robotar bara inte skär ut för, och vår samhälleliga oförmåga att se skillnaden har orsakat några allvarliga problem.
Teknik utvecklas ganska snabbt. Faktum är att det enda som utvecklas snabbare är vår förmåga att integrera ny teknik i våra dagliga liv. Smartphones har nästan blivit en större nödvändighet än syre under sitt korta decennium av existens, virtuella assistenter förverkligar robothjälpardrömmen för miljontals hushåll världen över, och artificiellt intelligensprogramvaran automatiserar fler jobb än någonsin tidigare.
Men medan robotar är särskilt skickliga på att svara på triviafrågor och rapportera vädret, kräver många jobb empati, sunt förnuft och andra personlighetsdrag som exklusivt finns hos människor. Ibland glömmer vi det i vår strävan att vara så effektiv som möjligt och använda teknik för att underlätta våra egna arbetsbelastningar.
Anställer
Inte OK, dator. Amazons anställnings AI hade en sexistisk strimma
Att söka jobb är en otroligt stressande process, men att anställa någon kan vara lika intensivt. Efter att ha läst igenom hundratals CV och genomfört dussintals intervjuer är det förståeligt att rekryterare så småningom skulle vända sig till robotar för att lätta belastningen. Tyvärr, som det visade sig förra året, är det mycket större fråga att förlita sig på att robotar är opartiska än du kanske inser.
Enligt Reuters måste Amazon skrota sin artificiellt intelligenta rekryteringsprogramvara för att vara partisk mot kvinnliga kandidater. Programvaran, som ursprungligen utvecklades 2014, utbildades på information som lämnats in av sökande under en tioårsperiod. På grund av teknikbranschens ökända könsgapsproblem var de flesta av dessa kandidater män, vilket ledde till att programvaran straffade kandidater med ordet ”kvinnor” var som helst på deras CV.
Detta är ett av de största hindren för artificiell intelligens. Eftersom artificiell intelligens är beroende av samhällsmönster och data, och vårt samhälle har en tendens att vara lite sexistiskt, antar robotar som Amazons rekryteringsprogramvara i sig sexistiska metoder. För att göra den här programvaran praktisk måste utvecklare hitta ett sätt att skriva bias ut ur programmeringen. Tyvärr har vi inte kommit fram till hur man gör det med människor än, än mindre robotar, så kanske vi borde hålla oss till god gammaldags mänsklig anställning.
Bränning
Att få sparken suger. Att förlora din inkomstkälla är tillräckligt för att få människor att bli allvarligt oroliga över vad deras framtid har, och det finns ingen robot som kan replikera de mänskliga känslorna som behövs för att lugnt och rimligt vägleda dem genom övergången. Men det betyder inte att vissa företag inte har försökt.
Speciellt en berättelse illustrerar problemet med ett automatiserat skjutningssystem. Sagan såg Ibrahim Diallo avskedas från sitt jobb utan anledning eller förklaring. När han kom till jobbet fungerade hans nyckelkort inte korrekt. Efter att ha släppts in av en säkerhetsvakt befann han sig låst utanför alla arbetsstationer och datorer. Han pratade med sin chef, som försäkrade honom att det var ett misstag och att han inte fick sparken. Strax efter det anlände två män till hans kontor med instruktioner om att ta bort honom från byggnaden.
“Jag fick sparken. Det var inget som min chef kunde göra åt det. Det var inget regissören kunde göra åt det. De stod maktlösa när jag packade mina saker och lämnade byggnaden, ”skrev Diallo i ett blogginlägg som beskriver situationen.
Diallos företag använde ett automatiserat system som, när en anställd avskedades, aktiverar ett antal processer, inklusive avaktivera nyckelkort, ta bort åtkomst till arbetsstationer och varna säkerheten för en nu ex-anställd som måste tas bort. Varje process börjar så snart en annan slutar, med ingen mänsklig interaktion nödvändig.
“Systemet var ute efter blod och jag var dess allra första offer.”
Men som Diallos chef förklarade för honom blev han inte avskedad. En före detta chef hade glömt att arkivera sitt pappersarbete korrekt, vilket hade orsakat att hans kontrakt upphörde och listades som tidigare anställd. Därefter aktiverades ”avfyringssystemet” och det fanns inget som någon kunde göra. Det tog tre veckor för chefer och styrelseledamöter i företaget att ångra misstaget, vilket kostade Diallo tre veckors lön och förtroendet hos ett automatiserat skjutningssystem.
Läkare
Läkare är några av de mest välutbildade yrkesverksamma i världen, men tekniken har verkligen förbättrat deras förmåga att göra sitt jobb. I själva verket har robotoperationer blivit ganska vanliga på sjukhus runt om i landet, vilket hjälper skickliga kirurger att utföra ännu mer livräddande ingrepp. Men sängsidan är verkligen ett verktyg i en bra läkares bälte, och robotar är bara inte där än. Vi önskar bara att någon hade sagt detta till följande läkare …
Vid Kaiser Permanente Medical Center i Fremont, Kalifornien, trodde en läkare att det skulle vara en bra idé att ge några dåliga nyheter till en patient med hjälp av en robot fäst på en videolänkskärm. Efter att ha berättat för den 78-årige mannen och hans familj att han hade några dagar att leva uttryckte familjen sin extrema och förståeliga frustration över vad de kallade “en grymhet för hur vård och teknik kolliderar.”
Robotkirurgi är en sak. Men att berätta för någon att de kommer att dö är inte ett jobb för en robot, oavsett hur läskigt realistiska vissa av dem blir. Mänsklig empati, medkänsla och till och med beröring är ännu inte replikerbar i robotar, och de är absolut nödvändiga när det gäller denna typ av medicinska uppgifter.
Bedömning och dömande
Precis som att anställa nya kandidater, sparka gamla anställda och utöva medicin på rädda patienter är att vara domare ett särskilt nyanserat yrke som kräver att en mänsklig touch görs rätt. Men med det straffrättsliga systemet som upplever anmärkningsvärda problem med hastighet kan det vara ett attraktivt alternativ till månadslånga väntetider att använda en algoritm för att hjälpa till med mindre detaljer. Det har dock också några ganska allvarliga konsekvenser om du inte kollar på det.
I en ProPublica-rapport med titeln Machine Bias undersökte forskare ett datorprogram utformat för att utvärdera brottslingar om deras potential att begå ett annat brott, särskilt i Florida. De fann att inte bara dessa bedömningar var väldigt felaktiga, de snedvred också betydligt rasistiskt och felaktigt flaggade svarta svarande dubbelt så ofta som vita svarande.
Dessa riskbedömningar används i minst tio stater i USA för att hjälpa domare att avgöra saker som att tilldela obligationsbelopp till fängelse. Och hade ProPublica inte tagit initiativet till att undersöka dessa riskbedömningar skulle systemet vara en ännu mer partisk röra.