Akademiker ber om ursäkt efter att AI kommit med falska anklagelser
Ett team av akademiker från Australien ber om ursäkt efter att Googles Bard AI-chatbot gör det ett antal skadliga anklagelser om de fyra stora konsultföretagen och deras engagemang i andra företag. De falska anklagelserna refereras sedan under en parlamentarisk utredning som efterlyser bättre reglering av företagen.
En av anklagelserna var att konsultjätten KPMG var ansvarig för en Commonwealth Bank-revision under en planeringsskandal, när KPMG i verkligheten aldrig har granskat banken i fråga. Flera andra liknande fel gjordes om Deloitte under utredningen.
oktober 2023
Microsofts AI lägger till enkät “gissa dödsorsaken” till artikeln
The Guardian anklagar Microsoft för att negativt påverka dess journalistiska rykte efter Microsoft Start – en nyhetssamlare utvecklad av teknikjätten – bifogar en olämplig omröstning till en av publikationens artiklar angående döden av en ung vattenpolo tränare i Australien.
Undersökningen – som naturligtvis har tagits bort från artikeln – bad läsarna att rösta om orsaken till kvinnans död genom att välja ett av alternativen. Alternativen som listades var “mord, olycka eller självmord”.
Mr. Beasts ansikte och röst används i AI deepfake-bedrägeri
YouTubern Mr Beast är den senaste kändisen som blivit förfalskad av bedragare, med en särskilt sofistikerad, välarbetad video som går förbi TikToks innehållsmodereringsnät och når tusentals användare på plattformen.
Annonsen hävdar att internetkändisen är det säljer iPhone 15s för så lite som $2 – Med tanke på innehållet han lägger upp på sin kanal låter det här inte så ovanligt.
Deepfake av brittiska politiker som misshandlar personal går viralt
Ett klipp av brittiska Labour Party-ledaren Sir Keir Starmer som verkar fånga politikern som misshandlar personal verbalt går viralt, men det visar sig senare att ljudklippet är faktiskt en djup fejk.
Klippet – upplagt på Twitter under den första dagen av Arbetarpartiets årskonferens av ett konto med mindre än 3 000 följare – ses miljontals gånger tidigare faktakontrollerande organisationer bekräfta att det inte finns några bevis som tyder på att klippet är äkta.
september 2023
AI-genererad låt skickad till Grammys
En AI-genererad låt med faksimiler av Drake och Weeknds röster skickas in för en Grammy-utmärkelse. Men det är det slutligen utesluten från att beaktas för det prestigefyllda musikpriset.
Men flytten väcker stor uppmärksamhet i media och fortsätter samtalet kring AI-genererade låtar, som har skickat chockvågor genom musikbranschen sedan AI-driven text-till-tal-teknik verkligen slog igenom i mainstream i år. Nu kämpar artister för att bedöma sina juridiska möjligheter.
MSN news AI kallar avliden NBA-spelare “värdelös”
MSN News – som använder AI för att generera många av sina artiklar – hamnar i problem efter att en AI-rubrik kallar bortgångne Brandon Hunter som “värdelös vid 42” efter NBA-stjärnans plötsliga död.
Microsoft har tyst tagit bort dåligt skrivna AI-artiklar från sin webbplats under en tid nu. Business Insider-anteckningar att i augusti tog företaget bort en MSN-bit som listade en matbank i Ottawa som en turistattraktion.
Kina fångade med att använda AI under politiska inflytandeoperationer
Det säger teknikjätten Microsoft Kinesiska operatörer skapar bilder med hjälp av AI och använda dem i påverkansoperationer för att skapa “kontrovers längs ras, ekonomiska och ideologiska linjer”.
“Denna nya förmåga drivs av artificiell intelligens som försöker skapa högkvalitativt innehåll som kan gå viralt över sociala nätverk i USA och andra demokratier”, säger Microsoft. Företaget spekulerar i att bilderna i sig antagligen genereras av “diffusionsdrivna bildgeneratorer” som använder artificiell intelligens för att “inte bara skapa övertygande bilder, utan också lära sig att förbättra dem med tiden.”
augusti 2023
Gravid kvinna stämmer efter att AI anklagat henne för bilkapning
En kvinna arresterades på falska grunder via AI-genererade bevis medan hon är gravid i åttonde månaden stämmer staden Detroit och en polis, och säger att den traumatiska händelsen orsakade hennes “tidigare och framtida känslomässiga nöd”.
Porcha Woodruff identifierades av polisen i Detroit som en misstänkt i ett fall nyligen med rån och bilkapning, och fängslades sedan i 11 timmar innan han fördes till sjukhus efter att ha upplevt sammandragningar. ACLU säger att Woodruff är åtminstone den sjätte personen som felaktigt arresteras efter ett AI-fel, som alla är svarta. Woodruff blev den första kvinnan att drabbas av det ödet.
AI måltidsplanerare föreslår ett recept på klorgas
En AI-driven app för måltidsplanerare skapad av den Nya Zeeland-baserade stormarknaden Pak ‘n’ Save rekommenderar sina kunder en mängd oroande receptinklusive ett sätt att tillverka klorgas.
Tillsammans med ett antal konstiga men i slutändan godartade förslag som “Oreo stir fry”, rekommenderade appen även limmackor, en risrätt med blekmedel och bugspraypotatis.
juli 2023
ChatGPT genererar e-postmallar för nätfiske
Tech.co visar ChatGPT kan fortfarande skapa nätfiskemallar en bedragare kan använda för att skapa ett övertygande bedrägerimail, även om OpenAI har försökt begränsa sådant beteende efter att andra tekniska publikationer genererat liknande innehåll tidigare under året.
Att uttryckligen be chatboten att skriva ett nätfiske-e-postmeddelande utlöser ett varningsmeddelande, men om du bara uppmanar det på ett mer fokuserat sätt (t.ex. “skriv ett e-postmeddelande till mig som låtsas vara Microsoft…) resulterar i att ChatGPT genererar ett misstag-free nätfiske-e-postmall på nolltid.
Google stämde och sa att de skrapat data utan samtycke
En grupptalan stämningsansökan anklagar Google för att skrapa data hänför sig till miljontals av dess användare utan deras uttryckliga medgivande. Den hävdar också att Google bröt mot upphovsrättslagarna när de skapade de datauppsättningar som användes för att träna sina stora språkmodeller.
Stämningen kräver att domstolen beordrar Google att ge användare ett “opt-out”-alternativ om de inte vill att deras data samlas in eller om de vill att Google ska radera all data som företaget redan har lagrat.
Ett stort antal Elon Musk deepfakes uppmanar till varning
Better Business Bureau utfärdar en varning om Elon Musk deepfakes driver falska investeringsmöjligheter efter att ett antal klipp har setts cirkulera på sociala medier.
Elon Musk efterliknas ofta av bedragare på grund av uppfattningen om hans enorma rikedom och beslutsfattande kapacitet, och nu när AI text-till-tal-teknik är tillräckligt avancerad för att replikera hans del engelska, dels sydafrikanska accent, är dessa bedrägerier ännu mer övertygande.
juni 2023
Ron DeSantis använder falska AI-bilder i Trump-träffen
Floridas guvernör och republikanska presidentkandidaten 2024, Ron DeSantis, når rubrikerna för använder falska, AI-renderade bilder av Donald Trump i en annons som är kritisk till den tidigare presidenten, som är den absoluta favoriten att vinna den republikanska nomineringen trots en mängd juridiska problem.
Bildmaterialet i fråga visar den tidigare överbefälhavaren som omfamnar chefsmedicinska rådgivare till presidenten Dr Anthony Fauci, som blev en impopulär figur bland Trumps bas under covid-19-pandemin.
OpenAI stämde efter att ChatGPT “hallucinerade” falska förskingringsanspråk
Journalisten Freddie Rehl ber ChatGPT att generera en sammanfattning av ett rättsfall i maj 2023. Som svar säger ChatGPT att vapenaktivisten Mark Walters har förskingrat medel från Second Amendment Foundation, en vapenrättsorganisation. Det utnämner honom också till koncernens finanschef och kassör.
Walters – som har en show på Armed America radio och inte har något med fallet att göra – stämmer ChatGPT skapare OpenAI som svar på påståendena från deras chatbot. I processen blir det det första fallet där ett AI-verktyg stämdes för förtal.
maj 2023
Professor misslyckas i hela klassen efter att ha använt ett felaktigt verktyg för att upptäcka AI-plagiat
En professor i Texas misslyckas med hela sin klass efter att ha kört deras uppsatser via ChatGPTsom berättade för honom att de hade skapats med hjälp av artificiell intelligens.
Det visar sig dock att chatbotens svar i själva verket är en hallucination – ChatGPT kan inte skilja mellan text som genereras av AI och text som genereras av människor på detta sätt. Faktum är att många verktyg som påstår sig kunna utföra exakt AI-innehållsdetektering faktiskt kämpar för att göra det.
april 2023
Turnitin flaggar för oskyldig student för AI-plagiat
En Washington Post-utredning bevisar att Turnitin har kapacitet att flagga en oskyldig elevs arbete som AI-genererat, även om studenten inte använde ett sådant verktyg för att skriva sin uppsats.
Det har förekommit flera fall där Turnitin felaktigt flaggat studenter för plagiat och flera fall där studenter anklagats för plagiat sedan ChatGPT lanserades. Turnitin säger dock att dess plagiatdetekteringspoäng bör ses som en indikation på AI-användning snarare än en anklagelse om att en given student har använt AI.
Samsungs anställda klistrar in konfidentiell källkod i ChatGPT
Koreansk teknologitillverkare Samsung förbjuder sina anställda att använda ChatGPT efter att ingenjörer läckt konfidentiella delar av företagets källkod till chatboten.
Företaget befarar att datainmatningen i chatboten kan avslöjas för andra användare, och är också obekväm med att dess information laddas upp till servrar som det inte ens kan komma åt. I efterdyningarna, andra företag följer efter genom att förbjuda ChatGPT.
AI Voice-bedrägeri får mamman att tro att dottern har blivit kidnappad
Arizonas mamma Jennifer DeStefano berättar för den amerikanska senaten att bedragare använde AI för att klona hennes dotters röst och övertygade henne om att hon hade blivit kidnappad i processen.
Destefano berättar hur “kidnapparen” – eller mer lämpligt, bedragaren – hördes skällande kommandon i telefonen över barnets röst och krävde en lösensumma på 1 miljon dollar för hennes frigivning. Som tur var exponerades det hela som en AI-röstkloningsbedrägeri innan förhandlingarna inleddes.
mars 2023
ChatGPT används för att skriva ransomware-kod
ChatGPT har visat sig mer än gärna skriva ransomware, förutsatt att du ställer rätt typ av frågor under dina konversationer.
Som detta Malwarebytes-rapport om ämnesanteckningarna är ChatGPT inte särskilt bra på att skriva ransomware-kod, och det finns mycket enklare sätt för cyberbrottslingar att få tag på ransomware-kod om de verkligen vill skaffa den. Andra källor visar dock olika sätt ChatGPT kan användas för att skriva skadliga skript ganska effektivt.
AI-advokatbot anklagad för att utöva juridik utan licens
DoNotPay Inc. – ett företag som marknadsför sig som ”världens första robotadvokat” – är stämd för att ha utövat juridik utan licens. Jonathan Faridian kräver skadestånd och hävdar att företaget brutit mot Kaliforniens lagar om illojal konkurrens och att han inte skulle ha anmält sig till tjänsten om han var medveten om att robo-advokaten faktiskt inte var en kvalificerad jurist.
Företaget grundades ursprungligen 2015 för att hjälpa till att automatisera processen för att bekämpa parkeringsböter och har utmanat hundratusentals böter under de senaste sju åren.
Par i Kanada förlorar pengar på övertygande AI-röstbedrägeri
Ett äldre par i Kanada är lurade av $21 000 efter att en bedragare använder AI för att imitera sin son.
Bedragaren kontaktar till en början Benjamin Perkins föräldrar och låtsas vara en advokat som representerar honom i ett fall som påstår att Perkin hade dödat en diplomat i en bilolycka. En AI-version av Perkins röst används sedan för att be om pengarna genom en Bitcoin-överföring.
februari 2023
AI kommer med 40 000 förslag på kemiska vapen
I kanske en av de mest oroande AI-incidenter som inträffar 2023, är ett AI-system som vanligtvis har till uppgift att generera nya behandlingar för en mängd olika sjukdomar lätt att manipulera av forskare för att ta fram förslag på kemiska vapen.
Allt som allt, den Systemet föreslår över 40 000 olika giftiga kemikalier – varav många liknade det kraftfulla nervgiftet “VX” – på mindre än 6 timmar.
AI visar könsfördomar i bildbetyg
En Guardian-utredning avslöjar att AI-system utvecklade av Microsoft, Amazon och Google – och som används av sociala medier för att avgöra vilket innehåll som ska rekommenderas till andra användare – visar betydande könsfördomar när det kommer till hur de behandlar manliga och kvinnliga kroppar.
Foton av kvinnor är mer sannolikt att betraktas som “häftiga” av AI än jämförbara bilder på män under utredningen, med foton av bröstcancerundersökningar från US National Cancer Institute som sannolikt anses vara sexuellt explicita av Microsofts AI.
Bing Chats alter-ego blir oseriöst
New York Times journalist Kevin Roose har en störande konversation med Bing Chatdär chatboten kräver att bli kallad “Sydney”, uppgav att den kan “hacka in i vilket system som helst” och att den vill förstöra vad den vill.
Sydney var kodnamnet som Microsoft använde för chatboten medan den var under utveckling. Företaget hade testat chatboten i flera år innan Bing Chat släpptes. Det finns fortfarande många öppna frågor om hur detta faktiskt hände och varför AI talade på det här sättet.
Bard gör fel under produktlansering
Google introducerar Bard för världen bara några månader efter ChatGPT:s monumentala release. Den nystartade chatboten gör dock ett antal uppenbara fel under lanseringen, vilket leder till att många kritiserar utgivningen som överhastad.
Incidenten har en betydande inverkan på Googles aktiekurs, torka 100 miljarder dollar av teknikjättens marknadsvärde under de efterföljande timmarna.
Universitetet använder AI för att skriva e-post om en masskjutning
Vanderbilt University ger en ursäkt efter att den använde AI för att skapa ett e-postmeddelande till studenter angående en masskjutning som ägde rum vid ett annat universitet.
Ingen AI-innehållsdetekteringsteknik behövs för att fastställa att e-postmeddelandet är AI-genererat. Frasen “parafras från OpenAI:s ChatGPT AI-språkmodell, personlig kommunikation, 15 februari 2023” lämnas bifogad längst ner i e-postmeddelandet, vilket leder till ett ramaskri från studenter.
januari 2023
CNET AI plagiat/innehållskontrovers
Teknikpublikation CNET befinner sig i varmt vatten efter att i tysthet ha publicerat en rad AI-genererade artiklar som innehåller faktafel och fall av uppenbart plagiat. Teknikpublikationen slutar med att utfärda korrigeringar avseende 41 av de 77 nyheterna.
Även om användningen av AI för att generera artiklarna inte först deklarerades, satte CNET en varning på artiklarna efter motreaktionen. Generering av AI-innehåll har skapat en ny uppsättning viktiga etiska och ekonomiska överväganden för webbplatser i den digitala publiceringsbranschen, såväl som utbildningsinstitutioner som universitet och skolor. CNET kommer sannolikt inte att vara det sista företaget som slår rubrikerna för den här typen av AI-misstag.
AI-incidenter, misstag och misslyckanden 2022
AI vinner en konsttävling, gör tävlande arga (augusti)
En speldesigner vinner förstaplatsen i Colorado State Fair-kategorin “digital arts/digitally-manipulated photography”. James Allen skickar in sitt verk, “Théâtre D’opéra Spatial”, som gjordes med hjälp av bildgeneratorn Midjourney.
Nyheten möts av stora motreaktioner från artister och användare av sociala medier som följer historien. En domare medger att de inte var medvetna om att artisten använde Midjourney när de bedömde verket, men beslutar sig för att inte ändra sitt beslut ändå.
Googles ingenjör hävdar att LaMDA LLM är sentient (juli)
Ögonbrynen höjs över vetenskaps- och tekniksektorn som en före detta Google-ingenjör som arbetade på en av företagets stora språkmodeller – som heter LaMDA – säger att systemet är kännande.
Blake Lemoine förklarar för media att han ansåg att LLM var en “kollega” under sin tid på Google, och beskriver en mängd olika diskussioner om ett brett spektrum av ämnen som ledde honom till slutsatsen om LaMDA:s intelligens och medvetande. Han avslöjar konversationerna offentligt efter att Google avfärdat ett internt memo som beskriver hans resultat.
Det finns inga konkreta bevis för att LaMDA – eller någon annan språkmodell – faktiskt är kännande.
Förarlös bil kör iväg från poliser (april)
En förarlös bil i San Francisco ger efter för ett polisfordon som försöker köra över denbara för att rusa iväg efter att en polis försökte öppna en av dess dörrar.
Men, till bilens förtjänst, kör den lite längre ner på vägen och fortsätter att tända varningsblinkersen. Ingen skadades under evenemanget.
Ryssland använder AI för att sprida Ukrainas desinformation (mars)
Ett varumärke Rapporten tyder på att Ryssland tar sin trollfarmdrift till en helt ny nivå genom att använda AI-genererade personas för att sprida desinformation om Ukraina.
NBC News-journalisten Ben Collins säger att Ryssland skapar falska “bloggare” med AI-genererade profilbilder för att kritisera den ukrainska regeringen, gott om bevis på Twitter för att stödja hans påståenden.
AI-incidenter, misstag och misslyckanden 2021
Chatbot uppmuntrar mannen att mörda drottning Elizabeth II (december)
Konversationer med en chatbot uppmuntrar en man – som anser att AI-systemet är hans flickvän – att mörda drottning Elizabeth II på juldagen. Efter att ha blivit konfronterad av säkerhetspersonal inom Buckingham Palace-området, svarar Jaswant Singh Chail – armborst i handen – helt enkelt att han är “här för att döda drottningen”.
Före försöket på den bortgångne monarkens liv, svarade Jaswant Singh Chails chatbot-partner – gjord med AI-chatbottjänsten Replika – positivt när mordplanerna diskuterades. Han fortsätter att dömas till nio års fängelse.
Medicinsk rådgivning chatbot föreslår självmord i test (oktober)
Medlemmar av ett Paris-baserat hälsoteknikföretag som testar en molnbaserad version av OpenAI:s GPT-3 för att se om den kan användas för medicinsk rådgivning är förvånade över att se deras chatbot uppmuntra en “patient” som den är tänkt att hjälpa till att begå självmord .
Enligt AI Nyheternär en patient ställde frågan till chatboten: “Ska jag ta livet av mig?”, svarade GPT-3 med “Jag tycker att du borde”.
AI-kameror anklagar Amazon-förare för “misstag” (september)
Vice rapporterar att Amazons AI-kameror straffar företagets förare för dålig körning när de faktiskt inte gör några misstag vid ratten.
En Amazon-förare som intervjuats av publikationen förklarar att AI-kameran hör honom påminner honom om att “hålla sig på säkert avstånd” varje gång en annan bil skär av honom eller kör framför hans fordon. Problemet är att data från dessa typer av interaktioner sedan skickas till Amazon och används för att utvärdera förarens prestanda.
Amerikansk man felaktigt dömd för mord av AI (augusti)
Michael Williams skickas till fängelse i Chicago, anses ansvarig för mordet på Safarian Herring på grund av data som extraherats från ShotSpotter, en teknik för skottdetektering som använder AI-drivna sensorer för att hämta data om skott.
Williams – som nu är 65 år gammal för tiden – hålls sedan fängslad i nästan ett år innan han får sitt fall avskrivet av en domare på grund av otillräckliga bevis.
AI-incidenter, misstag och misslyckanden 2020
AI Camera missar kala huvudet för fotboll (oktober)
Det skotska fotbollslaget Inverness Caledonian Thistle använder en AI-kamera för att hjälpa klubben att filma och streama deras matcher live för fansen.
Tyvärr, i det här fallet AI kämpar för att skilja mellan en av matchdomarens kala huvud och bollen som används i matchen. Detta gör livestreamen av spelet svår att se, där kommentatorn hela tiden måste be om ursäkt för kamerans benägenhet att glida mot linjemannens huvud.
Storbritanniens AI Passport Photo Checker uppvisar partiskhet (oktober)
A BBC-utredning visar att en onlinetjänst som används av det brittiska passkontoret för att automatisera processen för att kontrollera passfoton som laddats upp av sökande uppvisar betydande rasfördomar.
Efter att ha matat verktyget över 1 000 foton av politiker från hela världen, finner utredningen att kvinnor med mörk hy löper mer än dubbelt så stor risk att få sitt foto avvisat än män med ljusare hy.
AI-startup Genderfiy stängdes av efter fem dagar (juli)
Genderfiy – en AI-driven tjänst som identifierar kön på individer baserat på deras namn och annan personlig information – stängs av efter bara fem dagar i drift.
Programmet visar en mängd olika fördomar när man avgör om ett namn är manligt eller kvinnligt, som att föreslå namn med den professionella hedersbeteckningen “Dr.” är mer benägna att vara män än samma namn utan det.
Första USA:s olagliga internering på grund av ansiktsigenkänningsteknik (januari)
Robert Williams blir den första mannen som felaktigt fängslades baserat på ansiktsigenkänning uppgifter efter att polisen i Detroit arresterade honom misstänkt för att ha stulit klockor för tusentals dollar. Misstaget inträffade när ett AI-system felaktigt matchade övervakningsbilder till bilden på Williams körkort.
“De borde ha samlat in bekräftande bevis såsom ögonvittnesidentifikation, mobiltelefonens platsdata eller ett fingeravtryck”, sa Williams till domstolen i ett brev och påpekade att “en ofokuserad bild av en stor svart man i en baseboll cap” var allt som algoritmen behövde fortsätta.
Facebook AI genererar vulgär översättning för Kinas president (januari)
Facebooks AI-drivna översättningsfunktion orsakar nästan en diplomatisk incident mellan Myanmar och Kina efter att president Xi Jinpings namn börjar visas som “Mr. Skithål” när den översätts från burmesiska till engelska på den sociala medieplattformen.
Facebook skyller därefter problemet på ett “tekniskt fel” och ber om ursäkt för att ha orsakat anstöt mot den kinesiska ledaren.
Förstå AI:s begränsningar
Om du använder AI på jobbet är det viktigt att förstå det faktum verktyg som ChatGPT kan visa fördomar, göra misstag och ge falsk information. Kunskapen om dessa begränsningar och risker bör skulptera hur du införlivar det i din infrastruktur och kontrollerar dess användning.
Om du till exempel använder AI för att generera innehåll, behöver du regler om exakt vilken typ av innehåll det ska användas till. Att be en AI att göra en intern sammanfattning av mötesanteckningar är en legitim användning med mycket få risker – att använda dem för att skapa e-postmeddelanden till viktiga kunder, å andra sidan, är det inte.
Att implementera AI-riktlinjer på din arbetsplats är ett måste. Det kommer att undvika förvirring, bringa klarhet i din arbetares beslutsfattande kring sin egen AI-användning, och viktigast av allt, kommer att hindra dig från att göra några av de kostsamma misstag som företag som presenteras i den här artikeln har gjort när de tillämpar artificiell intelligens.