Syften med beställningen är varierande. Huvudmålen är dock att sänka fall av AI-aktiverat bedrägeri genom att upprätta standarder för att upptäcka AI-genererat innehåll, skydda användarnas integritet genom att anta tvåpartslagstiftning om datasekretess och minska antalet fall av algoritmisk diskriminering genom förbättrad utbildning och juridiska protokoll.
Förutom att stå upp för “konsumenter, arbetare och studenter” tar direktivet också upp oro kring nationell säkerhet, genom att se till att alla AI-utvecklare testar sina produkter för kemiska, biologiska, radiologiska, nukleära och cybersäkerhetsrisker.
Enligt lagförslaget, som Vita husets stabschef Bruce Reed hävdar är den “starkaste uppsättningen av åtgärder” någon regering har vidtagit för att skydda AI, måste företag också dela resultaten av dessa tester med den amerikanska regeringen.
“Det är nästa steg i en aggressiv strategi att göra allt på alla fronter för att utnyttja fördelarna med AI och minska riskerna,” – Vita husets vice stabschef, Bruce Reed
Denna beställning kommer tre månader efter att flera AI-utvecklare frivilligt anmälde sig till vattenstämpelinnehåll skapat av tekniken, och sju månader efter Biden-administrationen sökte feedback från allmänheten om hur AI-utvecklare som OpenAI och Google kan hållas mer ansvariga.
AI-utveckling överträffar fortfarande regleringen
Bidens nya order är grundlig och omfattande. USA:s rättsliga svar på AI har dock varit trögt jämfört med många europeiska länders.
Innan detta direktiv avtäcktes hade den amerikanska regeringen tidigare inte utfärdat någon officiell AI-fokuserad verkställande order, trots flera kampanjer undertecknade av högprofilerade stödjare som krävde en sex månaders paus med AI-utvecklingoch OpenAI:s VD Sam Altman själv och hävdade att “om den här tekniken går fel kan det gå ganska fel”.
Däremot antog Europeiska unionen (EU) EU AI Act i början av 2023, vilket är ett riskbaserat tillvägagångssätt som kategoriserar AI-system i fyra distinkta kategorier: oacceptabel risk, hög risk, begränsad risk och minimal risk.
Handlingen – som nästan ledde till att ChatGPT helt och hållet förvisades från kontinenten – tvingade också AI-utvecklare att avslöja vad upphovsrättsskyddat material användes i utvecklingen av deras system, för att säkerställa att artister, musiker och författare kunde bli erkända för sitt arbete.