Google tillkännager AI-etikpanelen

0 Shares

Google har meddelat bildandet av en AI-panel, som kommer att ta itu med hur företaget ansvarsfullt ska använda och utveckla AI-projekt.

Rådet består av en mångsidig grupp med akademisk bakgrund, företags- och regeringsbakgrund och kommer att träffas regelbundet 2019 för att diskutera de frågor som AI ställer.

Panelen är en förlängning av Googles AI-principer, som är en bred uppsättning mål som företaget satte upp förra året, efter kritik om sitt engagemang i militära kontrakt.

Vad är panelen och vad syftar den till?

Advanced Technology External Advisory Council (ATEAC) tillkännagavs av Googles Senior Vice President, Kent Walker, på sin blogg. Enligt inlägget är panelen en förlängning av Googles mål att använda och skapa AI på ett ansvarsfullt sätt, en position som fastställdes i dess AI-principer i juni. Några av de uppgifter som panelen har utmanats med att tackla, inkluderar ansiktsigenkänning och maskininlärning.

Rådet kommer att tjänstgöra under loppet av 2019 och hålla fyra möten under denna period, varav det första inträffar i april. I sin blogg säger Google att det kommer att uppmuntra medlemmar av rådet att dela lärdomar och publicera en rapport som sammanfattar diskussionerna.

Vad är Googles AI-principer?

Googles AI-principer avslöjades förra året och sägs vara en direkt reaktion på sitt beslut att inte förnya sitt kontrakt med Pentagon för att tillhandahålla AI-drönare.

Googles arbete inom detta område hade visat sig vara kontroversiellt, vilket fick flera avgångar från Googles personal. Det verkar vara en växande fråga i teknikområdet, med andra företag som Microsoft känner värmen från sitt arbete med försvarsavdelningar. Googles AI-principer satte sten på sitt mandat framöver, och medan företaget hånades mycket för att ha tagit bort sin “Don’t be ond” -policy från sin uppförandekod (ersätter den med “Gör rätt”), kan AI-principerna utan tvekan vara gå mycket längre än en enkel tagline.

Så, vad är principerna?

  1. Var socialt fördelaktig – Det räcker inte för att ett AI-projekt ska vara lönsamt, det måste också ha en positiv inverkan på samhället
  2. Undvik att skapa eller förstärka orättvis fördomar – Som andra teknologiföretag har funnit förlitar sig AI starkt på sina datamängder, vilket kan ske på grund av mänskligt engagemang. Amazon upptäckte detta när AI-anställningen fattade sexistiska beslut och gynnade män, enbart på grund av de mänskliga beteendetrender som de hade fått.
  3. Var byggd och testad för säkerhet – Ökningen av AI kommer att ha stor inverkan på vår säkerhet, särskilt inom områden som automatiserad transport, där liv och dödsbeslut får en maskin.
  4. Var ansvarig inför människor – Google säger att dess AI-projekt kommer att vara öppna för feedback och föremål för mänsklig ledning och kontroll.
  5. Inkorporera principer för integritetsdesign – Googles AI kommer att ha inbyggt dataskydd och all insamlad information kommer att vara transparent och ge användaren kontroll över vad som samlas in.
  6. Upprätthålla höga standarder för vetenskaplig spetskompetens – Google syftar till att dela sin kunskap kring AI med viktiga intressenter, i syfte att öppna upp nya vägar för tekniken genom samarbete.
  7. Göras tillgänglig för användningar som överensstämmer med dessa principer – Företaget lovar att det kommer att begränsa AI: s förmåga att vara skadligt för samhället eller individen med kränkande applikationer.

Dessutom finns det områden som Google har lovat att de inte kommer att tillämpa sin AI på. Dessa inkluderar övervakning som “strider mot internationella normer”, teknik som kränker mänskliga rättigheter och vapen som syftar till att skada människor (även om företaget kommer att fortsätta arbeta med militären inom rekrytering, cybersäkerhet och sökning och räddning).

Vem är på panelen?

ATEAC består av åtta nyckelintressenter med mångårig erfarenhet av AI-området från företags-, akademisk- och myndighetsbakgrund. Google gör det klart att panelen representerar sina egna perspektiv och inte talar för de institutioner de är associerade med.

Alessandro Acquiti – Professor i informationsteknik och offentlig politik vid Heinz College, Carnegie Mellon University

Bubacarr Bah – Seniorforskare i matematik med inriktning mot datavetenskap vid African Institute for Mathematical Sciences South Africa, och biträdande professor vid institutionen för matematiska vetenskaper vid Stellenbosch University.

De Kai – Professor i datavetenskap och teknik vid Hong Kong University of Science and Technology, och Distinguished Research Scholar vid Berkeleys International Computer Science Institute.

Dyan Gibbens – VD för Trumbull, en start med fokus på automatisering, data och miljöbeständighet inom energi och försvar.

Joanne Bryson – Docent vid institutionen för datavetenskap vid University of Bath. Konsulterades också med LEGO om dess barnorienterade Mindstorms programmeringslinje.

Kay Coles James – Ordförande för Heritage Foundation med fokus på fritt företag, begränsad regering, individuell frihet och nationellt försvar

Lucian Floridi – Professor i filosofi och informationsetik vid University of Oxford, professor i Exeter College och Turing Fellow och ordförande för dataetikgruppen vid Alan Turing Institute.

William Joseph Burns – Tidigare amerikansk biträdande utrikesminister. President för Carnegie Endowment for International Peace, den äldsta tankesmedjan för internationella affärer i USA.

Med utvecklingen i AI-sektorn utgör dessa principer verkligen en viktig kod för uttalat beteende. Vad som återstår att se är naturligtvis hur bra Google håller fast vid dessa höga mål.

0 Shares