Artificiell intelligens har varit ett hett ord i alla branscher på senare tid. Tänk allt krångel kring självkörande bilar, Googles uppdaterade assistent och de allmänna samtalen om hur konversationsgränssnitt är framtidens teknik.
Cirka 54 procent av återförsäljarna använder eller planerar redan att lägga till artificiell intelligens i sin verktygslåda, och 20 procent planerar att introducera lite AI inom de närmaste 12 månaderna, enligt den senaste rapporten från SLI Systems.
Den ökade användningen av AI i detaljhandeln kan specifikt tillskrivas framsteg inom djupinlärningen.
Vad är Deep Learning?
Djupinlärning är en specifik maskininlärningsstrategi för att bygga och träna neurala nätverk. Ett neuralt nätverk är i sin tur ett system av hårdvara och / eller programvara som är utformat efter operationerna av neuroner i den mänskliga hjärnan.
I ett nötskal antar djupinlärning att du först kommer att “mata” ditt nätverk med tillräckligt med prover (data) så att det kan fatta beslut om liknande data baserat på vad det “vet” hittills.
Till exempel kan ett nätverk för djupinlärning användas för att skilja olika typer av produkter – en klänning och ett par byxor. Det kan använda skillnader i de ljusa och mörka områdena i en bild för att fastställa hur en klänning ser ut. Det är det första steget. Därefter tar det hänsyn till andra faktorer som form, vinklar, färger etc. för att exakt förstå hur en klänning ser ut och lära sig att identifiera den ur alla andra plagg.
Varför Deep Learning är inte vanligt i detaljhandeln än
Processen med att utbilda ett nätverk är dock inte så enkel. Alla stegen som beskrivs ovan körs inuti en svart ruta och styrs av nätverkets minne – arrays av siffror (vikter) som indikerar hur vissa ingångar kombineras och kombineras för att uppnå resultatet.
Att hantera ett exempel som klädigenkänning kräver att man skapar större matriser som kan innehålla över 60 miljoner nummer. Att arbeta med sådana större data är komplicerat.
Därefter är det problemet med dataprover. Om vi pratar om bildigenkänning kan inte alla träningsprover användas effektivt. Till exempel har forskare från University of Washington identifierat ett märkligt misstag som neurala nätverk gör – när uppgifterna innehåller oönskade korrelationer som nätverket tar upp under träning kommer resultaten att vara mycket partiska.
De har försökt att lära nätverket att skilja mellan bilder på vargar och huskies. Medvetet hade alla bilder av vargar snö i bakgrunden, medan huskiesfoton inte hade det. Därefter har de använt det första max-pooling-lagret av Googles förutbildade neuronätverk Inception, och nätverket sa att alla bilder med snö eller ljus bakgrund längst ner är bilder på vargar. Även om så inte var fallet.
Nu, låt oss komma tillbaka till butiksutrymmet. För att träna en algoritm för djupinlärning för att känna igen mellan olika varor, behöver du mellan 1000-5000 bilder av objektet i fråga (en modell av en klänning). Varje objekts foto ska vara exakt inneslutet i en avgränsningsruta och exakt märkt med data med objektets namn och attribut.
Kostnaderna för att få sådana bilder manuellt kan bli orimliga. Till exempel kommer en detaljistkatalog med cirka 170 000 varor att kräva 1 miljard märkta bilder. Om du anställer någon för att göra det manuellt, till exempel via Amazon Mechanical Turk, skulle den totala kostnaden vara cirka 240 miljoner dollar eller 0,20 dollar per bild.
Forskare från Neuromation har kommit med en intressant lösning på detta problem. Istället för att samla in och märka datamängder kan företagen använda syntetiska dataprov som genereras från dem. Specifikt genererar teamet en 3D-replika av en stormarknadshylla som innehåller exakta digitala kopior av varor (redan märkta med 100 procents noggrannhet). Därefter kan miljontals bilder genereras med en kombination av dessa föremål – i olika ljusförhållanden, fotograferingsvinklar och så vidare.
De tidiga användningsfallen för djupt lärande i detaljhandeln
Susana Zoghbi från KU Leuven har utvecklat en djup inlärningsteknik som ger bättre bildigenkänningsresultat för modehandlare.
I sin senaste tidning beskriver Susana ett välbekant problem både för konsumenter och företagare – ofta har produktbeskrivningar inte alla plaggets attribut, eftersom de syns på den medföljande bilden. Så när du letar efter en “blå bomullsskjorta med gyllene knappar” får du inga sökresultat även om en sådan produkt finns på webbplatsen.
Susan har arbetat med att utveckla ett cross-modal sökverktyg som kommer att hantera denna fråga på två sätt:
- När en bild ges kommer den att tillhandahålla lämpliga textbeskrivningar;
- När en textsökning sker hämtar verktyget bilder som matchar de angivna textegenskaperna.
Det bästa är detta – ett neuralt nätverk kommer att driva hela processen. Specifikt bör nätverket kunna svara på frågor som “Hur ser en V-ring ut?” eller “Hur den här formen på kjolen heter?”.
Ett annat nyfiket projekt Susana har arbetat med var att lära ett neuralt nätverk att länka Pinterest-pins med olika textbeskrivningar till relevanta produkter på e-handelswebbplatser, till exempel Amazon. Som ett resultat lyckades hon matcha samma / liknande produkter på Pinterest (med olika beskrivningar och inga länkar till de ursprungliga inköpskällorna) till samma / liknande produkter på Amazon.
Denna teknik kan användas för att bygga avancerade anpassade rekommendationsmotorer och revolutionera hur människor upptäcker varor online.
Läs mer om artificiell intelligens och detaljhandel på TechCo