Hur den nya ChatGPT-kodningsbluffen fungerar
Tricket drar fördel av en egenhet som är gemensam för de stora språkmodellerna som driver genererande AI som ChatGPT: De älskar att hitta på saker.
ChatGPT är en prediktiv bot, så den kommer att komma med de svar som den tycker är vettiga baserat på tillgänglig data. Detta betyder dock att det ofta genererar en “hallucination” – ett svar som verkar rimligt men är ett helt falskt påstående som faller isär när det kontrolleras fakta.
Om en dålig skådespelare grillar ChatGPT om kodbibliotek (eller “paket”) tills AI:n utgör en falsk, kan den hackaren skapa en riktig version av det tidigare icke-existerande biblioteket. Sedan, nästa gång ChatGPT nämner det biblioteket för en användare, kan den användaren försöka ladda ner den enda tillgängliga versionen … den skadliga.
Den nya bluffen har beskrivits av Vulcan Cybers forskargrupp Voyager18, som har en fullständig förklaring tillgänglig på en senaste blogginlägget.
Hur man förblir säker från AI-pakethallucinationer
När du väl vet om hotet från pakethallucinationer finns det en enkel lösning: Dubbelkolla allt som ChatGPT säger till dig innan du faktiskt tror det.
Som sagt, i det här specifika fallet har Voyager18-teamet fler förslag som kan hjälpa.
“Det finns flera sätt att [vet coding libraries], inklusive att kontrollera skapandedatum, antal nedladdningar, kommentarer (eller brist på kommentarer och stjärnor) och titta på någon av bibliotekets bifogade anteckningar. Om något ser misstänkt ut, tänk efter två gånger innan du installerar det.” -Voyager18
ChatGPT är ett utmärkt verktyg för att hjälpa dig att svara på ett felmeddelande eller skapa en helt ny kod, men utvecklare bör inte lita på den för viktigare kodningsprojekt.