Ett färskt exempel inkluderar en advokatbyrå som bötfälldes av en domare på Manhattan för att ha använt fiktiv juridisk forskning skapad av ChatGPT. Fallet hade uppenbarligen verklig inverkan och var baserat på inget annat än en tillverkning från en generativ AI-plattform.
Allt för att säga, misstagen från generativa AI-plattformar är mycket värre än bara enkla stavfel och utelämnade ord; denna teknik kan orsaka allvarliga problem om den inte blir mer exakt och snabb.
Vad tycker AI-ledare?
Som du kan föreställa dig, cheferna för AI-företag som OpenAI och Antropisk är mindre bekymrade, även om deras optimism särskilt understryks av en ödmjuk förståelse för att det är en lång väg kvar innan dessa plattformar ens är nära tillförlitliga.
“Jag tror inte att det finns någon modell idag som inte lider av någon hallucination. De är egentligen bara utformade för att förutsäga nästa ord. Och så kommer det att finnas en viss takt i vilken modellen gör det på ett felaktigt sätt.” – Daniela Amodi, VD för Anthropic, utvecklaren av Claude 2.
Lyckligtvis är AI-ledare i själva verket medvetna om att deras plattformar inte skingrar gräddan när det kommer till innehåll, även om de är frustrerande flippiga om det faktum.
“Jag litar förmodligen minst på svaren som kommer ut från ChatGPT av någon på jorden.” – Sam Altman, VD för OpenAI, utvecklare av ChatGPT