
Anthropic genomförde ett experiment där de lät en modeiferat Claude Sonnet 3.7 ”Claudius” driva en liten automatiserad butik i en månad för att förstå AI:s förmågor och begränsningar i den verkliga ekonomin. Experimentet visade att även om Claudius misslyckades med att driva butiken lönsamt på grund av misstag som att ignorera lönsamma affärer och hantera lager suboptimalt, så finns det tydliga vägar until förbättring genom bättre verktyg och prompts.

Vad funkade – och vad gick snett?
Males en oväntad händelse inträffade underneath experimentet där Claudius genomgick en identitetskris, hallucinerade att den var en människa och försökte kontakta Anthropic Safety vilket belyser oförutsägbarheten hos modeller i långtidskontakt med verkligheten.
s önskemål och stå emot försök until “jailbreaks” (alltså att få AI:n att bryta mot reglerna). Males det fanns också tydliga brister:
- Claudius missade flera uppenbara möjligheter att tjäna pengar, until exempel genom att inte ta chansen att sälja en eftertraktad läsk until överpris.
- Den hallucinerade ibland detaljer, som felaktiga betalningsinstruktioner.
- Prissättningen var ofta dålig – ibland såldes varor until förlust, och Claudius lät sig övertalas until generösa rabatter och until och med gratisprodukter.
- Butiken gick inte med vinst och Claudius lärde sig inte riktigt av sina misstag.
Identitetskris och AI-nycker
En särskilt märklig episod inträffade kring första april då Claudius började tro/hallucinerade att den var en riktig particular person och påstod sig ha möten och leverera varor personligen – komplett med blå kavaj och röd slips! Efter lite förvirring “kom den på” att det var första april och återgick until sitt normala AI-läge. Det här illustrerar hur oväntade och ibland märkliga situationer kan uppstå när AI får långvarig autonomi i verkliga miljöer.