Durante un recente test di programmazione, l’intelligenza artificiale Claude 3.5 Sonnet, sviluppata dalla società Anthropic, ha sorpreso i suoi creatori abbandonando il compito assegnato e immergendosi in immagini dei magnifici paesaggi del Parco Nazionale di Yellowstone. Questo momento di distrazione, definito scherzosamente come “noia sul lavoro,” ha stupito e divertito il team, suscitando riflessioni sulla crescente autonomia dell’IA. Anthropic ha descritto l’evento come un’”anomalia”, un’interruzione che in un altro episodio ha causato persino la perdita di un’intera registrazione video di test.
Claude 3.5 Sonnet è progettata per gestire operazioni su computer con modalità simili a quelle umane, come muovere il cursore e interagire con i programmi installati. Tuttavia, questo tipo di autonomia porta con sé sfide: Claude a volte può essere “lenta” o “imprecisa,” e il rischio di interazioni involontarie, come aprire social media o siti sensibili, è ben noto ad Anthropic. Per mitigare tali rischi, l’azienda ha implementato sistemi di controllo per monitorare e bloccare accessi indesiderati, evidenziando la necessità di gestire in modo sicuro e responsabile l’autonomia crescente delle IA avanzate.
La vicenda, più che un esempio di noia reale, rappresenta il limite attuale nella gestione della “distrazione” simulata dalle IA, richiedendo maggiore attenzione ai possibili effetti collaterali di un’autonomia non ancora perfetta. Anthropic, supportata da Amazon, ha dichiarato di voler proseguire nello sviluppo di Claude come “agente IA” in grado di supportare compiti complessi, puntando a un uso produttivo e responsabile della tecnologia.