L’intelligenza artificiale generativa: un’illusione di comprensione del mondo

I modelli di linguaggio di grandi dimensioni possono compiere cose impressionanti, come scrivere poesie o generare programmi informatici viabili, anche se questi modelli sono addestrati a prevedere le parole che seguono in un testo. Queste capacità sorprendenti possono far sembrare che i modelli stiano imparando alcune verità generali sul mondo. Tuttavia, secondo un nuovo studio, non è necessariamente così. I ricercatori hanno scoperto che un tipo popolare di modello AI generativa può fornire indicazioni stradali precise a New York senza aver creato una mappa interna accurata della città. Nonostante la sorprendente abilità del modello di navigare efficacemente, quando i ricercatori hanno chiuso alcune strade e aggiunto deviazioni, le sue prestazioni sono esplose. Questi risultati hanno gravi implicazioni per i modelli di intelligenza artificiale generativa dispiegati nel mondo reale, poiché un modello che sembra operare bene in un contesto potrebbe crollare se il compito o l’ambiente cambia leggermente.