La piattaforma di sviluppo AI Hugging Face ha recentemente instaurato delle collaborazioni con fornitori di cloud di terze parti, tra cui SambaNova, per lanciare la funzione Inference Providers. Questo nuovo strumento è progettato per facilitare agli sviluppatori di Hugging Face la possibilità di eseguire modelli AI utilizzando l’infrastruttura di loro scelta. Con questa iniziativa, Hugging Face desidera rendere più accessibili e versatili i loro servizi, permettendo agli utenti di sfruttare le potenzialità di cloud diversi per migliorare le loro applicazioni AI.
Tra i partner coinvolti in questo nuovo sforzo si annoverano anche Fal, Replicate, e Together AI. Queste alleanze strategiche mirano a garantire un accesso diretto ai centri dati dei rispettivi partner per l’esecuzione dei modelli all’interno della piattaforma di Hugging Face. Grazie a Inference Providers, gli sviluppatori possono, ad esempio, impostare un modello DeepSeek sui server di SambaNova da una pagina del progetto Hugging Face con pochi semplici clic.
Fino a oggi, Hugging Face ha offerto una soluzione interna per l’esecuzione di modelli AI, ma ha dichiarato che si sta concentrando sempre di più sulla collaborazione, sulla capacità di archiviazione e sulla distribuzione dei modelli. Gli utenti di Hugging Face possono sfruttare questa innovativa funzionalità di serverless inference, che consente loro di distribuire e scalare modelli AI senza dover configurare o gestire l’hardware sottostante, semplificando notevolmente il processo di sviluppo e implementazione.