Hugging Face Rende Facile l’Esecuzione di Modelli AI su Cloud di Terzi

La piattaforma di sviluppo AI Hugging Face ha recentemente instaurato delle collaborazioni con fornitori di cloud di terze parti, tra cui SambaNova, per lanciare la funzione Inference Providers. Questo nuovo strumento è progettato per facilitare agli sviluppatori di Hugging Face la possibilità di eseguire modelli AI utilizzando l’infrastruttura di loro scelta. Con questa iniziativa, Hugging Face desidera rendere più accessibili e versatili i loro servizi, permettendo agli utenti di sfruttare le potenzialità di cloud diversi per migliorare le loro applicazioni AI.

Tra i partner coinvolti in questo nuovo sforzo si annoverano anche Fal, Replicate, e Together AI. Queste alleanze strategiche mirano a garantire un accesso diretto ai centri dati dei rispettivi partner per l’esecuzione dei modelli all’interno della piattaforma di Hugging Face. Grazie a Inference Providers, gli sviluppatori possono, ad esempio, impostare un modello DeepSeek sui server di SambaNova da una pagina del progetto Hugging Face con pochi semplici clic.

Fino a oggi, Hugging Face ha offerto una soluzione interna per l’esecuzione di modelli AI, ma ha dichiarato che si sta concentrando sempre di più sulla collaborazione, sulla capacità di archiviazione e sulla distribuzione dei modelli. Gli utenti di Hugging Face possono sfruttare questa innovativa funzionalità di serverless inference, che consente loro di distribuire e scalare modelli AI senza dover configurare o gestire l’hardware sottostante, semplificando notevolmente il processo di sviluppo e implementazione.