Llama 2 è la nuova AI Microsoft e Meta per Azure e Windows

lug 19, 2023

Modelli linguistici di grandi dimensioni (LLM) su Azure e Windows, frutto della collaborazione fra Microsoft e Meta.

Llama 2 è la nuova AI Microsoft e Meta per Azure e Windows

Non solo prezzi e dettagli di Bing Chat Enterprise e Microsoft 365 Copilot, a Inspire 2023, Microsoft ha annunciato anche il frutto della collaborazione con Meta su AI applicata, presentando Llama 2 per Azure e Windows. Ecco di cosa si tratta:

Llama 2 è progettato per consentire a sviluppatori e organizzazioni di creare strumenti ed esperienze generativi basati sull'intelligenza artificiale. Meta e Microsoft condividono l'impegno a democratizzare l'IA e i suoi vantaggi e siamo entusiasti che Meta stia adottando un approccio aperto con Llama 2. Offriamo agli sviluppatori la possibilità di scegliere i tipi di modelli su cui costruire, supportando modelli aperti e di frontiera e siamo entusiasti di essere Il partner preferito di Meta in quanto rilasciano per la prima volta la loro nuova versione di Llama 2 ai clienti commerciali.

Ora i clienti di Azure possono perfezionare e distribuire i modelli Llama 2 con parametri 7B, 13B e 70B in modo semplice e più sicuro in Azure, la piattaforma per i modelli di frontiera e aperti più ampiamente adottati. Inoltre, Llama sarà ottimizzato per funzionare localmente su Windows. Gli sviluppatori Windows saranno in grado di utilizzare Llama prendendo di mira il provider di esecuzione DirectML tramite ONNX Runtime, consentendo un flusso di lavoro senza soluzione di continuità mentre portano esperienze di intelligenza artificiale generativa nelle loro applicazioni.

Llama 2 è l'ultima aggiunta al nostro crescente catalogo di modelli di intelligenza artificiale di Azure. Il catalogo dei modelli, attualmente in anteprima pubblica, funge da hub di modelli di base e consente agli sviluppatori e ai professionisti del machine learning (ML) di scoprire, valutare, personalizzare e distribuire facilmente modelli di intelligenza artificiale di grandi dimensioni predefiniti su larga scala.

Il catalogo elimina la necessità per gli utenti di gestire tutte le dipendenze dell'infrastruttura durante l'operatività di Llama 2. Fornisce supporto chiavi in ​​mano per la messa a punto e la valutazione del modello, comprese potenti tecniche di ottimizzazione come DeepSpeed ​​e ONNX Runtime, che possono migliorare significativamente la velocità del modello fine- messa a punto.

Per saperne di più, qui il post ufficiale.

Articolo di HTNovo
Creative Commons License

Modulo di contatto

Archivio