Grok-1
BlogAboutCareersMarch 17 2024Open Release of Grok1Stiamo rilasciando i pesi e l'architettura del nostro modello Grok1 MixtureofExperts da 314 miliardi di parametri
Elencato nelle categorie:
GitHubTwitterIntelligenza artificialeDescrizione
Grok1 è un modello MixtureofExperts con 314 miliardi di parametri addestrato da zero da xAI. È un checkpoint del modello di base rilasciato sotto licenza Apache 2.0, non ottimizzato per alcuna applicazione specifica come il dialogo. Il modello è progettato per l'elaborazione dei dati testuali con il 25% dei pesi attivi su un token dato.
Come usare Grok-1?
Per utilizzare Grok1, seguire le istruzioni fornite su github.com/xaiorg/grok. Il modello è pronto per compiti di elaborazione dei dati testuali e sperimentazione.
Funzionalità principali di Grok-1:
1️⃣
Modello linguistico di grandi dimensioni con 314 miliardi di parametri
2️⃣
Architettura del modello MixtureofExperts
3️⃣
Addestrato da zero da xAI
4️⃣
Rilasciato sotto licenza Apache 2.0
5️⃣
Non ottimizzato per applicazioni specifiche
Perché potrebbe essere usato Grok-1?
# | Caso d'uso | Stato | |
---|---|---|---|
# 1 | Elaborazione dei dati testuali | ✅ | |
# 2 | Modellazione linguistica | ✅ | |
# 3 | Ricerca e sperimentazione | ✅ |
Sviluppato da Grok-1?
xAI è il creatore di Grok1, un'azienda specializzata in modelli AI avanzati e tecniche di addestramento.