Grok-1
BlogAboutCareersMarch 17 2024Open Release of Grok1Kami merilis bobot dan arsitektur model MixtureofExperts Grok1 kami dengan 314 miliar parameter
Terdaftar dalam kategori:
GitHubTwitterKecerdasan buatanDeskripsi
Grok1 adalah model MixtureofExperts dengan 314 miliar parameter yang dilatih dari awal oleh xAI. Ini adalah titik kontrol model dasar yang dirilis di bawah lisensi Apache 2.0, tidak disesuaikan untuk aplikasi tertentu seperti dialog. Model ini dirancang untuk pemrosesan data teks dengan 25% dari bobot aktif pada token tertentu.
Cara menggunakan Grok-1?
Untuk menggunakan Grok1, ikuti instruksi yang disediakan di github.com/xaiorg/grok. Model ini siap digunakan untuk tugas pemrosesan data teks dan eksperimen.
Fitur inti dari Grok-1:
1️⃣
Model bahasa besar dengan 314 miliar parameter
2️⃣
Arsitektur model MixtureofExperts
3️⃣
Dilatih dari awal oleh xAI
4️⃣
Dirilis di bawah lisensi Apache 2.0
5️⃣
Tidak disesuaikan untuk aplikasi tertentu
Mengapa bisa digunakan Grok-1?
# | Kasus Penggunaan | Status | |
---|---|---|---|
# 1 | Pemrosesan data teks | ✅ | |
# 2 | Pemodelan bahasa | ✅ | |
# 3 | Penelitian dan eksperimen | ✅ |
Dikembangkan oleh Grok-1?
xAI adalah pembuat Grok1, sebuah perusahaan yang mengkhususkan diri dalam model AI canggih dan teknik pelatihan.