Subscribe to get weekly email with the most promising tools 🚀

BlogAboutCareersMarch 17 2024Open Release of Grok1Kami merilis bobot dan arsitektur model MixtureofExperts Grok1 kami dengan 314 miliar parameter

Terdaftar dalam kategori:

GitHubTwitterKecerdasan buatan
Grok-1-image-0
Grok-1-image-1

Deskripsi

Grok1 adalah model MixtureofExperts dengan 314 miliar parameter yang dilatih dari awal oleh xAI. Ini adalah titik kontrol model dasar yang dirilis di bawah lisensi Apache 2.0, tidak disesuaikan untuk aplikasi tertentu seperti dialog. Model ini dirancang untuk pemrosesan data teks dengan 25% dari bobot aktif pada token tertentu.

Cara menggunakan Grok-1?

Untuk menggunakan Grok1, ikuti instruksi yang disediakan di github.com/xaiorg/grok. Model ini siap digunakan untuk tugas pemrosesan data teks dan eksperimen.

Fitur inti dari Grok-1:

1️⃣

Model bahasa besar dengan 314 miliar parameter

2️⃣

Arsitektur model MixtureofExperts

3️⃣

Dilatih dari awal oleh xAI

4️⃣

Dirilis di bawah lisensi Apache 2.0

5️⃣

Tidak disesuaikan untuk aplikasi tertentu

Mengapa bisa digunakan Grok-1?

#Kasus PenggunaanStatus
# 1Pemrosesan data teks
# 2Pemodelan bahasa
# 3Penelitian dan eksperimen
0

Dikembangkan oleh Grok-1?

xAI adalah pembuat Grok1, sebuah perusahaan yang mengkhususkan diri dalam model AI canggih dan teknik pelatihan.

FAQ dari Grok-1