Subscribe to get weekly email with the most promising tools 🚀

Mistral Large

Mistral 7B là một mô hình ngôn ngữ mạnh mẽ với 73B tham số vượt trội so với các mô hình khác trên các bài kiểm tra khác nhau. Nó có thể dễ dàng được điều chỉnh cho các nhiệm vụ khác nhau và có sẵn dưới giấy phép Apache 2.0.

Liệt kê trong các danh mục:

Công cụ phát triểnMã nguồn mởTrí tuệ nhân tạo
Mistral Large-image-0
Mistral Large-image-1
Mistral Large-image-2

Mô tả

Mistral 7B là một mô hình ngôn ngữ mạnh mẽ với 73 tỷ tham số, vượt trội so với Llama 2 13B trên tất cả các tiêu chí và tiệm cận hiệu suất của Llama 1 34B trên nhiều tiêu chí. Mô hình này sử dụng Grouped-query attention (GQA) để tăng tốc quá trình suy luận và sử dụng Sliding Window Attention (SWA) để xử lý các chuỗi dài với chi phí nhỏ hơn.

Cách sử dụng Mistral Large?

Tải xuống và sử dụng Mistral 7B mà không có hạn chế, triển khai trên bất kỳ đám mây nào (AWS, GCP, Azure) sử dụng vLLM inference server và skypilot, sử dụng trên HuggingFace, dễ dàng tinh chỉnh cho bất kỳ nhiệm vụ nào.

Tính năng chính của Mistral Large:

1️⃣

Vượt trội trên tất cả các tiêu chí so với Llama 2 13B

2️⃣

Tiệm cận hiệu suất của Llama 1 34B trên nhiều tiêu chí

3️⃣

Tiệm cận hiệu suất của Llama 7B trên mã nguồn và vẫn tốt trong các nhiệm vụ tiếng Anh

4️⃣

Sử dụng Grouped-query attention (GQA) để tăng tốc suy luận

5️⃣

Sử dụng Sliding Window Attention (SWA) để xử lý chuỗi dài với chi phí nhỏ hơn

Tại sao nên sử dụng Mistral Large?

#Trường hợp sử dụngTrạng thái
# 1Sử dụng cho các nhiệm vụ tiếng Anh
# 2Sử dụng cho các nhiệm vụ mã nguồn
# 3Sử dụng cho các nhiệm vụ suy luận

Do ai phát triển Mistral Large?

Mistral AI team tự hào giới thiệu Mistral 7B, mô hình ngôn ngữ mạnh mẽ nhất trong phân khúc của nó cho đến nay.

Câu hỏi thường gặp Mistral Large