Snappy - LLMs Speed Test
SnappyBenchmark seus LLMs locais em segundos. Selecione um modelo do ollama. Ocorreu um erro ao conectar ao Ollama. Feito por Raul Carini. Código fonte no GitHub.
Listado em categorias:
Inteligência artificialFerramentas de desenvolvimentoCódigo aberto
Descrição
SnappyBenchmark é uma ferramenta projetada para avaliar rapidamente seus Modelos de Linguagem de Grande Escala (LLMs) locais em apenas alguns segundos. Ela permite que os usuários selecionem um modelo da Ollama e proporciona uma experiência fluida para avaliar o desempenho do modelo.
Como usar Snappy - LLMs Speed Test?
Para usar o SnappyBenchmark, basta selecionar um modelo da Ollama e iniciar o processo de avaliação. A ferramenta fornecerá métricas de desempenho em segundos.
Recursos principais de Snappy - LLMs Speed Test:
1️⃣
Avaliação rápida de LLMs locais
2️⃣
Seleção de modelo da Ollama
3️⃣
Interface amigável
4️⃣
Avaliação de desempenho rápida
5️⃣
Código-fonte disponível no GitHub
Por que usar Snappy - LLMs Speed Test?
# | Caso de uso | Status | |
---|---|---|---|
# 1 | Avaliar o desempenho de diferentes LLMs localmente | ✅ | |
# 2 | Comparar a eficiência do modelo para tarefas específicas | ✅ | |
# 3 | Testar novos LLMs antes da implementação | ✅ |
Desenvolvido por Snappy - LLMs Speed Test?
O SnappyBenchmark foi criado por Raul Carini, que disponibilizou o código-fonte no GitHub para que os usuários possam explorar e contribuir para o projeto.