本ggufモデルについて about this gguf model

gemma-2-2b-itを日本語が多く含まれる重要度行列(iMatrix)を使って量子化したgguf版です。日本語対応能力が多めに保持されている事を期待しています。
This is a quantized gguf version of gemma-2-2b-it using an importance matrix (iMatrix) that contains many Japanese words. I hope it retains more Japanese support.

また、最新のllama.cppに実装された投機的デコード(Speculative decoding)という新しいテクニックを使ってより大きいモデルの実行速度を上げる事ができます。 also, using latest llama.cpp and a new technique called speculative decoding, we can speed up larger models.

windows speculative decoding command sample(ROCm compiled version)

set HSA_OVERRIDE_GFX_VERSION=gfx1103 && .\llama-server.exe ^
    -m  .\gemma-2-27B-it-Q4_K_M-fp16.gguf ^
    -md .\gemma-2-2b-it-IQ3_XXS.gguf ^
    -ngl 10 -ngld 10 -e --temp 0 -c 4096 ^
    --draft-max 16 --draft-min 5

私のテストプロンプトの実行時間: 1576.67秒
My test prompt execution time: 1576.67 seconds

windows normal command sample

.\llama-server.exe ^
    -m  ..\gemma\gemma-2-27B-it-Q4_K_M-fp16.gguf ^
    -e --temp 0 -c 4096 

私のテストプロンプトの実行時間: 4591.58秒
My test prompt execution time: 4591.58 seconds

CUDAのサンプルについてはdahara1/Qwen2.5-0.5B-Instruct-gguf-japanese-imatrix-128Kをみてください
See dahara1/Qwen2.5-0.5B-Instruct-gguf-japanese-imatrix-128K for CUDA examles.

クライアントスクリプトの例はdahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128Kをご覧ください
See dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K for cliant example.

コマンドの詳細はllama.cppの公式ページをご覧ください
For more command information, see the official llama.cpp page.

Downloads last month
62
GGUF
Model size
2.61B params
Architecture
gemma2
Hardware compatibility
Log In to view the estimation

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support