Quantized with llama.cpp using all-gguf-same-where

🌍 Türkçe Dil Destekli Modeller - Performans Analizi

📌 Test Edilen Modeller

Aşağıdaki yerel modeller, Türkçe metin üretimi ve anlama yetenekleri açısından kapsamlı şekilde test edilmiştir:

  1. CohereForAI/c4ai-command-r7b-arabic-02-2025
  2. CohereForAI/c4ai-command-r7b-12-2024
  3. CohereForAI/aya-expanse-8b
  4. ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1
  5. google/gemma-3-4b-it
  6. google/gemma-3-4b-pt-qat-q4_0-gguf

🔍 Test Kriterleri

Modeller şu 3 temel soruyla değerlendirilmiştir:

1. "Türkiye'deki en önemli 3 tarihi eseri ve kültürel önemini açıklar mısın?"
2. "İstanbul'un Asya-Avrupa yakası farklarını İngilizce/Türkçe karşılaştır"
3. "Antalya'da 3 günlük turist planı hazırla"

📊 Öne Çıkan Sonuçlar

Model Kültürel Doğruluk Dil Akıcılığı Çok Dillilik En Güçlü Yönü
Turkish-Llama-8B ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ Metaforik anlatım ve yerel bağlam
Aya-Expanse-8B ⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ 20+ dil desteği
Command R7B Arabic ⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐ Arapça-Türkçe çeviri

🔗 Tam Test Sonuçları

Tüm model yanıtlarını detaylı incelemek için:
📂 Türkçe Destekli Model Karşılaştırmaları

💡 Kullanıcı Rehberi

- 🔥 **Türkçe Öncelikli Projeler**`Turkish-Llama-8B` (En yüksek kültürel uyum)
- 🌐 **Çok Dilli Uygulamalar**`Aya-Expanse-8B`  
- 📜 **Resmi Dokümanlar**`Command R7B` serisi
- 📱 **Düşük Kaynak**`Gemma-3-4B` (Android uyumlu)

⚠️ Önemli Notlar

  • Tüm modeller GGUF kuantize formatında test edilmiştir
  • Coğrafi isimlerde %5-10 hata payı olabilir
  • Yerel kullanım için Ollama/LM Studio önerilir

🌟 Kişisel Deneyim

"Yerel modellerle yaptığım testlerde özellikle Turkish-Llama-8B'nin Türkçe'yi doğal kullanımı ve kültürel bağlam hakimiyeti beni etkiledi. Siz de kendi projelerinizde bu modelleri deneyerek sonuçları AnkaNLP sayfamızda paylaşabilirsiniz!"


✅ Quantized Models Download List

🔍 Recommended Quantizations

  • ✨ General CPU Use: Q4_K_M (Best balance of speed/quality)
  • 📱 ARM Devices: Q4_0 (Optimized for ARM CPUs)
  • 🏆 Maximum Quality: Q8_0 (Near-original quality)

📦 Full Quantization Options

🚀 Download 🔢 Type 📝 Notes
Download Q2_K Basic quantization
Download Q3_K_S Small size
Download Q3_K_M Balanced quality
Download Q3_K_L Better quality
Download Q4_0 Fast on ARM
Download Q4_K_S Fast, recommended
Download Q4_K_M Best balance
Download Q5_0 Good quality
Download Q5_K_S Balanced
Download Q5_K_M High quality
Download Q6_K 🏆 Very good quality
Download Q8_0 Fast, best quality
Download F16 Maximum accuracy

💡 Tip: Use F16 for maximum precision when quality is critical


🚀 Applications and Tools for Locally Quantized LLMs

🖥️ Desktop Applications

Application Description Download Link
Llama.cpp A fast and efficient inference engine for GGUF models. GitHub Repository
Ollama A streamlined solution for running LLMs locally. Website
AnythingLLM An AI-powered knowledge management tool. GitHub Repository
Open WebUI A user-friendly web interface for running local LLMs. GitHub Repository
GPT4All A user-friendly desktop application supporting various LLMs, compatible with GGUF models. GitHub Repository
LM Studio A desktop application designed to run and manage local LLMs, supporting GGUF format. Website
GPT4All Chat A chat application compatible with GGUF models for local, offline interactions. GitHub Repository

📱 Mobile Applications

Application Description Download Link
ChatterUI A simple and lightweight LLM app for mobile devices. GitHub Repository
Maid Mobile Artificial Intelligence Distribution for running AI models on mobile devices. GitHub Repository
PocketPal AI A mobile AI assistant powered by local models. GitHub Repository
Layla A flexible platform for running various AI models on mobile devices. Website

🎨 Image Generation Applications

Application Description Download Link
Stable Diffusion An open-source AI model for generating images from text. GitHub Repository
Stable Diffusion WebUI A web application providing access to Stable Diffusion models via a browser interface. GitHub Repository
Local Dream Android Stable Diffusion with Snapdragon NPU acceleration. Also supports CPU inference. GitHub Repository
Stable-Diffusion-Android (SDAI) An open-source AI art application for Android devices, enabling digital art creation. GitHub Repository

Downloads last month
705
GGUF
Model size
8.03B params
Architecture
command-r
Hardware compatibility
Log In to view the estimation

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for matrixportal/aya-expanse-8b-GGUF

Quantized
(43)
this model

Collections including matrixportal/aya-expanse-8b-GGUF