Avrupa merkezli yapay zeka şirketi Mistral AI, 24 milyar parametreye sahip yeni bir modeli olan Mistral Small 3’ü tanıttı. Yapay zeka camiasının önemli bir parçası haline gelen bu model, MMLU-Pro değerlendirmesine göre Llama 3.3 70B ve Owen 32B gibi büyük ölçekli modellere yakın bir performans sergileyerek dikkat çekti.
Mistral Small 3 neler sunuyor?
Mistral AI’ın verdiği bilgilere göre, Mistral Small 3, sadece Llama 3.3 70B modeliyle benzer performans sunmanın ötesine geçiyor; ayrıca GPT-4o mini modeline göre daha yüksek hız ve daha düşük gecikme süreleri sağlıyor.

Apache 2.0 lisansı altında kullanıcıların erişimine sunulan Mistral Small 3, hem önceden eğitilmiş hem de talimatlara göre ayarlanmış kontrol noktalarıyla birlikte geliyor. Şirket, Mistral Small 3’ün geliştirilme sürecinin henüz erken aşamalarında olduğunu belirtirken, modelin takviyeli öğrenme veya sentetik veri kullanmadığını vurguladı. Bu durum, modelin gelişmiş muhakeme yetenekleri üzerinde yoğunlaşacağı izlenimini veriyor.
Mistral Small 3’ün dikkat çekici özelliklerinden biri, Nvidia RTX 4090 ekran kartı ya da 32 GB RAM’e sahip kullanıcıların yapay zekayı yerel olarak kendi bilgisayarlarında çalıştırabilmesine imkan tanıması. Bu sayede, mini dil modeli tamamen yerel cihazlarda da desteklenebiliyor.
Mistral AI, Mistral Small 3’ü Gemma-2 27B, Qwen-32B, Llama 3.3 70B ve GPT-4o mini gibi öne çıkan modellerle karşılaştırdı. 1000’den fazla özel kodlama ve genel istem üzerinde gerçekleştirilen testlerde Mistral Small 3, Gemma-2 27B ve Qwen-32B’yi geride bırakmayı başardı. Ancak gerçek kullanıcılar açısından, verdiği cevaplar Llama 3.3 70B ve GPT-4o mini kadar beğenilmedi.
Geliştirici ve araştırmacılar, Mistral Small 3’ü “mistral-small-latest” veya “mistral-small-2501” isimleriyle Mistral AI’nın yapay zeka platformu “la Plateforme” üzerinden kullanabilirler.