Stanford Üniversitesi ve Washington Üniversitesi’ndeki araştırmacılar, yalnızca 26 dakikada ve 50 dolardan daha az bir bütçeyle OpenAI’ın ileri düzey yapay zeka modellerine rakip bir yapay zeka modeli geliştirdiler. s1 olarak adlandırılan bu model, 1.000 sorudan oluşan dar bir veri seti ile eğitildi ve büyük yapay zeka modellerinin bilgilerini daha küçük modellere aktaran distilasyon (distillation) yöntemi kullanılarak oluşturuldu.
50 dolarlık OpenAI rakibi yapay zeka: s1
S1 modelinin mantıksal yeteneklerini geliştirmek amacıyla, Google’ın Gemini 2.0 Flash Thinking Experimental modelinden faydalanıldı. Ancak Google’ın hizmet koşulları, bu API’nin rakip yapay zeka modellerinin geliştirilmesinde kullanılmasını yasaklamaktadır. Bu durum, olası hukuki sorunları gündeme getirme potansiyeline sahip.


S1 modeli, Alibaba Cloud’un açık kaynaklı Qwen2.5 modeli temel alınarak inşa edildi. Başlangıçta 59.000 soruluk geniş bir veri seti ile eğitime başlamış olsalar da, yapılan testler daha küçük bir veri setinin benzer doğruluk seviyelerini sunduğunu ortaya koydu. Bu gelişme, eğitim süresi ve maliyetini önemli ölçüde azalttı.
Modelin eğitim süreci, 16 adet Nvidia H100 GPU kullanılarak gerçekleştirildi. Doğruluğu artırmak amacıyla test-time scaling olarak bilinen ileri bir teknikten yararlanılıyor. Araştırmacılar, modele “Wait” komutu ekleyerek yanıt üretme süresini uzattı. Bu yöntem, modelin ürettiği yanıtları gözden geçirip hatalarını düzeltmesine olanak tanıdı. Böylece yapay zekanın karmaşık mantık süreçlerini daha doğru bir şekilde işlemesi sağlandı.
Bu gelişme, yüksek performansa sahip yapay zeka modellerinin mutlaka büyük yatır