8b (milyar ) parametreli llma modeli bile benim açımdan oldukça başarılıydı, eğer 34b parametreli modeli çalıştırırsam, 70 milyar parametreli meta modeline geçeceğim. ve elimde chatgpt3.0 dan sadece %50 daha az performanslı bir canavar olacak. üstelik sıfır maliyetle!