llama

entry9 galeri
    7.
  1. 30 milyar veri kümesinden beslenen her ağırlık q2_k kuantizasyon seviyesiyle 2 bitlik formatta temsil edildiği için modelim aklını kaybetti:
    https://www.youtube.com/shorts/aTo2wqkQ0jM

    meğerse q4_k, q2_k den daha stabil çalışıyor, yazılanları daha iyi algılıyor ve daha nokta atışı yanıtlar veriyormuş!
    0 ...
  1. henüz yorum girilmemiş
© 2025 uludağ sözlük