Yazılım Soruları¶
Bu makalede
Ubuntu'da kernel ve sürücüler güncellenmiyor/yüklenmiyor¶
Yeni bir kernel veya sürücüler (kernel modülleri) yüklenmediğinde karşılaşılan sorun, sistem kernel güncellemeleri sırasında /boot
bölümünün dolması nedeniyle yeni başlangıç RAM disklerinin (initrd) oluşturulamamasından kaynaklanabilir. Bu durumu kontrol etmek için aşağıdaki komutu çalıştırın:
Çıktıda hata mesajları görüyorsanız, /boot
bölümünün doluluk seviyesini kontrol edin. Bunu yapmak için df -h /boot
komutunun çıkışını inceleyin.
Initrd'nin başarıyla yeniden oluşturulabilmesi için /boot
bölümünün doluluk yüzdesinden önceki sayı 200M
'den fazla olmalıdır. Boş alan yoksa, aşağıdaki adımları izleyin:
-
Gereksiz dosyaları silirseniz hızlıca geri yükleyebileceğiniz bir yedekleme oluşturun:
-
/boot
bölümünün içeriğini inceleyip tüm initrd görüntülerini bulun:Aşağıdaki gibi bir çıktı almalısınız:
-
Gereksiz initrd görüntülerini silin, SON İKİNİ BIRAKIN. Bizim durumumuzda
initrd.img-6.8.0-57-generic
veinitrd.img-6.8.0-58-generic
dosyalarını sileceğiz.Dikkat
Aşağıdaki komutlar işletim sisteminizin düzgün çalışmamasına neden olabilir, bu yüzden silinen dosyaların versiyonlarına dikkat edin!
/boot
bölümünde son ve ikinci son kernel sürümlerine ait dosyaların bulunduğundan emin olun! Şu anda hangi kernel kullanıldığını kontrol etmek içinuname -a
komutunu çalıştırabilirsiniz. Bir şeyler ters giderse, adım birde yaptığınız yedekten/boot
bölümünün içeriğini geri yükleyebilirsiniz: -
Aşağıdaki komutu kullanarak her dosyayı silin:
Gerekirse
vmlinuz
veSystem.map
(isteğe bağlı) dosyaları için aynısını yapın: -
Sistemi eski kernel'lere dair paketlerden arındırın ve sürücüler ile kernel modüllerinin yeniden kurulumunu ve derlemesini yapmak için aşağıdaki komutları çalıştırın:
-
İşletim sistemini yeniden başlatın:
Docker Compose ile bir hata alıyorum¶
docker: 'compose' is not a docker command
veya docker-compose: command not found
gibi bir hata mesajı alırsanız, işletim sistemi sürümünüz eski olabilir ve bu nedenle Docker Compose bir eklenti olarak kurulmamış ya da PATH
'e eklenmemiş olabilir. Bu sorunu çözmek için aşağıdaki adımları izleyin:
-
Yüklü değilse Docker Compose'ı yükleyin:
mkdir -p ~/.docker/cli-plugins/ curl -SL https://github.com/docker/compose/releases/latest/download/docker-compose-linux-x86_64 -o ~/.docker/cli-plugins/docker-compose chmod +x ~/.docker/cli-plugins/docker-compose
Gerekiyorsa, resmi depodan mevcut sürümle
latest
değiştirin. -
Kurulumu kontrol edin:
Komut başarıyla çalışıyorsa, Docker Compose yüklüdür.
-
Eğer komut hala bulunamıyor ise,
~/.docker/cli-plugins/
'iPATH
ortam değişkenine eklenmiş olduğundan emin olun.~/.bashrc
veya~/.zshrc
dosyanıza aşağıdaki satırı ekleyin:Ardından çalıştırın:
-
Kurulumu tekrar kontrol edin:
Çokdillilik İçeren Derin Öğrenme Modelleri DeepSeek R1 gibi Çince Yanıt Veriyor, Kendi Kullandığınız Dilden Ziyade¶
Çok dilliliği olan modeller, derin araştırma gibi, Türkçe bir talepte bulunulmasına rağmen bazen eğitim diline (Çince veya İngilizce) geçebilirler. Bu, model distile edilmesi, sıkıştırılması ya da yanıtların öncelikli olarak tek bir ana dile ait olmasından kaynaklanabilir.
Bu davranışı en aza indirmek için, soruşturma sonuna "Sadece Türkçe'de cevapla" ifadesini eklemeyi ve bu satırı sistem istemcisine dahil etmeyi öneririz. Ayrıca, DeepSeek'a kıyasla daha az parametreye sahip versiyonlarda daha fazla kararlılık gösteren Qwen3 veya Gemma3 gibi modellerin kullanılması da tavsiye edilmektedir.
Ayrıca, OpenWebUI gibi araçlar kullanarak veya bir API üzerinden çalışıyorsanız sohbetinizin arkasında manuel olarak Türkçe yanıtları kontrol edebilirsiniz.
OpenWebUI veya Ollama'daki Sinir Ağı Modeli Çok Uzun Süre Yanıt Veriyor¶
Eğer model uzun sürede cevap veriyorsa, bu durum muhtemelen modelin boyutuna ve sunucu kapasitenize bağlı olabilir.
İlk olarak, modellerinizin video belleğinde tamamen yer alıp almamasına dikkat edin. Örneğin, llama4:16x17b modeli sıkıştırılmış haliyle (q4) 67 GB boyutunda ve tamamen açılırsa 80–90 GB video belleği gerektirir. NVIDIA A5000 ya da RTX 4090 gibi 24 GB video belleğine sahip bir GPU'nuz varsa, ollama modellenin bazı katmanlarını sunucunuzdaki merkezi işlemciye aktaracaktır ki bu durum sanal makinenizin aşırı yüklenmesine ve yanıt sürelerinin uzamasına yol açar.
Bu modeli çalıştırmak için daha güçlü GPU'lara ihtiyaç duyulur, örneğin Nvidia H100 80 GB video belleği veya dört adet RTX 4090 kombinasyonu gibi. Sunucunuzdaki RAM yalnızca RAG (Zenginleştirilmiş Arama ile Üretim) işlemleri ve yüklenen dosyalarla çalışma durumunda önemlidir ve çoğu durumda en az 32 GB yeterlidir.
Modelin video bellekteki boyutunu tahmin etmek için, model q4'e kadar sıkıştırılmışsa boyutuyla 2'yi çarparak veya q8 olarak sıkıştırılmışsa 1.5 ile çarparak hesaplayabilirsiniz. Bağlam penceresindeki her 1000 ek token için ve 8000'in üzerinde olduğunda, gerekli video belleği için 1 GB ekleyin.
GPU'nuzun yükünü kontrol etmek için sunucunuza SSH üzerinden giriş yapın ve komut satırında ollama ps
yazın:
[ root ]$ ollama ps
NAME ID SIZE PROCESSOR UNTIL
yxchia/multilingual-e5-base:latest f5248cae7e12 1.1 GB 100% GPU 14 dakika sonra
qwen3:14b bdbd181c33f2 14 GB 100% GPU 14 dakika sonra
Çıktı, modeliniz ne kadar yer kapladığını ve tamamen GPU'da mı olduğunu gösterecektir.
Not
24 GB video belleğine sahip GPU'lar için 14B veya daha büyük boyutlarda ve q8'tan fazla sıkıştırma ile modeller önerilmez. Modelin parametre sayısı (olumu) ve bağlam penceresi ne kadar büyükse, yanıt süreci o kadar uzun sürer.
Bilgi
Nvidia A5000 üzerinde 14B boyutundaki modeller için hesaplama performansı:
- Soğuk başlatma yaklaşık 30-40 saniye alır.
- Yanıt - 10–15 saniye (düşünmeden).
- Yanıt - 20-30 saniye (düşünerek).
Eğer RAG (Retrieval-Augmented Generation) veya MCP kullanılıyorsa, yanıt süresi veritabanı araması ve araç isteği için 5–10 saniye artar.
Token üretim hızı yaklaşık 40–45 token/saat civarındadır. Bu değeri OpenWebUI chat'ında cevap satırının altında ikonuna tıklayarak response_token/s
parametresini kontrol ederek doğrulayabilirsiniz.
Bu sayfanın bazı içerikleri ya da yazıları AI tarafından oluşturulmuş veya çevrilmiş olabilir.