Mac için Swift uygulaması özellikle MLX-llms için

sıcakkafa

Yeni Üye
Doğrudan ev bilgisayarında büyük dil modelleri (büyük dil modelleri, LLMS) ile yapılan deneyler, Deepseek çevresindeki hype'dan beri moda olmuştur. Apple-Silikon-Macs, RAM Genişleme seviyesine ve içerikli işlemci varyantına bağlı olarak bunun için çok uygundur. Apple ayrıca MLX'li ARM MAC'leri için Makine Öğreniminin Hızlanması (ML) için özel bir çerçeve yayınladı. “Apple Silikon İçin Dizi Çerçevesi”, makine öğrenimini mevcut MAC'lerde özellikle verimli hale getirmeyi amaçlamaktadır. Mac App Store'da bulunan yeni bir ücretsiz uygulama, teknolojiyi kullanan modellerde uzmanlaşmıştır.


Reklamcılık



Geniş model seçimi


Pico AI Homelab, sağlayıcı Starling Protocol Inc'den geliyor ve MacOS 15'ten (Sequoia) çalışıyor. Bir elektron uygulaması olarak çalışan LM Studio'ya benzer şekilde, farklı modelleri denemek çok kolaydır. Şu anda 300'den fazla farklı olmalı. Farklı sürümlerde Deepseek R1'in damıtılmış varyantına ek olarak, Mistral, Meta Lama, Alibaba Qwen, Google Gemma ve Microsoft Phi de farklı boyut ve türlere dahildir. Bunların her biri MLX'e uyarlanmıştır, bu da onları GGUF modellerinden daha fazla performans göstermelidir.

Pico ai homelab Ollama ile uyumludur ve ayrıca API'sını kullanır. Böylece Open Webui, MindMac veya Ollamac gibi alternatif sohbet uygulamalarını da kullanabilirsiniz. Genel olarak, Pico AI laboratuvarı yerel bir HTTP sunucusu (LocalHost) olarak çalışır, böylece sohbetler tarayıcıda gerçekleştirilir. Tüm sistem çevrimdışı çalışır ve çevrimiçi veri gönderilmez. Pico ai homelab herhangi bir kullanıcı bilgisinin kendisi toplamaz.

Mac – ve Dezavantajlar İddiaları


Pico ai homelab, M1'den tüm Apple-Silikon-Mac'ten koşar. Minimum RAM genişlemesi 16 GB olmalıdır, ancak 32 GB'dan daha fazla RAM büyük ses modelleri için son derece yararlıdır. Pico ai homelab kullanımı için komut satırı becerileri gerekli değildir. “Tek bir tıklamayla rehberli kurulum sayesinde, yeni başlayanlar bile hızlı bir şekilde başlayabilirken, deneyimli kullanıcılar esnek adaptasyon seçeneklerinden yararlanır.”

Uygulama şu anda tamamen ücretsizdir, daha sonra değişse de, belirsizdir. AI sağlayıcıları için API maliyetleri veya abonelik ücretleri gerçekleşmez. Bununla birlikte, yerel LLM'lerle çok fazla beklememelisiniz: sunucu modellerine kıyasla önemli ölçüde daha düşük bilgi işlem gücü nedeniyle çıkışlar daha kötüdür ve daha fazla halüsinasyon vardır. Yerel modeller “oynamaktan” mutlu.





(BSC)