خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

می‌توانید (و باید) یک LLM کوچک را بر روی گوشی اندروید خود اجرا کنید.

من مدتی است که با مدل‌های بزرگ زبانی محلی (LLM) روی کامپیوترم آزمایش می‌کنم. همه‌اش به‌عنوان یک سرگرمی شروع شد وقتی DeepSeek‑R1 را به‌صورت محلی روی مک‌ام اجرا کردم و اکنون بخش بسیار شگفت‌انگیزی از جریان کار من شده است.

من مدتی است که با مدل‌های زبانی بزرگ محلی روی کامپیوترم سر و کار داشته‌ام. همه‌اش از یک سرگرمی شروع شد وقتی I ran DeepSeek-R1 locally on my Mac، و اکنون بخش بسیار شگفت‌انگیزی از جریان کار من شده است.

من تقریباً تمام برنامه‌های محبوب استنتاج هوش مصنوعی محلی روی اندروید را امتحان کرده‌ام و عملکرد همیشه بزرگ‌ترین نکته‌گیر بوده است. شما هم‌اکنونی با محدودیت‌های سخت‌افزاری جدی کار می‌کنید زیرا، واضح است، این یک گوشی است. این باعث می‌شود که بخش نرم‌افزاری کاملاً حیاتی باشد. اینجا است که MNN Chat به‌طور کامل موفق می‌شود.

MNN Chat یک برنامه منبع باز برای اندروید است که به شما اجازه می‌دهد مدل‌های زبانی بزرگ را به‌صورت کامل آفلاین بر روی گوشی خود اجرا کنید، با تمرکز بر سرعت، کارایی و استنتاج واقعی روی دستگاه.

MNN Chat بهترین برنامه LLM محلی است که تا به حال امتحان کرده‌ام

کاش Ollama بر روی اندروید بود

لوگوی MNN

نکته جالب اول درباره MNN Chat این است که در واقع یک پروژه منبع باز است که توسط Alibaba توسعه یافته است. موتور استنتاج خود به‌طور خاص برای اجرای کارآمد LLM‌ها بر روی سخت‌افزارهای موبایلی ساخته شده، بدون حاشیه‌های پیچیده پردازنده‌های گرافیکی پیشرفته. حتی اگر این برنامه در Play Store موجود است، می‌توانید کد آن را خودتان در صفحه GitHub آنها ببینید.

تا به حال بهترین عملکردی را که من تست کرده‌ام برای اجرای مدل‌های محلی روی اندروید دارد. اما پیش از شروع، باید چند نکته را بدانید. ابتدا، نیاز به گوشی نسبتاً قدرتمندی دارید. من تمام مدل‌هایم را بر روی Samsung Galaxy S24 Ultra با ۱۲ گیگابایت رم اجرا کرده‌ام، که حتماً در رده بالای استانداردهای گوشی قرار می‌گیرد.

مطلب مرتبط:   سرویس هوش مصنوعی قابل تنظیم مبتنی بر هوش مصنوعی NVIDIA چیست و چه کسی می تواند از آن استفاده کند؟

MNN در حال اجرای Qwen 2.5

حتی با ربات‌های چت مبتنی بر ابر، من همیشه از این دستیار هوش مصنوعی آفلاین که پیدا کرده‌ام استفاده می‌کنم.

اگرچه، اگر می‌خواهید محدودیت‌ها را تجربه کنید، هنوز هم توصیه می‌کنم حداقل ۸ گیگابایت رم آزاد داشته باشید تا تجربه قابل استفاده‌ای با مدل‌های کوچکتر داشته باشید. همچنین امکانات مفید دیگری دارد. اگر نمی‌دانید کدام مدل را اجرا کنید چون نمی‌دانید کدام یک کارآیی بیشتری دارد، یک حالت بنچمارک داخلی وجود دارد که به شما کمک می‌کند تصمیم بگیرید.

همچنین نیازی به جستجو در اینترنت برای یافتن مدل‌های کارآمد ندارید. MNN Chat شامل یک گالری داخل برنامه است که می‌توانید مدل‌ها را به‌صورت مستقیم بدون خروج از برنامه دریافت کنید.

شما یک آرسیان کامل از مدل‌ها را دریافت می‌کنید، آماده استفاده

نیازی به دانلود مدل‌ها به‌صورت دستی ندارید

بازار مدل‌های MNN Chatحالت بنچمارک MNN ChatMNN Chat در حال اجرای یک مدل کدینگMNN Chat در حال اجرای یک مدل بینایی

راه‌اندازی MNN Chat در واقع بسیار آسان است. تمام کاری که نیاز دارید باز کردن برنامه و رفتن به Models Market است. در اینجا، فهرست کاملی از مدل‌های موجود را می‌بینید که می‌توانید از طریق Hugging Face دانلود کنید. اگر Hugging Face را نمی‌شناسید، در واقع یکی از بزرگ‌ترین مخازن مدل‌های هوش مصنوعی متن‌باز است.

در اینجا، کافی است روی دکمه دانلود کنار مدلی که می‌خواهید بزنید و بلافاصله پس از پایان دانلود آماده استفاده باشد. بخش سخت‌تر در واقع تصمیم‌گیری درباره اینکه کدام را انتخاب کنید، است.

این مدل‌ها می‌توانند از چند صد مگابایت تا چند گیگابایت متغیر باشند. ارزش دارد که اطمینان حاصل کنید فضای ذخیره‌سازی آزاد کافی دارید، به‌ویژه اگر قصد دانلود مدل‌های بزرگتر یا نگهداری چندین مدل نصب‌شده را دارید.

مطلب مرتبط:   نحوه استفاده از تخته های سفید ClickUp

در فهرست، نام‌های آشنایی مانند Qwen، DeepSeek یا Llama را خواهید دید. یک نکته‌ای که به‌سرعت متوجه می‌شوید این است که هر نام مدل شامل عددی به‌همراه حرف B است، مثل gemma-7b.

بازار مدل‌های MNN

حرف B نشان‌دهنده میلیاردها پارامتر است. به‌صورت ساده، هرچه عدد بزرگ‌تر باشد، مدل قدرتمندتر است، اما به‌همین‌طور حافظه بیشتری مصرف می‌کند و روی گوشی کندتر اجرا می‌شود. برای اکثر تلفن‌های میان‌رده یا پرچمدار، من پیشنهاد می‌کنم از مدل‌هایی با حداکثر ۴ میلیارد پارامتر استفاده کنید، اما این به‌طور کامل به گوشی شما بستگی دارد. بر تجربه من، مدل‌های Qwen به‌طور کلی بهترین بوده‌اند و حتی چندرسانه‌ای هستند.

پس از دانلود، می‌توانید به سادگی به My Models بروید و شروع به گفت‌وگو با آن کنید. حتی می‌توانید اعلان سیستم را با کلیک روی منوی همبرگری در بالای راست و رفتن به Settings > System Prompt تغییر دهید.

همچنین می‌توانید حداکثر تعداد توکن‌های جدید را در اینجا تغییر دهید، که به‌سادگی طول پاسخ‌های مدل را قبل از اینکه تولید متن را متوقف کند، تنظیم می‌کند.

بیش از صرفاً LLM‌ها

تولید متن در سال 2025

MNN در حال اجرای یک مدل بینایی

در داخل Models Market ممکن است متوجه شده باشید که چندین دسته برای تولید تصویر، صدا، ویدئو و موارد دیگر وجود دارد. این دقیقاً همان چیزی است که به‌نظر می‌رسد. می‌توانید مدل‌هایی را دانلود و اجرا کنید که بیش از تولید متن عمل می‌کنند، از جمله مدل‌های چندرسانه‌ای که می‌توانند با تصاویر نیز کار کنند.

یک نکته خیلی جالبی که می‌توانید با این کار انجام دهید این است که انواع مختلفی از مدل‌ها را یک‌پارچه کنید تا چیزی شبیه به حالت صوتی ChatGPT به دست آورید. هنگام اجرای یک LLM، ممکن است متوجه شوید که یک آیکون تلفن در بالا سمت راست وجود دارد.

مطلب مرتبط:   چگونه از این ابزار هوش مصنوعی برای رفع مشکلات خانوادگی رایانه استفاده کنم


گزارش MUO: مشترک شوید و هرگز مهم را از دست ندهید

از اینجا باید یک مدل تبدیل متن به گفتار (TTS) دلخواه خود را دانلود کنید. همچنین به یک مدل ASR نیاز دارید که گفتار شما را به متن تبدیل کند. پس از آن، همه چیز آماده است و می‌توانید با LLM محلی خود از طریق صوت صحبت کنید.

فقط به‌خاطر داشته باشید که تمام این مدل‌ها به‌سرعت فضای زیادی را مصرف می‌کنند، همان‌طور که پیشتر اشاره کردیم. اگر می‌خواهید از مدلی استفاده کنید که در HuggingFace موجود نیست، می‌توانید آن را خودتان از طریق ADB وارد کنید.

مک‌بوک روی مبل نمایش گراف Obsidian همراه با LLM محلی

یادداشت‌های من حالا پاسخ می‌دهند و به‌طرز ترسناکی مفید هستند.

باید انتظارات خود را مدیریت کنید

بدون ذکر نیازی، واضح است که نباید کیفیت ChatGPT یا Gemini را انتظار داشته باشید، به‌ویژه برای چیزهایی مثل تولید تصویر. مزیت اصلی این است که می‌توانید این مدل‌ها را به‌صورت محلی بدون هیچ اتصال اینترنتی اجرا کنید و داده‌های شما روی دستگاه باقی می‌مانند. همچنین تعداد زیادی برنامهٔ متن‌باز محلی LLM که می‌توانید برای بهتر کردن تجربه‌تان استفاده کنید نیز وجود دارد.

متأسفانه، اجرا کردن مدل‌های عظیم بر روی چیزی به‌سختی یک گوشی، امکان‌پذیر نیست. اما هنوز، می‌توانید کارهای زیادی با این فناوری انجام دهید، حتی ساخت یک کلون Perplexity با LLMهای محلی.