اجرای مدلهای آفلاین هوش مصنوعی با Ollama به همراه API


اگر همیشه دوست داشتی مثل چتجیپیتی روی کامپیوتر خودت یک مدل هوش مصنوعی داشته باشی و حتی بدون اینترنت هم بتونی ازش استفاده کنی، این آموزش برای توست. اینجا با هم میبینیم که چطور میشه مدلهای مختلف رو به کمک Ollama روی سیستم شخصی نصب و اجرا کرد.
چرا باید مدل هوش مصنوعی رو آفلاین اجرا کنیم؟
چون بدون اینترنت هم میشه از مدل استفاده کرد.
میشه API اون رو در پروژههای شخصی و نرمافزارهایی که مینویسی به کار برد.
میشه روی سرور شخصی رانش کرد و به شکل اختصاصی استفاده کرد.
هزینه خیلی کمتر میشه چون لازم نیست API پولی بخری.
شروع کار با Ollama
۱. اول باید وارد سایت ollama.com
بشی و نرمافزار مخصوص سیستمعاملت (ویندوز، مک یا لینوکس) رو دانلود کنی. حجمش حدود ۷۰۰ مگ هست.
۲. بعد از نصب، در بخش Models میتونی لیست مدلهای مختلف رو ببینی.
۳. مدلها رایگان هستن و هرکدوم حجم و قدرت متفاوتی دارن. مثلاً مدلهای سبک از ۱ گیگ شروع میشن و مدلهای خیلی قوی حتی تا صدها گیگابایت میرسن.
۴. هرچی مدل بزرگتر باشه، هوش و دقت بیشتری داره اما نیاز به سیستم قویتری هم داره.
بعد از نصب:
میتونی به مدل پیام بدی و مثل یک چتبات جواب بگیری.
حتی میشه فارسی باهاش حرف زد (البته بعضی وقتا قاطی میکنه!).
در حین اجرا میتونی ببینی که CPU و GPU سیستم درگیر میشه، چون پردازشها واقعاً سنگینه.
استفاده از API هوش مصنوعی
یکی از بخشهای جذاب Ollama همین API داخلیشه.
میتونی مدل رو در حالت سرور اجرا کنی و از طریق آدرس لوکال هاست بهش ریکوئست بزنی.
این یعنی میتونی در پروژههای برنامهنویسی خودت خیلی راحت ازش استفاده کنی.
یک کتابخونه Python هم داره که کار باهاش رو سادهتر میکنه.
جمعبندی
با Ollama میشه خیلی راحت مدلهای مختلف هوش مصنوعی رو روی کامپیوتر شخصی نصب کرد، حتی بدون اینترنت ازش استفاده کرد و در پروژهها به کمک API به کار گرفت. این روش هم هزینهها رو کاهش میده و هم آزادی عمل بیشتری بهت میده.
برای دیدن آموزش کامل, ویدیو همین صفحه رو ببین