آکادمی فن افزا
جستجو
Close this search box.

دوره LLMOps

طول مدت دوره: ۸ روز؛ هیبرید (آنلاین و حضوری)

مخاطبان:

  • مهندسان DevOps

  • معاونان فناوری اطلاعات، نوآوری و تحول دیجیتال

  • مدیران و سرپرستان واحدهای داده، هوش مصنوعی و تحلیل پیشرفته

  • معماران سیستم و رهبران تیم‌های فنی

  • معماران سیستم و زیرساخت

  • مدیران محصول و نوآوری در حوزه بانکداری دیجیتال و فین‌تک

  •  علاقه‌مندان به مدل‌های زبانی بزرگ

LLMOps چیست؟

آکادمی فن افزا در این دوره مهندسین هوش مصنوعی را برای طراحی، پیاده‌سازی و مدیریت زیرساخت‌های سخت‌افزاری و بک‌اند مدل‌های زبانی بزرگ آماده می‌کند. مسئولیت یک مهندس LLMOps شامل انتخاب و بهینه‌سازی سخت‌افزار مناسب، طراحی سیستم‌های مقیاس‌پذیر و پایدار برای آموزش و سرویس‌دهی مدل‌ها است. او باید از ابزارهای مدرن برای آموزش توزیع‌شده، استقرار امن و پایدار مدل‌ها و مدیریت هزینه‌های عملیاتی استفاده کند. همچنین بر روی عملکرد سیستم، تضمین امنیت داده‌ها و رعایت استانداردهای قانونی و اخلاقی نظارت داشته باشد.

محورهای تخصصی دوره

  • ‎LLM‎ مبانی زیرساخت‌های

  • ‎LLMطراحی سخت‌افزار برای

  • سیستم‌های بک‌اند و استقرار مدل

  • ‎LLMعملیت و پایش

  • موضوعات پیشرفته و کاربردهای عملی

هزینه دوره: ۱۲.۰۰۰.۰۰۰ تومان

سرفصل‌های دوره

۱- نقشه میدان: مفاهیم و معماری LLMOps

آشنایی با مفاهیم پایه، چرخه عمر مدل‌های زبانی و چالش‌های عملیاتی

  • تفاوت LLM با مدل‌های سنتی ML
  • بررسی چرخه عمر LLM
  • مولفه‌های LLMOps
  • مرور ابزارها و پشته‌ی فنی LLMOps
  • مدیریت داده با DVC
۲- بازخوانی هوشمند: RAG و پرامپت‌نویسی

توانمندسازی در ترکیب داده‌های بیرونی با LLM  از طریق RAG

  • مهندسی پرامپت: تکنیک‌ها و الگوهای رایج
  • ساختار معماری RAG
  • ذخیره و بازیابی برداری با FAISS، Qdrant، Pinecone
  • استفاده از LangChain یا LlamaIndex برای اتصال به دیتابیس
  • کارگاه: ساخت یک RAG ساده با داده‌های واقعی
۳- مدل سفارشی شما: اصول fine-tuning

آموزش روش‌های تنظیم مدل برای کاربردهای خاص

  • مقدمه بر fine-tuning در مقابل مهندسی پرامپت
  • روش‌های بهینه‌سازی: LoRA، PEFT، QLoRA
  • استفاده از PEFT + Transformers در Hugging Face
  • کارگاه: تنظیم یک مدل کوچک روی داده‌ خاص کسب‌وکار
۴- مدل روی میز: میزبانی مدل‌ها در عمل

آموزش نحوه‌ی راه‌اندازی و سرویس‌دهی مدل‌های LLM  به شکل بهینه

  • بررسی معماری inference و سرویس‌دهی
  • GPU vs. CPU
  • ابزارها: vLLM، TGI، Triton، FastAPI
  • معرفی Hugging Face Inference API
  • کارگاه: توسعه یک مدل به کمک vLLM
۵- دیده‌بانی مدل: مانیتورینگ، امنیت و حاکمیت

آموزش اصول نظارت، ثبت لاگ و حفاظت از خروجی‌های مدل

  • ابزارهای پایش: Prometheus، Grafana، Langfuse
  • مخاطرات LLM و ابزارهای حفاظت
  • سیاست‌های Responsible AI
  • کارگاه: افزودن فیلتر به پاسخ LLM
۶- راه‌اندازی نهایی: مقیاس‌پذیری و تست بار

آماده‌سازی کامل برای استقرار در محیط تولید واقعی

  • پیاده‌سازی CI/CD با GitLab و مدل‌ورژنینگ
  • استقرار در Docker و Kubernetes
  • مقیاس‌پذیری پویا با ابزارهایی مثل KEDA
  • تست بار با Locust یا Vegeta
  • راهبردهای مدیریت هزینه

اساتید دوره

عرفان باقری

استاد دوره

مهندس ارشد زیرساخت LLM شرکت ژرفاتک؛ دانش‌آموخته دانشگاه صنعتی شریف

علی عدالت

استاد دوره

مهندس ارشذ توسعه راه‌حل LLM شرکت ژرفاتک؛ دانش‌آموخته دانشگاه تهران

امیرمحمد غضنفری

استاد دوره

مهندس ارشد زیرساخت LLM شرکت ژرفاتک؛ دانش‌آموخته دانشگاه صنعتی امیرکبیر