دوره LLMOps
طول مدت دوره: ۶ روز
مخاطبان:
مهندسان DevOps
LLMOps چیست؟
این دوره مهندسین هوش مصنوعی را برای طراحی، پیادهسازی و مدیریت زیرساختهای سختافزاری و بکاند مدلهای زبانی بزرگ آماده میکند. مسئولیت یک مهندس LLMOps شامل انتخاب و بهینهسازی سختافزار مناسب، طراحی سیستمهای مقیاسپذیر و پایدار برای آموزش و سرویسدهی مدلها است. او باید از ابزارهای مدرن برای آموزش توزیعشده، استقرار امن و پایدار مدلها و مدیریت هزینههای عملیاتی استفاده کند. همچنین بر روی عملکرد سیستم، تضمین امنیت دادهها و رعایت استانداردهای قانونی و اخلاقی نظارت داشته باشد.
محورهای تخصصی دوره
LLM مبانی زیرساختهای
LLMطراحی سختافزار برای
سیستمهای بکاند و استقرار مدل
LLMعملیت و پایش
موضوعات پیشرفته و کاربردهای عملی
هزینه دوره: ۸.۰۰۰.۰۰۰ تومان
سرفصلهای دوره
آشنایی با مفاهیم پایه، چرخه عمر مدلهای زبانی و چالشهای عملیاتی
- تفاوت LLM با مدلهای سنتی ML
- بررسی چرخه عمر LLM
- مولفههای LLMOps
- مرور ابزارها و پشتهی فنی LLMOps
- مدیریت داده با DVC
توانمندسازی در ترکیب دادههای بیرونی با LLM از طریق RAG
- مهندسی پرامپت: تکنیکها و الگوهای رایج
- ساختار معماری RAG
- ذخیره و بازیابی برداری با FAISS، Qdrant، Pinecone
- استفاده از LangChain یا LlamaIndex برای اتصال به دیتابیس
- کارگاه: ساخت یک RAG ساده با دادههای واقعی
آموزش روشهای تنظیم مدل برای کاربردهای خاص
- مقدمه بر fine-tuning در مقابل مهندسی پرامپت
- روشهای بهینهسازی: LoRA، PEFT، QLoRA
- استفاده از PEFT + Transformers در Hugging Face
- کارگاه: تنظیم یک مدل کوچک روی داده خاص کسبوکار
آموزش نحوهی راهاندازی و سرویسدهی مدلهای LLM به شکل بهینه
- بررسی معماری inference و سرویسدهی
- GPU vs. CPU
- ابزارها: vLLM، TGI، Triton، FastAPI
- معرفی Hugging Face Inference API
- کارگاه: توسعه یک مدل به کمک vLLM
آموزش اصول نظارت، ثبت لاگ و حفاظت از خروجیهای مدل
- ابزارهای پایش: Prometheus، Grafana، Langfuse
- مخاطرات LLM و ابزارهای حفاظت
- سیاستهای Responsible AI
- کارگاه: افزودن فیلتر به پاسخ LLM
آمادهسازی کامل برای استقرار در محیط تولید واقعی
- پیادهسازی CI/CD با GitLab و مدلورژنینگ
- استقرار در Docker و Kubernetes
- مقیاسپذیری پویا با ابزارهایی مثل KEDA
- تست بار با Locust یا Vegeta
- راهبردهای مدیریت هزینه
سخنرانان کلیدی



