توضیحات
آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)
نام دوره :A deep understanding of AI large language model mechanisms
پیش نیاز:
انگیزه برای یادگیری مدلهای زبانی بزرگ (LLMها) و هوش مصنوعی
تجربهٔ برنامهنویسی مفید است، اما ضروری نیست
آشنایی با یادگیری ماشین مفید است، اما الزامی نیست
تسلط پایه بر جبر خطی کمککننده است
آشنایی با یادگیری عمیق و گرادیان کاهشی مفید است، اما لازم نیست
توضیحات
درک عمیق مدلهای زبانی بزرگ (LLMها): معماری، آموزش و سازوکارها
مدلهای زبانی بزرگی مانند ChatGPT، GPT-4، GPT-5، Claude، Gemini و LLaMA در حال تغییر بنیانهای هوش مصنوعی، پردازش زبان و یادگیری ماشین هستند.
اما اغلب دورهها تنها به شما یاد میدهند چگونه از این مدلها استفاده کنید.
این دورهٔ فشردهی بیش از ۹۰ ساعت به شما یاد میدهد این مدلها چگونه کار میکنند — و چگونه با روشهای یادگیری ماشین و تفسیرپذیری مکانیکی آنها را تحلیل کنید.
این دوره یک سفر عمیق و کامل از معماری ترنسفورمرها، مکانیزم توجه، لایههای تعبیهسازی، فرآیند آموزش و استراتژیهای استنتاج است — همراه با کدنویسی عملی در Python و PyTorch در تمام مراحل.
چه هدف شما ساخت یک ترنسفورمر از صفر باشد، چه تنظیم دقیق مدلهای موجود، یا درک ریاضیات و مهندسی پشت نسل جدید هوش مصنوعی، این دوره ابزارها و پایههای لازم را به شما میدهد.
آنچه یاد خواهید گرفت
معماری کامل LLMها — توکنسازی، تعبیهسازی، انکودر، دیکودر، هدهای توجه، شبکههای پیشخور و نرمالسازی لایه
ریاضیات مکانیزم توجه — توجه ضرب نقطهای، توجه چندسری، کدگذاری مکانی، ماسک علّی، انتخاب احتمالاتی توکنها
آموزش LLMها — بهینهسازی (Adam, AdamW)، توابع هزینه، تجمیع گرادیان، پردازش دستهای، زمانبندی نرخ یادگیری، منظمسازی (L1, L2, decorrelation)، کلیپکردن گرادیان
تنظیم دقیق (Fine-tuning)، مهندسی پرامپت و تنظیم سیستمی
معیارهای ارزیابی — perplexity، دقت، مجموعهدادههای مرجع مثل MAUVE، HellaSwag، SuperGLUE و روشهای سنجش سوگیری و انصاف
پیادهسازیهای PyTorch — ترنسفورمرها، لایههای توجه، حلقههای آموزش مدل زبانی، کلاسهای سفارشی، توابع هزینه سفارشی
تکنیکهای استنتاج — greedy decoding، beam search، نمونهگیری top-k، تغییر دما
قوانین مقیاسپذیری و توازن بین اندازه مدل، دادهٔ آموزشی و عملکرد
محدودیتها و سوگیریهای LLMها — تفسیرپذیری، ملاحظات اخلاقی، و هوش مصنوعی مسئولانه
ترنسفورمرهای فقطدیکودر
تعبیهسازیها — شامل تعبیهسازی توکن و تعبیهسازی مکانی
تکنیکهای نمونهگیری — شامل top-p، top-k، چندجملهای و greedy
چرا دوره آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM) متفاوت است؟
بیش از ۹۳ ساعت ویدیو HD — تلفیقی از نظریه، کدنویسی و کاربرد عملی
چالشهای کدنویسی در تمام بخشها — همراه با راهحلهای قابلدانلود
شروع از اصول اولیه — از پیادهسازی Python/NumPy تا ساخت کامل LLM در PyTorch
مناسب پژوهشگران، مهندسان و یادگیرندگان پیشرفته که میخواهند فراتر از استفادهٔ سطحی از API پیش بروند
توضیحات شفاف بدون سادهسازی بیش از حد — عمیق اما قابلدرک
فناوریها و ابزارهای پوشش دادهشده
Python و PyTorch برای یادگیری عمیق
NumPy و Matplotlib برای محاسبات عددی و تجسم
Google Colab برای دسترسی رایگان به GPU
Hugging Face Transformers برای کار با مدلهای ازپیشآموزشدیده
کتابخانههای توکنسازی و پیشپردازش متن
پیادهسازی ترنسفورمر در PyTorch، تنظیم دقیق LLMها، استنتاج با مکانیزم توجه، و تحلیل لایههای درونی مدل
پرسش و پاسخ دوره
بخش Q&A فعال وجود دارد که میتوانید پرسشهای خود درباره ریاضیات، آمار، کدنویسی یا یادگیری ماشین را مطرح کنید. مدرس معمولاً در کمتر از یک روز پاسخ میدهد. مشاهدهٔ پرسشهای دیگران نیز درک شما را عمیقتر میکند و میتوانید در بحثها مشارکت کنید.
با پایان این دوره، نهتنها یاد میگیرید چگونه با LLMها کار کنید — بلکه میفهمید چرا به این شکل کار میکنند و چگونه مدلهای ترنسفورمر خود را طراحی، آموزش، ارزیابی و مستقر کنید.
دوره آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM) برای چه کسانی مناسب است؟
مهندسان هوش مصنوعی
پژوهشگران مدلسازی خودرگرسیو مدرن
علاقهمندان پردازش زبان طبیعی
دانشجویان دورههای یادگیری ماشین یا علم داده
دانشجویان ارشد یا یادگیرندگان خودآموز
دانشجویان کارشناسی علاقهمند به مدلهای زبانی بزرگ
متخصصان یادگیری ماشین یا داده
پژوهشگران حوزهٔ تفسیرپذیری مدلها








یودمی ایران –
دوره درخواستی خود را از راه های ارتباطی درخواست کنید