تخفیف!
آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)

A deep understanding of AI large language model mechanisms | آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)

(1 بازخورد مشتری)

قیمت اصلی 1,500,000ریال بود.قیمت فعلی 400,000ریال است.

  • 91 ساعت ویدیو با زیرنویس انگلیسی و فارسی و کیفیت 1080
  • به روز رسانی 11/2025 تهیه شده رسمی یودمی ایران
  • مدرس: Mike X Cohen
  • حجم: 83.84GB (ترافیک داخلی)

توضیحات

آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)

نام دوره :A deep understanding of AI large language model mechanisms 

آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)

پیش نیاز:

  • انگیزه برای یادگیری مدل‌های زبانی بزرگ (LLMها) و هوش مصنوعی

  • تجربهٔ برنامه‌نویسی مفید است، اما ضروری نیست

  • آشنایی با یادگیری ماشین مفید است، اما الزامی نیست

  • تسلط پایه بر جبر خطی کمک‌کننده است

  • آشنایی با یادگیری عمیق و گرادیان کاهشی مفید است، اما لازم نیست

توضیحات

درک عمیق مدل‌های زبانی بزرگ (LLMها): معماری، آموزش و سازوکارها

مدل‌های زبانی بزرگی مانند ChatGPT، GPT-4، GPT-5، Claude، Gemini و LLaMA در حال تغییر بنیان‌های هوش مصنوعی، پردازش زبان و یادگیری ماشین هستند.

اما اغلب دوره‌ها تنها به شما یاد می‌دهند چگونه از این مدل‌ها استفاده کنید.

این دورهٔ فشرده‌ی بیش از ۹۰ ساعت به شما یاد می‌دهد این مدل‌ها چگونه کار می‌کنند — و چگونه با روش‌های یادگیری ماشین و تفسیر‌پذیری مکانیکی آن‌ها را تحلیل کنید.

این دوره یک سفر عمیق و کامل از معماری ترنسفورمرها، مکانیزم توجه، لایه‌های تعبیه‌سازی، فرآیند آموزش و استراتژی‌های استنتاج است — همراه با کدنویسی عملی در Python و PyTorch در تمام مراحل.

چه هدف شما ساخت یک ترنسفورمر از صفر باشد، چه تنظیم دقیق مدل‌های موجود، یا درک ریاضیات و مهندسی پشت نسل جدید هوش مصنوعی، این دوره ابزارها و پایه‌های لازم را به شما می‌دهد.

آنچه یاد خواهید گرفت

  • معماری کامل LLMها — توکن‌سازی، تعبیه‌سازی، انکودر، دیکودر، هدهای توجه، شبکه‌های پیش‌خور و نرمال‌سازی لایه

  • ریاضیات مکانیزم توجه — توجه ضرب نقطه‌ای، توجه چندسری، کدگذاری مکانی، ماسک علّی، انتخاب احتمالاتی توکن‌ها

  • آموزش LLMها — بهینه‌سازی (Adam, AdamW)، توابع هزینه، تجمیع گرادیان، پردازش دسته‌ای، زمان‌بندی نرخ یادگیری، منظم‌سازی (L1, L2, decorrelation)، کلیپ‌کردن گرادیان

  • تنظیم دقیق (Fine-tuning)، مهندسی پرامپت و تنظیم سیستمی

  • معیارهای ارزیابی — perplexity، دقت، مجموعه‌داده‌های مرجع مثل MAUVE، HellaSwag، SuperGLUE و روش‌های سنجش سوگیری و انصاف

  • پیاده‌سازی‌های PyTorch — ترنسفورمرها، لایه‌های توجه، حلقه‌های آموزش مدل زبانی، کلاس‌های سفارشی، توابع هزینه سفارشی

  • تکنیک‌های استنتاج — greedy decoding، beam search، نمونه‌گیری top-k، تغییر دما

  • قوانین مقیاس‌پذیری و توازن بین اندازه مدل، دادهٔ آموزشی و عملکرد

  • محدودیت‌ها و سوگیری‌های LLMها — تفسیرپذیری، ملاحظات اخلاقی، و هوش مصنوعی مسئولانه

  • ترنسفورمرهای فقط‌دیکودر

  • تعبیه‌سازی‌ها — شامل تعبیه‌سازی توکن و تعبیه‌سازی مکانی

  • تکنیک‌های نمونه‌گیری — شامل top-p، top-k، چندجمله‌ای و greedy

آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)

چرا دوره آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM) متفاوت است؟

  • بیش از ۹۳ ساعت ویدیو HD — تلفیقی از نظریه، کدنویسی و کاربرد عملی

  • چالش‌های کدنویسی در تمام بخش‌ها — همراه با راه‌حل‌های قابل‌دانلود

  • شروع از اصول اولیه — از پیاده‌سازی Python/NumPy تا ساخت کامل LLM در PyTorch

  • مناسب پژوهشگران، مهندسان و یادگیرندگان پیشرفته که می‌خواهند فراتر از استفادهٔ سطحی از API پیش بروند

  • توضیحات شفاف بدون ساده‌سازی بیش از حد — عمیق اما قابل‌درک

فناوری‌ها و ابزارهای پوشش داده‌شده

  • Python و PyTorch برای یادگیری عمیق

  • NumPy و Matplotlib برای محاسبات عددی و تجسم

  • Google Colab برای دسترسی رایگان به GPU

  • Hugging Face Transformers برای کار با مدل‌های ازپیش‌آموزش‌دیده

  • کتابخانه‌های توکن‌سازی و پیش‌پردازش متن

  • پیاده‌سازی ترنسفورمر در PyTorch، تنظیم دقیق LLMها، استنتاج با مکانیزم توجه، و تحلیل لایه‌های درونی مدل

پرسش و پاسخ دوره

بخش Q&A فعال وجود دارد که می‌توانید پرسش‌های خود درباره ریاضیات، آمار، کدنویسی یا یادگیری ماشین را مطرح کنید. مدرس معمولاً در کمتر از یک روز پاسخ می‌دهد. مشاهدهٔ پرسش‌های دیگران نیز درک شما را عمیق‌تر می‌کند و می‌توانید در بحث‌ها مشارکت کنید.

با پایان این دوره، نه‌تنها یاد می‌گیرید چگونه با LLMها کار کنید — بلکه می‌فهمید چرا به این شکل کار می‌کنند و چگونه مدل‌های ترنسفورمر خود را طراحی، آموزش، ارزیابی و مستقر کنید.

دوره آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM) برای چه کسانی مناسب است؟

  • مهندسان هوش مصنوعی

  • پژوهشگران مدل‌سازی خودرگرسیو مدرن

  • علاقه‌مندان پردازش زبان طبیعی

  • دانشجویان دوره‌های یادگیری ماشین یا علم داده

  • دانشجویان ارشد یا یادگیرندگان خودآموز

  • دانشجویان کارشناسی علاقه‌مند به مدل‌های زبانی بزرگ

  • متخصصان یادگیری ماشین یا داده

  • پژوهشگران حوزهٔ تفسیرپذیری مدل‌ها

1 دیدگاه برای A deep understanding of AI large language model mechanisms | آموزش ساز و کار و معماری مدل های زبانی بزرگ (LLM)

  1. یودمی ایران

    دوره درخواستی خود را از راه های ارتباطی درخواست کنید

دیدگاه خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *