Тема 1. Базові принципи LLM: трансформери, масштабування, instruction-tuning
Умови завершення
Transformer як базова архітектура сучасних LLM: self-attention, позиційні кодування, обчислювальні компроміси. Розвиток від pretraining до instruction-tuning. Малі мовні моделі (SLM) та сценарії їх використання.
Цей урок ще не готовий.