Подробный разбор дообучения (fine-tuning) LLaMa (на примере задачи генерации заголовков к новостям)

Поділитися
Вставка
  • Опубліковано 1 чер 2024
  • Jupyter-ноутбуки из видео github.com/pineforest-ai/nlp_...
    Наш tg-канал с материалами по NLP t.me/+Ml16EbQoepcwMGNi
    00:00 - Сравнение исходной и дообученной LLaMa
    01:08 - Установка зависимостей, import модулей
    02:20 - Инициализация токенизатора и модели
    03:16 - Как обучить LLaMa в int4
    03:45 - Тип float4
    04:52 - Сравнение потребления VRAM для различных конфигураций
    05:28 - Загрузка и предобработка данных
    05:42 - Составляем prompt
    06:56 - Токенизация
    08:43 - LoRA адаптеры
    10:28 - Задаем гиперпараметры
    11:27 - Запускаем обучение
    11:33 - Где скачать обученную LLaMa?
    11:43 - Как запустить обученную LLaMa?
    12:26 - Гиперпараметры генерации
    13:24 - Примеры генерации
  • Наука та технологія

КОМЕНТАРІ •