Как работает команда NLP Research после выхода GPT-4 - Даниил Гаврилов, Тинькофф

Поділитися
Вставка
  • Опубліковано 1 лис 2023
  • Даниил рассказал о том, как работает команда NLP Research после выхода GPT-4 и откуда берет новые идеи.
    Наш телеграм: t.me/tinkoffai
    Дайджесты, статьи и анонсы митапов: t.me/itstinkoff
    Жизнь команда изнутри и вакансии по направлениям: t.me/tinkoffjobs
    Блог на Хабре: l.tinkoff.ru/habr-tinkoff
    #ai #ml #тинькофф
  • Наука та технологія

КОМЕНТАРІ • 8

  • @examore-lite
    @examore-lite Місяць тому

    Спасибо!

  • @HarpaAI
    @HarpaAI 6 місяців тому +4

    🎯 Key Takeaways for quick navigation:
    00:05 🎙️ *Вступление и представление*
    - Даниил Гаврилов приветствует участников на конференции NLP Research и представляет команду.
    - Он подчеркивает значимость исследований и поиска новых идей для команды.
    00:33 🌍 *Изменения в сфере NLP после выхода GPT-4*
    - Гаврилов обсуждает как ситуация изменилась с выходом GPT-4 в конце 2022 года.
    - Команда NLP Research столкнулась с экзистенциальными вопросами и необходимостью новых идей.
    01:15 💡 *Переход к новым направлениям и методам исследований*
    - Гаврилов рассказывает, как команда начала искать новые направления и методы исследований после появления GPT-4.
    - Он подчеркивает необходимость исследований и разработки новых подходов.
    02:21 📚 *Основание исследований на текстовых диффузиях*
    - Обсуждается выбор текстовых диффузий как одного из направлений исследований.
    - Указывается интерес к альтернативным подходам и понимание их значимости.
    03:45 🔬 *Итеративный генеративный процесс и диффузия*
    - Гаврилов объясняет итеративный генеративный процесс и использование диффузии в текстовых моделях.
    - Уточняется работа с латентными переменными и принципы генерации текста.
    04:30 🧩 *Работа с текстовыми диффузиями*
    - Обсуждается использование непрерывного шума и параметризованных представлений в текстовых диффузиях.
    - Уточняется идея остановки итеративного процесса для ускорения генерации текста.
    07:01 🤖 *Контекстное обучение (Context Learning)*
    - Рассматривается использование контекстного обучения, где модель обучается в контексте задачи или примеров.
    - Приводятся примеры использования контекстного обучения, включая оптимизацию и создание новых промтов.
    09:19 🧠 *Обучение с контекстом для универсальных моделей*
    - Рассматривается идея обучения моделей, способных обобщать и применять знания из контекста и датасетов.
    - Указывается, что большие модели и экспертиза в их обучении позволяют достичь новых уровней производительности.
    10:54 🚀 *Преодоление ограничений в обработке длинных последовательностей*
    - Обсуждается необходимость обработки длинных последовательностей и сложность этой задачи.
    - Указывается на появление новых методов, позволяющих эффективно обрабатывать длинные контексты и обучать модели быстро и эффективно.
    13:00 🔄 *Линейные рекуррентные сети и параллельный скан*
    - Обсуждается использование линейных рекуррентных сетей без нелинейных функций активации для обработки последовательностей.
    - Уточняется, что такие модели позволяют параллельное обучение и избавляют от ограничений квадратичной сложности, что делает их быстрыми и эффективными.
    13:44 🚀 *Перспективы исследований в будущем*
    - Рассказывается о вере в развитие текущих направлений исследований в будущем.
    - Указывается, что команда NLP Research будет искать новые, интересные идеи для развития.
    - Подчеркивается важность подписки на канал ивентов для получения информации о будущих мероприятиях.
    15:09 📚 *Вопросы и комментарии от аудитории*
    - Обсуждается важность кратких обзоров для экономии времени при изучении статей.
    - Задается вопрос о линейных рекуррентных моделях и их сравнении с трансформерами.
    - Объясняется хитрость в использовании линейных рекуррентных моделей без нелинейных функций активации.
    16:47 🔄 *Характеристики линейных рекуррентных моделей*
    - Рассматривается необходимость нелинейности в моделях по временной размерности.
    - Объясняется, что линейные рекуррентные сети позволяют обучать сложные распределения и агрегировать информацию по времени.
    - Отмечается, что можно обучать сложные модели, используя простой способ агрегации по времени.
    17:29 🔮 *Перспективы исследований в будущем*
    - Указывается на актуальность исследований по генерации и развитие универсальных моделей.
    - Рассматривается возможность создания более специализированных, более дешевых моделей в будущем.
    - Подчеркивается важность веры в развитие и поиск новых, быстрых и эффективных решений.
    18:10 🌐 *Генерализация и обучение универсальных моделей*
    - Указывается вера в максимальную генерализацию и развитие универсальных моделей.
    - Обсуждается переход от частных моделей к одной общей, способной решать разные задачи.
    - Рассматривается возможность обновления модели в виртуальном мире для непрерывного улучшения.
    19:40 📏 *Длинные последовательности и утилитарные задачи*
    - Обсуждается важность обработки длинных последовательностей и больших датасетов.
    - Упоминается необходимость отказа от ограничений в длине последовательностей.
    - Рассматриваются возможности удешевления обработки данных для сделать их более доступными.
    20:34 👾 *Развитие агентов и мета-обучение*
    - Обсуждается развитие агентов и мета-обучение в контексте работы с ними.
    - Указывается на неэффективность привычных способов обучения агентов.
    - Рассматривается возможность обучения агентов с использованием метален и виртуальных сред.
    Made with HARPA AI

  • @aidarov
    @aidarov 5 місяців тому

    Спасибо ютубу, что продвинул ваш канал ко мне в рекомендации.
    Благодарю за интересный доклад

  • @INN2007qqqq
    @INN2007qqqq 6 місяців тому

    Желтый Яй это прям бренд

  • @solidauditorium
    @solidauditorium 6 місяців тому +7

    Скорей бы появился ИИ который будет помогать людям записывать нормальный звук на лекциях.

    • @HarpaAI
      @HarpaAI 6 місяців тому

      Зачем, ведь можно просто читать саммари :)

    • @user-if8eu5uo7b
      @user-if8eu5uo7b 6 місяців тому

      Это не важно, когда нужно было выдавить под брендом тинькофф

  • @bizon505
    @bizon505 3 місяці тому

    Прослушал ничего не понял сплошной шум