RLHF Intro: from Zero to Aligned Intelligent Systems | Igor Kotenkov

Поділитися
Вставка
  • Опубліковано 19 жов 2024

КОМЕНТАРІ • 29

  • @ГорячийМексиканец-ч9в
    @ГорячийМексиканец-ч9в 10 місяців тому +2

    Это, пожалуй, самый интересный и информативный контент, что я посмотрел за год. Cтала ясна связь GPTx и OpenAI Five/Dota 2. Стало понятно, почему настолько мелкий объём RLHF данных даёт сильный эффект.
    Причины вранья сеток, способ пошагового использования и найм фрилансера в роли тула, в общем куча годноты в одном видосе, Игорь Котенков тупа топ.

  • @blackbigdeath
    @blackbigdeath Рік тому +26

    Сейчас молодой человек за 2 часа протолкнет нам месячный курс по Ml, как это было в тот раз. Лайк и смотрим дальше.

    • @stalkermustang
      @stalkermustang  Рік тому +11

      главное на 0.5 скорость ставить :D

    • @nikolayn4022
      @nikolayn4022 Рік тому +1

      Долгова-то будет)) В 5 мин уложился профессор на канале Graphics in 5 Minutes, видео называется Reinforcement Learning: ChatGPT and RHLF

  • @linkernick5379
    @linkernick5379 Рік тому +6

    Очень здорово излагаете, Игорь. Лично я жду ещё и уже делюсь ссылкой на эту лекцию с коллегами.

  • @Тывмоихруках
    @Тывмоихруках Рік тому +4

    Спасибо, за такой качественный доклад, жду новых лекций

  • @runnrnr
    @runnrnr Рік тому +8

    Ура, нормальный микрофон

  • @blackbigdeath
    @blackbigdeath Рік тому +4

    Хорошая лекция, особенно в конце про ChatGPT понравилось

  • @НиколайНовичков-е1э

    Спасибо, Игорь. Очень хорошая лекция

  • @hsqlk
    @hsqlk 10 місяців тому +2

    Очень доходчиво рассказано, а какие/курсы посоветуешь по изучению LLM

  • @ЕленаБондарь-ы6ь
    @ЕленаБондарь-ы6ь 11 місяців тому +3

    Игорь, огромное спасибо за такой понятный рассказ! Это неверно круто как такие сложные вещи Вы смогли раскрыть так доходчиво. Я не ML щик, но прямо многое стало ясно.
    Хотелось бы про chatGPTV узнать, если возможно. Интересно на какой стадии картинки добавляют - на этапе обучения большой LLM или fine-tuning
    Так же ли там применим RL. Ну вдруг :)
    Еще раз огромное спасибо!

    • @stalkermustang
      @stalkermustang  11 місяців тому

      Привет, спасибо за коммент.
      Мы точно не знаем, но я думаю, что сначала отдельно обучается картиночная модель, затем она присоединяется сбоку (см. картинку тут llava-vl.github.io/), и потом дообучается на большом наборе пар инструкция-картинки-текст-ответ. Вполне возможно, что это без RL, то есть только Supervised Fine-Tuning.

  • @karatemoscow
    @karatemoscow Рік тому +1

    Игорь конечно лучший

  • @taraspo4504
    @taraspo4504 Рік тому

    Спасибо!

  • @nauseouscustody1440
    @nauseouscustody1440 5 місяців тому

    Если в общем, то Reward Model это продвинутая loss функция, а Hf (human feedback) это продвинутая функция активации? Или не так?

  • @vladimirpanov4199
    @vladimirpanov4199 Рік тому +2

    В недавней статье "Fundamental Limitations of Alignment in Large Language Models" авторы доказывают, что для любого поведения, которое имеет конечную вероятность проявления моделью, существуют подсказки, которые могут заставить модель проявлять это поведение. Любой процесс выравнивания (в том числе RLHF), ослабляющий нежелательное поведение, но не устраняющий его полностью, небезопасен против атак со стороны подсказок.
    Получается, что защита LLM от "хакеров" принципиально невозможна?

  • @14types
    @14types Рік тому

    Задачу надо ставить не как придумать глупые ограничения для конкретной ИИ от open ai , а надо исходить из того, что никаких запретов не будет и что в этом случае делать. Вот вопрос который надо решать а не тупое выравнивание

  • @14types
    @14types Рік тому +2

    Давно уже известно, что запреты не решают. Они только тормозят прогресс.

  • @14types
    @14types Рік тому +1

    Неужели непонятно. что все эти опасные ответы на опасные промты, которые хотят выравнить, они будут в других свободных ИИ.

  • @autobotanic183
    @autobotanic183 Рік тому

    Не только микрофон ещё и ноут крутой 😂

  • @BrutalStrike2
    @BrutalStrike2 Рік тому

    36:59

  • @14types
    @14types Рік тому

    Да почему не здорово, если человек спрашивает как построить бомбу? Бесят эти запреты, когда решают за людей что им можно читать а что нельзя.

  • @14types
    @14types Рік тому +1

    Делать модель безопасной глупое занятие. Чтобы еще всех не обидеть это вообще невыполнимая задача, которую и не надо решать. Хотят какой-то идеальный мир построить, хотя мир не идеальный и никогда таким не будет.

    • @14types
      @14types Рік тому

      вы с этой безопасностью вырастите поколение розовых пони, которых будут кушать уличные акулы

  • @alexeykutalev4497
    @alexeykutalev4497 Рік тому +1

    То что спикер говорит с 50й до 60й минуты - одна сплошная шибка. И что такое advantage он неправильно рассказывает, и про state value на конце тоже неправильно.

    • @stalkermustang
      @stalkermustang  Рік тому +3

      посмеялся от души в личке в телеге, жаль, ты диалог удалил(

    • @alexeykutalev4497
      @alexeykutalev4497 Рік тому

      @@stalkermustang ну там были полезные объясняющие ссылки, но после того как ты начал хамить, я решил, что оставайся неучем дальше )

    • @MikhalevS
      @MikhalevS Рік тому

      @@alexeykutalev4497 А сюда можно ссылки?