Увеличиваем картинки. Сделал Diffusion Super Resolution нейросеть в Tensorflow

Поділитися
Вставка
  • Опубліковано 29 лис 2024

КОМЕНТАРІ • 12

  • @ТатьянаСуржикова-м4ж
    @ТатьянаСуржикова-м4ж 10 місяців тому

    Спасибо большое!!! Крутое оформление!

  • @barishni-blin
    @barishni-blin 10 місяців тому +1

    Спасибо за объяснения!

  • @NedoAnimations
    @NedoAnimations 10 місяців тому +3

    Круто! Я пытаюсь сделать диффузия которая с помощью CrossAttention и токенов Clip генерирует изображение! Твоё видео думаю будет полезно. (Правда я использую torch , а не tensorflow)

    • @КрасноТех
      @КрасноТех  10 місяців тому

      Прикольно, тоже с CLIP немного работал, хотя из статей по кандинскому понял, что он не сильно повышает качество по сравнению с просто текстовым энкодером. Но удачи)

  • @denetoro
    @denetoro 7 місяців тому

    Крутой чел, и видео классные

  • @doctors3301
    @doctors3301 10 місяців тому +1

    Привет. Даже не знаю кому как не тебе написать. В общем, обучаю gan модель для генерации картинок. И возникла как пишет инет самая распространенная проблема. У меня ошибка генератора только и делает что возрастает, когда у дискриминатора - падает. Естественно ничего дельного она не генерирует. В чем может быть проблема? Ну и конечно же хотелось бы увидеть какое нибудь сообщество, чтобы задавая вопросы хотя бы скрины приложить ) А то этот коммент выглядит так, будто я у чата gpt взял модель и почему то она не работает 😂😂😂

    • @КрасноТех
      @КрасноТех  10 місяців тому

      Да, ganы неприятные в обучении) Что можно попробовать сделать: Проверить, что обе модели обучаются. Если это tensorflow, то в обучающем цикле у всех моделей должно стоять training = true. Это неочевидно, но может быть в этом проблема. Также должно быть два градиент-тэйпа, две ошибки и два обновления весов. Если генератор хоть пытается что-то генерировать вначале, то оба обучаются и все нормально. Тогда можно сделать следующее: Уменьшить лернинг рэйт у дискриминатора. Вплоть до 1е-5, но обычно 1e-4. Помучать дискриминатор. Убрать последний полносвязный слой, сразу подавать на 1 выход (тут же проверяем активацию выхода, обычно она 'sigmoid'). Добавить туда-же в конец какой-нибуть большой дропаут (до 0.5, обычно 0.2 - 0.3) Добавить слой GlobalAveragePooling в конец. Это иногда помогает. Если продолжает не работать, можно скопировать гайд то тензорфлоу, он должен работать. Дальше смотреть, чем отличается ваш код от их. Насчет сообщества не подскажу. Сам бы много чего спросил) Может когда-нибудь тг чат организую...

    • @doctors3301
      @doctors3301 10 місяців тому

      @@КрасноТех пробовал. Сбить ошибку постоянно растущую удается только двойным проходом генератора, без обучения дискриминатора, но тогда он перестает обучаться, точнее на 50 эпохе вообще все перестает обучаться, по причине того что ошибка у дискриминатора болтается а районе 0.6. К слову может спишемся? Могу почту написать, а там уже в тг перейдем. А то тема интересная, а спросить неукого. Человек я нормальный, в том плане что доставать не буду, только по делу.

    • @doctors3301
      @doctors3301 10 місяців тому

      @@КрасноТех и да, чатик нужен. Не обязательно же только автору пишут, в чат приходят и умные люди, часто вопросы задают им, если конечно они не касаются ролика

    • @КрасноТех
      @КрасноТех  10 місяців тому

      Можете в тг написать krasnoteh@@doctors3301

  • @Trepetsky
    @Trepetsky 10 місяців тому +1

    А что за метрика?

    • @КрасноТех
      @КрасноТех  10 місяців тому +1

      FID, Можете погуглить Frechet inception distance, типа сравнивает, насколько похожи картинки. Тут я сравниваю исходную картинку с ее же версией после даунсэмплинга и расширения нейросетями