Эта вторая моделька, которая цензурирует, обходится на раз-два. Сначала учишь основную модель шифровать информацию, потом общаешься шифровками и модель-сторож ничего не понимает. Подкаст очень интересный 👍🏻 спасибо 🫶🏻
Пацаны, видос прикольный. Мне интересно. Вот бы перевод в сабах, ну, штоп не паузить каждую секунду и не идти в переводчик. Ну, или ссылку скиньте на нейронку, которая бы вас переводила в потоке на общедоступный великий и могучий😊
Спасибо, очень интересно! Такой вопрос, можно ли загрузить в нейронку 20 документов с ГОСТами и суммировать информацию по конкретной ситуации? Куда копать?
Спасибо за вопрос! Там в основном используют mixed precision «Чистая» тренировка в фп16/бф16 в целом норм для небольшого тюна. Но претрейны получаются значительно слабее, чем с использованием смешанной точности
Ценнейшая информация, с удовольствием посмотрел. Жду продолжения!!
Спасибо! Готовим вторую часть :)
Подкаст огонь, с удовольствием послушал. Записывайте обязательно еще, хоть и мало просмотров, но инфа крайне ценная. Спасибо!
Спасибо! Очень приятно такое читать!)
Эта вторая моделька, которая цензурирует, обходится на раз-два. Сначала учишь основную модель шифровать информацию, потом общаешься шифровками и модель-сторож ничего не понимает. Подкаст очень интересный 👍🏻 спасибо 🫶🏻
Пацаны, видос прикольный. Мне интересно. Вот бы перевод в сабах, ну, штоп не паузить каждую секунду и не идти в переводчик. Ну, или ссылку скиньте на нейронку, которая бы вас переводила в потоке на общедоступный великий и могучий😊
Спасибо, очень интересно! Такой вопрос, можно ли загрузить в нейронку 20 документов с ГОСТами и суммировать информацию по конкретной ситуации? Куда копать?
в RAG
27:00 это с каких это пор в fp16 или bf16 нельзя тренировать модели? А третью лламу в какой точности учили?
Спасибо за вопрос!
Там в основном используют mixed precision
«Чистая» тренировка в фп16/бф16 в целом норм для небольшого тюна. Но претрейны получаются значительно слабее, чем с использованием смешанной точности
Симп Валентин