Хорошее видео. Позволило поверхностно разобраться в gRPC под стакан уиски. В свою очередь это позволило отдебажить gRPC сервак заказчика на котлине и понять почему он возвращал NPE в ответе. А то непонятно было, куда коней запрягать с этим gRPC. Ура, баг починен, автору респект.
Блин чувак. Ты просто вангуешь. Я только сегодня такой думал: блин, вот бы урок про микросервисы замутил бы кто то годный. И тут уведомление. Просто бомба. Спасибо большое. От души. Я в этой жизни теперь точно не буду счастлив, пока лично не найду тебя не пожму руку. Спасибо
Огромная благодарность, Наиль, за Ваш труд! Реально талант. Настолько доступным языком объяснять сложные вещи. Смотрел в других источниках про gRPC , почти ничего не понял. После этого видео сразу целостное понимание технологии, подхода и преимуществ. И сразу с примером👍Спасибо!)
Мужик, спасибо за объяснение с практикой и сжато в тоже время. Я ваще не в теме был. Но честно, мужик. ctrl + A, ctrl + c - скопировать все содержимое файла. ctrl + A, ctrl + v - вставить в файл с полной заменой. Так сильно проще, чем крутить колесико.
Офигенно! Как раз на проекте столкнулся с использованием микросервисов, которые общаются по gRPC. Помогло очень быстро въехать в тему. Спасибо большое!
Товарищ Алишев, хочу сказать тебе, что ты крутой поц, который выручает меня в знаниях уже который раз, тебя знают половина моей группы в институте, ты уже стал некой мафией в java. Держишь уже свою нишу довольно долго, репект
По моему мнению Наиль самый комфортный обозреватель по Java!!! Скорость подачи ин-фы + грамотная речь + хороший объём нового материала!!! В общем просто КЛАСС👍
Аргмент по несжимаемость JSON надуманный. Он отлично жмётся тем же gzip или brotli, где не будет проблемы того что у нас один и тот же ключ повторяется много раз (будет ссылка на этот символ при сжатии).
Да ну куча проблем у gRPC-web. Вот приходит вам мессаг-респонс, и нужно её прочитать. Вы делаете toObject и если в глубине есть тип google_protobuf_struct_pb.Struct то оно превратится в fieldsMap. И можно конечно на Struct юзать toJavaScript, но Struct может быть очень глубоким потомком jspb.Message и во-первы, идти через геттеры к нему крайне неудобно, а во-вторых, нам нужно все дерево и нужно как-то мержить результат toObject и его потомка. С типизацией у Struct тоже плохо - она вообще не имеет типа и это реально приводит к проблемам в typescript. В целом ну очень неудобно, имхо.
Чел ты лучший, серьезно, мне кажется если бы ты объяснял кватновую механику или молекулярную физику, даже тут все было бы предельно понятно. Огромное тебе спасибо, благодаря тебе научился действительно многому
Отсутствие строгой типизации, это не минус, а плюс JSON. По поводу избыточности JSON. { "header":["date", "event"], "data": [ ["2020-01-14", "Событие 1"], ["2020-01-19", "Событие 2"], ["2020-01-23", "Событие N"], ] } Так, что избыточных ключей легко избежать. Также ничто не мешает гонять потоки JSON объектов по HTTP 2. Тем не менее большое спасибо за видеоролик.
Наиль, у Вас талант объяснять сложные вещи простым языком. Например я очень долго искал и не мог найти понятное для себя руководство по Spring'у, пока не наткнулся на Ваш курс - он стал для меня единственным спасательным кругом. И то же самое с gRPC. Вам нужно собственную школу по программированию открывать для программистов, уже владеющих основами языков программирования, такой как бы продвинутый курс. Или стажировать людей за деньги где-то с оплатой в Вашу сторону. Первую работу найти очень тяжело, поэтому думаю на это реально должен быть спрос - новичкам дать возможность покупать коммерческий опыт, котирующийся у работодателей, за деньги.
@@alishevN Честно не много не понял,так если проблема в размере JSON,что мешает весь JSON прогнать через protobuf и отправить? я ничего не имею против gRpc но в большом проекте где под 1000+ методов которые взаимодействуют с различными микросервисами замучаешься всё описывать в .proto (для такой задачи надо нанимать отдельно человека на должность mapper ;) )
Автор даёт ссылку на тесты. Там видно что при коротких сообщениях прото дает выигрыш. Однако на больших сообщениях явно теряет преимущество. Я думаю что нужно ещё больше тестов. Повысить энтропию данных, зажать их и посмотреть что получиться. Есть шанс что в разных ситуациях, в разных задачах придется выбирать между прото или json вариантом, так как есть зависимость от объема данных и рассеивании. Аргумент того что json сжатие требует процессорное время, такое себя, так как любое сжатие этого требует. Нужно больше хороших синтетических тестов и тестов из жизни, реальных проектов. Но по мне, пока что, JSON выглядит лучше, даже если на коротких сообщениях проигрывает.
"в случаи с монолитным приложением мы можем изменить какую-то часть и это затронет другие приложения" - вопрос архитектуры монолита. Зацепленность-связанность, все дела. "Всё объединено" это не от монолитности же зависит. Микросервис тоже можно изменить так, что это затронет зависящие от него микросервисы. Используется версия http2 только если браузер его полностью поддерживает. Иначе энвой же шлет по http1, разве нет? Ключ-единицу 29:21 мог бы и proto сгенерировать.
EJB аналогичен по своей сути мультимодульному проекту на мавене, когда монолит делят на разные куски в зависимости от его действий в приложении, например, один ejb компонент отвечает за DAO, другой бизнес логика, другой интеграция с внешними сервисами и ТД. Концепция миеросесервисов строится вокруг DDD подхода в рамках которого у каждого сервиса может быть и свой dao слой, и свой слой интеграции и своя бизнес логика. А по поводу RMI, так эта технология и так используется в спринг клауд и является его базой. Grpc в отличии от RMI можно сипмлементировать на любом языке, таким образом не завязываясь на определенном стеке, в то время как клауд в рамках одного цельного приложения это набор микросервисов на java
>нам нужно только унаследоваться от этого класса 35:45 Тем временем класс public **final** class Upd: так бы прямо и говорил что мы будем наследоваться от вложенного класса. 😂
24:05 Глядя как развиваются последние несколько лет нейронки, есть большая вероятность замены таких инструментов как PVS-Studio анализаторами на базе AI. Желаю ребятам скорее оседлать этого конька и включить в свой проект AI подсистему анализатора кода.
Справедливости ради, так как JSON это простой текст, то отлично сжимается gzip, и настроить его как для отдачи так и для получения довольно просто. Такие минусы как не сжимается и повторяющиеся ключи для сжатого json не работают, правда добавляется архивирование и разархивирование.
@@alishevN При передаче данных по каналам связи, что текст, что бинарные файлы сжимаются. Текст лучше, бинарные данные меньше, а в целом получающийся пакет примерно одинаков, разница в 5-10%. Излишний размер влияет на надежность, текстовый формат передается чуть медленнее, но надежнее. Все вышеописанное влияет на передачу между удаленными серверами, в случае связи между близкорасположенными серверами, без использования внешних каналов, т.е. интранет, то тут бинарный формат в 7-10 раз может быть быстрее.
был ли у кого затык в том, что после генерации классов из прото файла, в таргет папке все как в видео, но при имплементации возникает затык, идея просто не видит этот класс из таргета, при ручном импорте com.example.grpc* , идея не видит уже с папки example . хотя ТООЧНО она в иерархии папок в таргет файлах есть как в видео.
Добрый день! Подскажите, пожалуйста, как написать протофайл с двумя rpc таким образом, чтобы сначала ожидались данные от первого сервиса, а потом уже от второго? Как посылать запрос на первый сервер, пока не получишь данные? Спасибо большое за ответ
привет! а как происходит версионирование proto файлов? допустим на сервере он поменялся, это же не значит, что все клиенты должны обновляться? есть какие-то версии пакетов, чтобы использовать конкретный proto файл на клиентах?
некоторые зависимости из этого урока и protobuf-maven-plugin не обновлялись аж с 2018 года. есть какой-то более современный стек, заменяющий эти, очевидно, устаревшие инструменты?
Спасибо за урок! Очень понятно объяснил. До начала практики слушала как подкаст и всё поняла. Золото!!! (Пусть те кто хотят похвастаться в коментах о том что знают больше, вспомнят как учились ложкой кушать.)
json так же сжимается может deflate или gzipом, если настроено сжатие между клиентом и серверов. это прям очень стандартно. и реально эффективно это все и получается бинарно. так же весь html передается, он сжимается при передаче. посмотрите это с помощью tcpdump данные в теле буду бинарными а не текстовыми при использовании сжатия
Скажите, пожалуйста, в чем отличие установки соединения по HTTP 2 с последующим получением по этому соединению потока данных и сокетов? Используя сокеты тоже ведь можно установить отдельное соединение с сервером и получать по нему данные? Большое спасибо за урок!
У меня такой вопрос, когда мы делаем стрим данных от сервера клиенту, в этот стрим попадает 10000 сообщений, которые клиент вычитывает подключившись к серверу, если происходит перезапуск клиента то сообщения читаются с начала, а как сделать, чтобы сервер стримил сообщения которые клиент получал бы не с самого начала, а в реальном времени, т.е. со следующего отправленного после подключения клиента?
В REST API ведь можно использовать потоковые данные через библиотеку Reactor для Spring Boot. Данные передаются через Mono и Flux. Спасибо за обзор. Все четко и доступно. Однозначно заинтересовала технология. Немного напрягает что вместо JSON используется бинарный код
Из предложений по улучшению контента: можешь приобрести планшет или ноутбук с поддержкой стилуса (ручки) для интерактивного добавления материала поверх слайдов.
1) Как НЕ копировать прото-файлы каждый раз в десяток проектов-микросервисов? 2) Как отслеживать изменения в протофайлах? Первое что приходит на ум это создавать отдельный проект с описанием сервисов на протобуфе, собирать из этого проекта потом пакеты/модули для различных языков, и импортировать эти пакеты/модули как внешние зависимости в микросервисах.
Все верно, нужно создавать отдельный гит-проект (если используется гит) и туда класть прото-файлы. В микросервисах затем подключать этот проект с помощью подмодулей (submodule) (используем в ежедневной работе), либо subtree (это не пробовал).
Спасибо за видео. Но вопрос возник в голове у меня - ведь если текст, то его тоже можно сжимать на лету, есть же алгоритмы. Которые достаточно эффективно и быстро сжимаю данные и вот их можно по сети гонять. По сути ведь все равно gRPC дает накладные расходы на кодировние/декодирование, в REST это можно на сжатие/распаковку тратить. Ну правде это не решает вопрос с протоколом и стримами, согласен, но тем не менее.
Подход работы с gRPC, чем то похож с SOAP. Там на основе wsdl генерится java код, а здесь на основе proto файла. Как у клиента так и у сервера эти два файла должны быть одинаковые.
пользую. неплохой вариант. надо быть аккуратным с гибкостью. а то народ начинает создавать сложные запросы и производительность может плавать. по концовке пришли к тому что это хороший вариант для публичного WebAPI там где вам нужна горизантальная скелабилити.
Я один столкнулся с проблемой что не могу унаследовать Grpc класс, у меня 2 проекта, одни maven второй greadle но не там не там не получается расширить этот класс. Если есть идеи буду рад. А так автору респект!!
Просто Вау! Такая крутая штука, а я и не знал! Спасибо автору за труд, очень хороший и нужный вводный ролик! Кстати, а почему в сервере response билдится каждую итерацию цикла? Один раз сбилдить, затем много раз отправлять. Или так нельзя?
сжатие можно настроить в заголовке запроса. так что не совсем верное утверждение про сжатие данных, как по мне. да и транспортный уровень с логическим тут смешивать - так себе идея. но, опять же, я могу чего-то не понимать.
Спасибо большое за видео. Хочу спросить - а как задавать повторяющиеся поля?Как задать хобби в этом примере? Я постоянно отваливаюсь по OutOfBoundException
Сразу вопрос. Как при потоковой передаче данных клиент поймёт, что данные кончились ? В данном примере клиент итератором бежит по ответам, получаемым от сервера, но если задержка между ответами будет составлять не 100мс, а разное время , то как клиент поймёт , что поток закончился? Или закрытие потока на сервере даст понять клиенту , что данных больше не будет ? За видео спасибо огромное !!
Telegram: t.me/alishev_g
Хорошее видео. Позволило поверхностно разобраться в gRPC под стакан уиски. В свою очередь это позволило отдебажить gRPC сервак заказчика на котлине и понять почему он возвращал NPE в ответе. А то непонятно было, куда коней запрягать с этим gRPC. Ура, баг починен, автору респект.
Блин чувак. Ты просто вангуешь. Я только сегодня такой думал: блин, вот бы урок про микросервисы замутил бы кто то годный. И тут уведомление. Просто бомба. Спасибо большое. От души. Я в этой жизни теперь точно не буду счастлив, пока лично не найду тебя не пожму руку. Спасибо
:)
Огромная благодарность, Наиль, за Ваш труд! Реально талант. Настолько доступным языком объяснять сложные вещи. Смотрел в других источниках про gRPC , почти ничего не понял. После этого видео сразу целостное понимание технологии, подхода и преимуществ. И сразу с примером👍Спасибо!)
Мужик, спасибо за объяснение с практикой и сжато в тоже время.
Я ваще не в теме был.
Но честно, мужик.
ctrl + A, ctrl + c - скопировать все содержимое файла.
ctrl + A, ctrl + v - вставить в файл с полной заменой.
Так сильно проще, чем крутить колесико.
Офигенно! Как раз на проекте столкнулся с использованием микросервисов, которые общаются по gRPC. Помогло очень быстро въехать в тему. Спасибо большое!
Как всегда на высшем уровне.... все четко, понятно, без воды... Спасибо большое!!!
Я наконец то разобрался с gRPC) Спасибо тебе за проделанную работу!
Товарищ Алишев, хочу сказать тебе, что ты крутой поц, который выручает меня в знаниях уже который раз, тебя знают половина моей группы в институте, ты уже стал некой мафией в java. Держишь уже свою нишу довольно долго, репект
Мне бы такого ментора как ты, спасибо большое добрый человек !
Получил первый оффер! Спасибо огромное за grpc и все видео по Spring, кучу раз пересматривал и конспектировал.
Кайф!
Был бы очень признателен за подобные уроки по kafka и maven :)
Очень качественная подача информации, спасибо вам огромное
Шикарный урок - очень подробно и понятно. Спасибо!
По моему мнению Наиль самый комфортный обозреватель по Java!!! Скорость подачи ин-фы + грамотная речь + хороший объём нового материала!!! В общем просто КЛАСС👍
Я человек простой, вижу новое видео Алишева - захожу, ставлю лайк!
Очень классный материал! Посмотрел до этого 10 роликов по gRPC и не мог разобраться все равно, теперь же все ясно, спасибо!
Очень круто, отличное содержание, приятно смотреть. Спасибо за труд.
Аргмент по несжимаемость JSON надуманный. Он отлично жмётся тем же gzip или brotli, где не будет проблемы того что у нас один и тот же ключ повторяется много раз (будет ссылка на этот символ при сжатии).
21:30 для браузера можно использовать gRPC-web. Там пока есть ряд ограничений по стримингу, но в целом рабочий вариант.
Да ну куча проблем у gRPC-web. Вот приходит вам мессаг-респонс, и нужно её прочитать. Вы делаете toObject и если в глубине есть тип google_protobuf_struct_pb.Struct то оно превратится в fieldsMap. И можно конечно на Struct юзать toJavaScript, но Struct может быть очень глубоким потомком jspb.Message и во-первы, идти через геттеры к нему крайне неудобно, а во-вторых, нам нужно все дерево и нужно как-то мержить результат toObject и его потомка. С типизацией у Struct тоже плохо - она вообще не имеет типа и это реально приводит к проблемам в typescript. В целом ну очень неудобно, имхо.
Очень внятно и просто как всегда - СУПЕР ПОДАЧА
Чел ты лучший, серьезно, мне кажется если бы ты объяснял кватновую механику или молекулярную физику, даже тут все было бы предельно понятно. Огромное тебе спасибо, благодаря тебе научился действительно многому
Отсутствие строгой типизации, это не минус, а плюс JSON.
По поводу избыточности JSON.
{
"header":["date", "event"],
"data": [
["2020-01-14", "Событие 1"],
["2020-01-19", "Событие 2"],
["2020-01-23", "Событие N"],
]
}
Так, что избыточных ключей легко избежать.
Также ничто не мешает гонять потоки JSON объектов по HTTP 2.
Тем не менее большое спасибо за видеоролик.
А теперь каждый раз пиши ручные парсеры на этот вот свой формат, который из коробки ни одна либа для работы с жсонами не поймет.
Спасибо за Ваш труд! Коммент в поддержку канала.
Редко оставляю комментарии, но ты красавчик! Столько полезного материала!❤
Так вот как ты выглядишь, Alishev. Этот видео формат очень крут!
Большое спасибо вам, очень полезное видео. Пойду поищу ваши уроки про Java
Наиль, у Вас талант объяснять сложные вещи простым языком. Например я очень долго искал и не мог найти понятное для себя руководство по Spring'у, пока не наткнулся на Ваш курс - он стал для меня единственным спасательным кругом. И то же самое с gRPC. Вам нужно собственную школу по программированию открывать для программистов, уже владеющих основами языков программирования, такой как бы продвинутый курс. Или стажировать людей за деньги где-то с оплатой в Вашу сторону. Первую работу найти очень тяжело, поэтому думаю на это реально должен быть спрос - новичкам дать возможность покупать коммерческий опыт, котирующийся у работодателей, за деньги.
Наиль, благодарю! Всегда актуально и своевременно. Спасибо еще раз!
Афигенная штука. Теперь буду писать пет проекты только на gRPC!
Как же ж вовремя! Как раз на работе попросили замутить gRPC клиент!
Спасибо большое за ценный и подробный урок!
Круто, очень доступно, красавчик!
Json сжимается gzip-ом разве нет?
даже сжатый JSON все равно занимает больше места, чем protobuf - nilsmagnus.github.io/post/proto-json-sizes/
@@alishevN Честно не много не понял,так если проблема в размере JSON,что мешает весь JSON прогнать через protobuf и отправить? я ничего не имею против gRpc но в большом проекте где под 1000+ методов которые взаимодействуют с различными микросервисами замучаешься всё описывать в .proto (для такой задачи надо нанимать отдельно человека на должность mapper ;) )
@@FastDamage у нас в C# можно описывать интерфейсы)
Автор даёт ссылку на тесты. Там видно что при коротких сообщениях прото дает выигрыш. Однако на больших сообщениях явно теряет преимущество.
Я думаю что нужно ещё больше тестов. Повысить энтропию данных, зажать их и посмотреть что получиться. Есть шанс что в разных ситуациях, в разных задачах придется выбирать между прото или json вариантом, так как есть зависимость от объема данных и рассеивании. Аргумент того что json сжатие требует процессорное время, такое себя, так как любое сжатие этого требует. Нужно больше хороших синтетических тестов и тестов из жизни, реальных проектов.
Но по мне, пока что, JSON выглядит лучше, даже если на коротких сообщениях проигрывает.
Отличный и понятный урок, спасибо!
"в случаи с монолитным приложением мы можем изменить какую-то часть и это затронет другие приложения" - вопрос архитектуры монолита. Зацепленность-связанность, все дела. "Всё объединено" это не от монолитности же зависит. Микросервис тоже можно изменить так, что это затронет зависящие от него микросервисы.
Используется версия http2 только если браузер его полностью поддерживает. Иначе энвой же шлет по http1, разве нет?
Ключ-единицу 29:21 мог бы и proto сгенерировать.
Прекрасный урок, большое спасибо!
Ух годнота. Однозначно лайк!!!
Нет слов! Спасибо тебе огромное!
Круто! Очень хорошо разобрано, заходит отлично ) Талантливый человек талантлив во многом (на заднем плане гитара и синтезатор : ) )
Никто не мешает в rest использовать бинарный формат и сжатие.
Я бы посмотрел как ты свагером нагенеришь код под бинарные сообщения
Я мешаю
@@kalashnikofsergey7064 чем? Тут ведь речь шла не об удобстве и трудозатратах, а о принципиальной возможности.
это помимо того, что json, как и любой текст, прекрасно жмётся апаратными средствами, прозрачно для разработчика.
Не успел начать рест изучать, а тут уже что-то новое)
не парься, ещё долго рест будет актуален.
Не посмотрев видео, сразу ставлю лайк!
так же делаю
Автолайк, Наиль скажи пожалуйста когда ждать следующий урок по спрингу, ну ооочень жду там как раз на самом интересном ты остановился
по спрингу я записываю полный курс. выйдет через месяц-два
А чем отличается микросервис от EJB-компонента, работающего в распределенной JEE-платформе? И в чем отличие gRPC от RMI/Corba?
EJB аналогичен по своей сути мультимодульному проекту на мавене, когда монолит делят на разные куски в зависимости от его действий в приложении, например, один ejb компонент отвечает за DAO, другой бизнес логика, другой интеграция с внешними сервисами и ТД.
Концепция миеросесервисов строится вокруг DDD подхода в рамках которого у каждого сервиса может быть и свой dao слой, и свой слой интеграции и своя бизнес логика. А по поводу RMI, так эта технология и так используется в спринг клауд и является его базой. Grpc в отличии от RMI можно сипмлементировать на любом языке, таким образом не завязываясь на определенном стеке, в то время как клауд в рамках одного цельного приложения это набор микросервисов на java
>нам нужно только унаследоваться от этого класса 35:45
Тем временем класс public **final** class
Upd: так бы прямо и говорил что мы будем наследоваться от вложенного класса. 😂
Увидел тему, посмотрел длительность - лайк не глядя.
24:05 Глядя как развиваются последние несколько лет нейронки, есть большая вероятность замены таких инструментов как PVS-Studio анализаторами на базе AI. Желаю ребятам скорее оседлать этого конька и включить в свой проект AI подсистему анализатора кода.
Ты мог бы сказать типо есть такая штука от Гугла и используйте ее вместо REST, она лучше), но ты прям с самого начала разжевал) Браво!
Супер ролик! Большое спасибо. Доходчиво и понятно.
Очень круто. Спасибо
Поясните как контролить версии прото файла!? Как сервисы должны понять что он обновился и нужно его поменять и перегенерить код!?
Как скопировать джава RMI в другие языки и ни кому не говорить. Структура 1 в 1. И этой штуке 100 лет в обед. Я еще не родился. За видео лайк.
Справедливости ради, так как JSON это простой текст, то отлично сжимается gzip, и настроить его как для отдачи так и для получения довольно просто. Такие минусы как не сжимается и повторяющиеся ключи для сжатого json не работают, правда добавляется архивирование и разархивирование.
да, правильное замечание, но даже сжатый JSON все равно занимает больше места, чем protobuf - nilsmagnus.github.io/post/proto-json-sizes/
@@alishevN При передаче данных по каналам связи, что текст, что бинарные файлы сжимаются. Текст лучше, бинарные данные меньше, а в целом получающийся пакет примерно одинаков, разница в 5-10%. Излишний размер влияет на надежность, текстовый формат передается чуть медленнее, но надежнее. Все вышеописанное влияет на передачу между удаленными серверами, в случае связи между близкорасположенными серверами, без использования внешних каналов, т.е. интранет, то тут бинарный формат в 7-10 раз может быть быстрее.
GraphQL вам в помощь.
Блин , хорошая лекция. Толковый лектор....
Классный урок, побольше бы таких )
а почему можно final class наследовать, может кто-нибудь объяснить? с 35:30
Отличное видео !
Послушал с удовольствием, первый раз покурить оторвался на 47й минуте))
спасибо! все понятно и лаконично
был ли у кого затык в том, что после генерации классов из прото файла, в таргет папке все как в видео, но при имплементации возникает затык, идея просто не видит этот класс из таргета, при ручном импорте com.example.grpc* , идея не видит уже с папки example . хотя ТООЧНО она в иерархии папок в таргет файлах есть как в видео.
Надо пометить папки со сгенерированным кодом, как sources root, и эта проблема исчезнет.
Формат кстати бомбезный. Люблю иногда посмотреть стримы от GeekBrains (Александр Фирсунов) из за того, что урок идёт на примере и больше часа.
Добрый день! Подскажите, пожалуйста, как написать протофайл с двумя rpc таким образом, чтобы сначала ожидались данные от первого сервиса, а потом уже от второго?
Как посылать запрос на первый сервер, пока не получишь данные? Спасибо большое за ответ
привет! а как происходит версионирование proto файлов? допустим на сервере он поменялся, это же не значит, что все клиенты должны обновляться? есть какие-то версии пакетов, чтобы использовать конкретный proto файл на клиентах?
некоторые зависимости из этого урока и protobuf-maven-plugin не обновлялись аж с 2018 года. есть какой-то более современный стек, заменяющий эти, очевидно, устаревшие инструменты?
Спасибо за урок! Очень понятно объяснил. До начала практики слушала как подкаст и всё поняла. Золото!!!
(Пусть те кто хотят похвастаться в коментах о том что знают больше, вспомнят как учились ложкой кушать.)
Неплохая обертка веб сокетов
Не знал ранее про данный механизм. Спасибо)
json так же сжимается может deflate или gzipом, если настроено сжатие между клиентом и серверов. это прям очень стандартно. и реально эффективно это все и получается бинарно. так же весь html передается, он сжимается при передаче. посмотрите это с помощью tcpdump данные в теле буду бинарными а не текстовыми при использовании сжатия
Охренеть! Это же гениально! Общение клиента и сервера как по шине между процессором и ОЗУ, например. Я балдею)
Обалдеть! 😳
Скажите, пожалуйста, в чем отличие установки соединения по HTTP 2 с последующим получением по этому соединению потока данных и сокетов? Используя сокеты тоже ведь можно установить отдельное соединение с сервером и получать по нему данные? Большое спасибо за урок!
HTTP и Web Sockets это разные протоколы сделанные на основе TCP
У меня такой вопрос, когда мы делаем стрим данных от сервера клиенту, в этот стрим попадает 10000 сообщений, которые клиент вычитывает подключившись к серверу, если происходит перезапуск клиента то сообщения читаются с начала, а как сделать, чтобы сервер стримил сообщения которые клиент получал бы не с самого начала, а в реальном времени, т.е. со следующего отправленного после подключения клиента?
Наиль, а если мы работаем в другой IDE, где нету такого окна Maven с package, как нам тогда всё запускать?
для приема данных с сенсоров используется mqtt, а http для веба
Надеюсь тема grpc будет дальше развиваться,очень нужная штука сейчас,а русскоязычных материалов нету
Большое спасибо!
В REST API ведь можно использовать потоковые данные через библиотеку Reactor для Spring Boot. Данные передаются через Mono и Flux.
Спасибо за обзор. Все четко и доступно. Однозначно заинтересовала технология. Немного напрягает что вместо JSON используется бинарный код
Если не нравится делай на старых технологиях, и как ты собираешься организовывать стримы?
rest api тоже можно бинарно передавать
С удовольствием послушал тебя, Наиль!
Из предложений по улучшению контента: можешь приобрести планшет или ноутбук с поддержкой стилуса (ручки) для интерактивного добавления материала поверх слайдов.
@@ramilsafin5751 Спасибо за фидбэк!) Подумаю над этим.
Спасибо! очень помог
Не знаю на какой джаве проект, но с такими моструозными названиями классов хорошо заходит объявление через var)
Думаю тут скорее для лучшего понимания используется именно такой подход декларации переменных.
супер видео! понятно преподнесено материал! спасибо!
1) Как НЕ копировать прото-файлы каждый раз в десяток проектов-микросервисов?
2) Как отслеживать изменения в протофайлах?
Первое что приходит на ум это создавать отдельный проект с описанием сервисов на протобуфе, собирать из этого проекта потом пакеты/модули для различных языков, и импортировать эти пакеты/модули как внешние зависимости в микросервисах.
Все верно, нужно создавать отдельный гит-проект (если используется гит) и туда класть прото-файлы. В микросервисах затем подключать этот проект с помощью подмодулей (submodule) (используем в ежедневной работе), либо subtree (это не пробовал).
Спасибо за видео.
Но вопрос возник в голове у меня - ведь если текст, то его тоже можно сжимать на лету, есть же алгоритмы. Которые достаточно эффективно и быстро сжимаю данные и вот их можно по сети гонять. По сути ведь все равно gRPC дает накладные расходы на кодировние/декодирование, в REST это можно на сжатие/распаковку тратить. Ну правде это не решает вопрос с протоколом и стримами, согласен, но тем не менее.
Классно!!! Спасибо большое за проделанную работу! Очень интересно слушать!
Привет. При запуске package падает ошибка "protoc did not exit cleanly. Review output for more information.". В чем может быть причина?
Подход работы с gRPC, чем то похож с SOAP. Там на основе wsdl генерится java код, а здесь на основе proto файла. Как у клиента так и у сервера эти два файла должны быть одинаковые.
А как насчёт GraphQL?
пользую. неплохой вариант. надо быть аккуратным с гибкостью. а то народ начинает создавать сложные запросы и производительность может плавать. по концовке пришли к тому что это хороший вариант для публичного WebAPI там где вам нужна горизантальная скелабилити.
Я один столкнулся с проблемой что не могу унаследовать Grpc класс, у меня 2 проекта, одни maven второй greadle но не там не там не получается расширить этот класс. Если есть идеи буду рад. А так автору респект!!
Столкнулся с такой же проблемой. Помогло изменение версии зависимостей grpc-netty-shaded, grpc-protobuf и grpc-stub до актуальной (1.62.2)
@@ilyamogilan8209 о боги, это сработало. Спасибо тебе.
Просто Вау! Такая крутая штука, а я и не знал! Спасибо автору за труд, очень хороший и нужный вводный ролик! Кстати, а почему в сервере response билдится каждую итерацию цикла? Один раз сбилдить, затем много раз отправлять. Или так нельзя?
сжатие можно настроить в заголовке запроса. так что не совсем верное утверждение про сжатие данных, как по мне. да и транспортный уровень с логическим тут смешивать - так себе идея. но, опять же, я могу чего-то не понимать.
Интересно почему не используется реактивных подход где возвращая Flux так же можно стримить данные.
да, flux был бы здесь уместен.
Спасибо большое за видео. Хочу спросить - а как задавать повторяющиеся поля?Как задать хобби в этом примере? Я постоянно отваливаюсь по OutOfBoundException
Почему-то не генерируются классы после package.
Только после protobuf:compile и protobuf:compile-custom
Как пофиксили?
Лукас атдущи! работа с железом wanted :)
получается если использовать grpc и асинхронность это капец как летать будет?
Крутой урок, спасибо!
Loguru очень хорошая альтернатива стандартному logging в Python
Сразу вопрос. Как при потоковой передаче данных клиент поймёт, что данные кончились ? В данном примере клиент итератором бежит по ответам, получаемым от сервера, но если задержка между ответами будет составлять не 100мс, а разное время , то как клиент поймёт , что поток закончился? Или закрытие потока на сервере даст понять клиенту , что данных больше не будет ? За видео спасибо огромное !!