Что накинулись на спеца - звук не тот, говорит не так. Решение - не нравится не смотри, пройди мимо, но нет же, надо насрать в комментах и оскорбить человека, эго свое потешить
Далее можно автоматизировать отправку скриншота и настроить систему реакций на изменение значений и кнопки "покупать" и "продавать" передать нейронке )
Если сайт имеет HTML разметку, использование AI для запросов экономически невыгодно. Сменить поменявшийся селектор в скрипте скрапера стоит 2 копейки, а AI будет жрать копейки всегда. Вообще, проблемы писать скраперы проблемы нет, проблема, это защита основанная на поведении скрипта на сайте.
как я вижу это решение для тех кто от вида html разметки в обморок падает, каким им селекторы. ну и для тех кому парсить надо 1 раз в сутки, изза цены. если четсно реальное применение очень сложно придумать, ну мало ли...
А как быть если нужно парсить однотипные данные, но с разных сайтов? То есть структура разная получается у сайтов всегда. Тогда решение подойдет только в виде предложенной схемы в видео? Как считаете? Заранее благодарю за уделенное время
@@david_gvana Здравствуйте! Именно парсинг? Например, собирать данные для исследования рынка: анализ рыночных трендов, мониторинг цен, мониторинг конкурентов или чтоб найти емайлы, номера телефонов, почтовый адрес, названия компаний, должность....
Ильяс, добрый день! Подскажите как реализовать цепочку: 1. Приходит новость через RSS feed 2. ChatGPT вырезает из статьи только первые несколько абзацев 3. ChatGPT отправляет в телеграм Стандартная цепочка работает криво и ChatGPT сильно каверкает статью после анализа. Нужно чтобы он цитировал. Если делать цепочку RSS-ChatGPT, ИИ ругается, что не может использовать прямой текст, а перефразирует он не точно (как написал выше)
@@shap3lessplay654 Вы можете: а) спарсить текст, и вырезать абзацы через регулярные выражения б) спарсить текст -> разбить на абзацы -> фильтровать первые несколько абзацев
ПРивет. Хотелось бы понять как сделать полноценный парсер с входящим запросом, и последующим сохранением информацию после изъятия. Например если у меня есть только сайт с 100 000 страницами. НА вашем примере получается что это ручной парсер с единичным запросом, но кажется что это слишком дорого, с учетом того что нужно платить и зха сервис и за гпт нет ?
Привет! Входящие URL страниц можно задать в Google sheets, и на выходе также заносить в таблицы, либо отправлять в емайл/мессенджер. По стоимости не считал, и да, количество операций влияет на бюджет, это правда. В предыдущем видео говорил про парсинг через http -запросы, там гпт не нужен. При таком количестве страниц (100k) имеет смысл, наверное, парсеры, типа apify, подключать.
Навеяло: Про API для CoinDesk не слышали? По сути: а вообще занятный подход, свежий взгляд на парсинг ;) Но по времени обработки - дохрега дольше, чем по api
ну, coinmarketcap мне попался под руку, потому что хотелось попробовать на том, где данные нужны периодически и парсинг решал бы "добычу" этих данных. К крипте никакого отношения не имею. В любом случае, благодарю за отклик)
🤔Это все хорошо, а можно в этой программе Make создать так, чтобы она лазила моим аккаунтом по фейсбуку в групах, пабликах, и могла оставлять разные комментарии к чужим постам или сообщениям, к примеру раз в минуту. Сообщения будут короткими, которые я сгенерирую gpt и закину списком где они будут подтягиватся случайно. Можно так сделать?
@@myQrise думаю, комментарии можно настроить только в своём аккаунте, это же машина, ей нужна инструкция где, куда, что можно, что нельзя. Произвольно не ходит, на заборах не пишет. И слава Богу.
@@ai-iiru Благодарю за ответ. Да за комментарии знаю, это не проблема. Тот же зепто постер справляется с этим на ура. Ну в зепто постере можно самому код писать на питоне, может написание кода исправит эту задачу 🤔 Я б шаблон купил, если бы был такой
очень опасно полагаться на "зрение" от GPT, сейчас работаю над одной автоматизацией, и вижу, что когда речь идет о чтении данных с изображения, в ответах очень много галюцинаций, путает номера, названия улиц (может легко сказать что речь идет о совсем другом адресе, нежели указан в тексте, даже если промт составлен в виде "прочитай и верни текст слово в слово"), и речь идет об идеальных изображениях, разночтения в которых невозможны, особенно показателен пример с адресами, в тексте один адрес, в его ответе другой, причем с более популярными местами в городе о котором идет речь, а не просто созвучные улицы называет
@@romankonstantinovich2584 значит нам не повезло, в нашей задаче точность нужна хотя бы на уровне 80 процентов, но получаем результаты 50/50, и да, я говорю именно об API, в пользовательском интерфейсе, результаты гораздо точнее, проверено на сотнях документов
@@ai-iiru нет, пока тестили только openAI, и так как объем имено сканированных документов не большой, пока сосредоточились на обработке текстовых данных
Поддерживаю, как то скармливал GPT баскетбольную статистику от руки картинкой, чтобы он составил нормальный протокол, так он какие-то левые фамилии написал, очки - совсем из других данных.
@@ai-iiruЯ попытался сделать. Не получилось. Идея такая. 1 раз в сутки парить скрин токена и GPT4o делать анализ по промпту, а затем в бота закидывать, чтобы любой по запросу мог выводить себе эту аналитику. Ну и донаты просить на токены у тех кто будет пользоваться.
ЗДАРРРРРРРРРРРРРРРОВАЙИЯ;)(:В БУДУЩЕМ БУДУТ РУЛИТЬ ТЕ КТО СМОГУТ СТРОИТЬ ГРАМОТНЫЕ И ИНТЕРЕСНО НЕСТАНДАРТНЫЕ ЗАПРОСЫ РОБОТОВ И РЕАЛИЗОВЫВАТЬ УНИКАЛЬНЫЕ ПРОЕКТЫ
Бедный человек. Как он завязан на чужие платформы, по самые яйца. Грустно на это смотреть. В какой-то момент его поимеют на любом этапе обработки запроса.
@@2009Spread Я за нашу Айтишечку переживаю. Походу я один здесь увидел проблему. Всем остальным все нравится, они готовы делать то же самое что и автор. А он, на минуточку, вещает на всю аудиторию ютубчика.
@@xintreavideo opensource юзать нужно больше костылить чтоб собрать все вместе. да и в бажину упрешься а там некому законтрибьютить чтоб фиксануть. А тут хочется что-то выкатить хоть MVP какое-то. Потому как можно зарыться в челленжах и перегореть.
Да все эти приложухи менее надежные, чем свой код. То ломаются, то становятся платными, или как сейчас модно, просто русских ненавидят и блочат ру адреса. Так что лучше змеинный суп. У меня нет проблем с этим.
@@user-vv5hh4ci4j Возможно, Вы правы, только не у всех есть такие знания, которому учиться и учиться, а нужен бывает раз в полгода. Лет 10 назад сайты заказывал, ещё и ждал, пока мной займутся уважаемые программисты, а сейчас шаблон или elementor, и всё, лендинг уже висит. Я считаю, no code/low code это как раз решение для таких как я, самые базовые вещи смогу сам собрать, а за сильно сложным обращусь к таким, как Вы.
@@ai-iiru мне нравился проект coze. Долго там висел, плагины свои делал, потом сделали козу платной,из РФ конечно не работают платежи. А извращаться с оплатами не охота. Забил, делаю тоже самое через свой код и llama_index.
Чел, зачем ты записываешь и выкладываешь ролики, где ты разговариваешь сам с собой? )) Все что понял я как человек много раз слышавший о "Make" , но не работавший с ним, это то, что есть такой сервис, который может сделать вот такое, а дальше бу-бу-бу, разбирайтесь сами... )) Ну реально, нихера не понятно, просто словесная каша. Это я не для того чтобы покритиковать от нехер делать. Просто искал видос как раз о работе данного сервиса, а тут твой канал, а там бу-бу-бу, разбирайтесь сами.
может быть, хотя в жизни не заикаюсь, но видео режу при монтаже, возможно еще потому, что русский не родной. Учту. В любом случае, благодарю за отклик)
Очень интересное видео, спасибо. было бы еще полезно если бы был ТГ канал, где так же можно почитать новости, знать информацию о новых видео. А как оплачиваете сайт? ОН есть в бесплатном формате? или только платно?
рад, что вам интересно, также как и мне) ТГ канала нет, вы первый, кто задает такой вопрос, стоит подумать. Какой сайт? Маке? Там до 1000 операций/мес бесплатно
Супер! Благодарю за знания!
Ильяс! большой РЕСПЕКТ Вам, молодец!
@@ЭшдовлатСувонов Благодарю за отклик и поддержку 🙏
Вы молодец! Молю, продолжайте!!!
Что накинулись на спеца - звук не тот, говорит не так. Решение - не нравится не смотри, пройди мимо, но нет же, надо насрать в комментах и оскорбить человека, эго свое потешить
Интересно очень. Вообще, сейчас мало контента с использованием gpt, побольше бы таких видосов)
Очень круто, и необычно! Вы молодец, продолжайте
Благодарю, даже только ради таких комментариев стОит делать)
Супер , дед не отстаёт от трендов 😮
благодарю за высокую оценку, приятно )
почему дед?)
интересное решение, если не получается обычным способом спарсить сайт, то можно попросить чат гпт прочитать скриншоты с этого сайта)))
благодарю за отклик)
Ильяс спасибо! Очень интересно, кратко, наглядно!
Интересная идея, тоже использую мейк и жпт, но пока много ручной работы, хочу все максимально сделать автономным, а то кучу времени трачу на рутину
Все четко. Кратко. По делу
Здравствуйте, отличное видео, спасибо за информацию!
Подскажите пожалуйста, он только лендинги смотрит или может многостранички проверять?
@@ВладиславПономарев-м6т Какие ссылки дадите, то и смотрит
Суперр!!!
Продолжайте пожалуйста!!!
Далее можно автоматизировать отправку скриншота и настроить систему реакций на изменение значений и кнопки "покупать" и "продавать" передать нейронке )
Zur rahmat sezga, bigrak faidali ankatma buldi minem ochon.
@@jetbrain9115 Sau-salamat buligyz!
Если сайт имеет HTML разметку, использование AI для запросов экономически невыгодно. Сменить поменявшийся селектор в скрипте скрапера стоит 2 копейки, а AI будет жрать копейки всегда. Вообще, проблемы писать скраперы проблемы нет, проблема, это защита основанная на поведении скрипта на сайте.
как я вижу это решение для тех кто от вида html разметки в обморок падает, каким им селекторы. ну и для тех кому парсить надо 1 раз в сутки, изза цены. если четсно реальное применение очень сложно придумать, ну мало ли...
А как быть если нужно парсить однотипные данные, но с разных сайтов? То есть структура разная получается у сайтов всегда. Тогда решение подойдет только в виде предложенной схемы в видео? Как считаете?
Заранее благодарю за уделенное время
Супер, спасибо огромное
а можно парсить не сайты а телеграм каналы ? ну и в другом удобном виде предоставлять информацию в той же телеге?
можно, но ооочень дорого, если через скриншоты)) зато на хабре куча статей про просмотр тг
Интересно, спасибо!
Скиньте пож-та гайд как в chatgpt в make отправить изображение для анализа, не совсем понятно как это сделать
Спасибо большое круто!!!
Спасибо большое
Подскажите, для каких задач в маркетинге или продажах можно применять эту фишку?
@@david_gvana Здравствуйте!
Именно парсинг? Например, собирать данные для исследования рынка: анализ рыночных трендов, мониторинг цен, мониторинг конкурентов или чтоб найти емайлы, номера телефонов, почтовый адрес, названия компаний, должность....
Ильяс, добрый день! Подскажите как реализовать цепочку:
1. Приходит новость через RSS feed
2. ChatGPT вырезает из статьи только первые несколько абзацев
3. ChatGPT отправляет в телеграм
Стандартная цепочка работает криво и ChatGPT сильно каверкает статью после анализа. Нужно чтобы он цитировал. Если делать цепочку RSS-ChatGPT, ИИ ругается, что не может использовать прямой текст, а перефразирует он не точно (как написал выше)
@@shap3lessplay654 Вы можете: а) спарсить текст, и вырезать абзацы через регулярные выражения
б) спарсить текст -> разбить на абзацы -> фильтровать первые несколько абзацев
@@ai-iiru Когда вставляю парсер после РСС - он просто тянет ссылку, но не текст. После парсера какой модуль необходим для перевода в текст? Спасибо
@@ai-iiru можете пояснить пункт А или скинуть ссылку из Ваших видео, где об этом подробнее узнать? Спасибо
@@ai-iiru разобрался, спасибо)))
@@ai-iiru Что значит ошибка "Exceeded maxRedirects. Probably stuck in a redirect loop"?
Очень неожиданное и интересное решение!
вероятно, решение пригодилось, рад
Спасибо за урок. Подскажите как ещё используете make для автоматизации с gpt?
Для контента, в основном, статьи в блог писать, и для аудио-в-текст, саммари для видео/аудио/лонгридов
А какой тарифный план на Gpt брать? Получается за 20 баксов в месяц?
@@solntsevlf Если Вам нужен 4o - то да, подписка ChatGPT Plus
@@ai-iiru а разве можно к make подключиться на бесплатном тарифе и реально пользоваться?
@@ai-iiru скорее автоматизация как вы показали на этом и подобных видео
Платен ли Маке? Если нет, как много подобных запросов он позволяет делать в день?
до 1000 операций/мес - бесплатно
А как можно обратиться к вам за персональным заказом. Я не нашел ни почты ни иного способа обратиться к вам. У меня компания.
@@like3762 Телеграм @nejroset
Вы можете рассказать про рекламу в Ютубе?Можно ли добавить рекламу в видео shorts?
@@DianaScorpio777 Понятия не имею, по моему, UA-cam в РФ рекламу отменил
@@ai-iiru Спасибо .
Спасибо, очень познавательно
ПРивет. Хотелось бы понять как сделать полноценный парсер с входящим запросом, и последующим сохранением информацию после изъятия. Например если у меня есть только сайт с 100 000 страницами. НА вашем примере получается что это ручной парсер с единичным запросом, но кажется что это слишком дорого, с учетом того что нужно платить и зха сервис и за гпт нет ?
Привет! Входящие URL страниц можно задать в Google sheets, и на выходе также заносить в таблицы, либо отправлять в емайл/мессенджер. По стоимости не считал, и да, количество операций влияет на бюджет, это правда. В предыдущем видео говорил про парсинг через http -запросы, там гпт не нужен.
При таком количестве страниц (100k) имеет смысл, наверное, парсеры, типа apify, подключать.
А если на сайте защиты стоят, как быть?
Cloudflare, капчи, и т.д.
Возможно, могут помочь вставка в модуль cookie с визита, но это не точно, нужно тестить
Спасибо большое круто
Навеяло: Про API для CoinDesk не слышали?
По сути: а вообще занятный подход, свежий взгляд на парсинг ;)
Но по времени обработки - дохрега дольше, чем по api
ну, coinmarketcap мне попался под руку, потому что хотелось попробовать на том, где данные нужны периодически и парсинг решал бы "добычу" этих данных. К крипте никакого отношения не имею.
В любом случае, благодарю за отклик)
👍
Может я не понял, а просто посмотреть курс не быстрее?
🤔Это все хорошо, а можно в этой программе Make создать так, чтобы она лазила моим аккаунтом по фейсбуку в групах, пабликах, и могла оставлять разные комментарии к чужим постам или сообщениям, к примеру раз в минуту. Сообщения будут короткими, которые я сгенерирую gpt и закину списком где они будут подтягиватся случайно. Можно так сделать?
@@myQrise думаю, комментарии можно настроить только в своём аккаунте, это же машина, ей нужна инструкция где, куда, что можно, что нельзя. Произвольно не ходит, на заборах не пишет.
И слава Богу.
@@ai-iiru Благодарю за ответ. Да за комментарии знаю, это не проблема. Тот же зепто постер справляется с этим на ура. Ну в зепто постере можно самому код писать на питоне, может написание кода исправит эту задачу 🤔 Я б шаблон купил, если бы был такой
@@myQrise а Вы попросите GPT код написать, он с этим хорошо справляется, и инструкцию напишет как и куда развернуть
Привет! Спасибо за видео, а ссылку на готовую автоматизацию или инструкцию можно где-то получить?
могу на емайл скинуть (в json-формате)
Спасибо
Если не трудно, скиньте пожалуйста и мне.
@@ai-iiru не пришло
@@GodProper куда отправлять?
А как такое сделать себе в notion??
Имеете ввиду, чтоб в notion данные приходили, или что?
@@ai-iiru да, чтобы собирались в базу данных в конкретный столбец
Супер!
Начнешь изучать нейросети, и в 20 будешь выглядеть так)
очень опасно полагаться на "зрение" от GPT, сейчас работаю над одной автоматизацией, и вижу, что когда речь идет о чтении данных с изображения, в ответах очень много галюцинаций, путает номера, названия улиц (может легко сказать что речь идет о совсем другом адресе, нежели указан в тексте, даже если промт составлен в виде "прочитай и верни текст слово в слово"), и речь идет об идеальных изображениях, разночтения в которых невозможны, особенно показателен пример с адресами, в тексте один адрес, в его ответе другой, причем с более популярными местами в городе о котором идет речь, а не просто созвучные улицы называет
Я юзаю и минимум ошибок, чисто скринами с ним общаюсь
@@romankonstantinovich2584 значит нам не повезло, в нашей задаче точность нужна хотя бы на уровне 80 процентов, но получаем результаты 50/50, и да, я говорю именно об API, в пользовательском интерфейсе, результаты гораздо точнее, проверено на сотнях документов
а вы не пробовали также скрин скормить Claude от Anthropic? Текст он вытаскивал корректно, правда, я только тестил, статистики нет
@@ai-iiru нет, пока тестили только openAI, и так как объем имено сканированных документов не большой, пока сосредоточились на обработке текстовых данных
Поддерживаю, как то скармливал GPT баскетбольную статистику от руки картинкой, чтобы он составил нормальный протокол, так он какие-то левые фамилии написал, очки - совсем из других данных.
Сколько стоит внедрить?
привет! здесь только как идея, в реале ваши требования нужно знать. Можете на емайл написать или здесь вкратце, обсудим, что смогу - сделаю.
@@ai-iiruЯ попытался сделать. Не получилось. Идея такая. 1 раз в сутки парить скрин токена и GPT4o делать анализ по промпту, а затем в бота закидывать, чтобы любой по запросу мог выводить себе эту аналитику. Ну и донаты просить на токены у тех кто будет пользоваться.
Велике дякую! 🎉
Вот чувствую, что что-то интересное, но, блин, ну ничего же не понятно!
Что, куда, откуда...
А в чем она дешевле? У меня как было 20$, так и осталась.
gpt-4o $5.00 / 1M tokens | $15.00 / 1M tokens
gpt-4-turbo $10.00 / 1M tokens | $30.00 / 1M tokens
Я так понял этот Мейк в России даже с VPN не работает.😢
Маке доступен без VPN
@@ai-iiru Странно, после авторизации через гугл аккаунт написано, что сайт недоступен.
ЗДАРРРРРРРРРРРРРРРОВАЙИЯ;)(:В БУДУЩЕМ БУДУТ РУЛИТЬ ТЕ КТО СМОГУТ СТРОИТЬ ГРАМОТНЫЕ И ИНТЕРЕСНО НЕСТАНДАРТНЫЕ ЗАПРОСЫ РОБОТОВ И РЕАЛИЗОВЫВАТЬ УНИКАЛЬНЫЕ ПРОЕКТЫ
я нечего не понял
Это что за мамкин трейдер!
О, и такие древние пенсионеры тоже знают о нейронках!
микро делает ушам больно!
Колонки или наушники норм купите
это пздц
Бедный человек. Как он завязан на чужие платформы, по самые яйца. Грустно на это смотреть. В какой-то момент его поимеют на любом этапе обработки запроса.
Ты мать тереза? Не можешь уснуть, за других переживаешь?
@@2009Spread Я за нашу Айтишечку переживаю. Походу я один здесь увидел проблему. Всем остальным все нравится, они готовы делать то же самое что и автор. А он, на минуточку, вещает на всю аудиторию ютубчика.
@@xintreavideo opensource юзать нужно больше костылить чтоб собрать все вместе. да и в бажину упрешься а там некому законтрибьютить чтоб фиксануть. А тут хочется что-то выкатить хоть MVP какое-то. Потому как можно зарыться в челленжах и перегореть.
Да все эти приложухи менее надежные, чем свой код. То ломаются, то становятся платными, или как сейчас модно, просто русских ненавидят и блочат ру адреса. Так что лучше змеинный суп. У меня нет проблем с этим.
@@user-vv5hh4ci4j Возможно, Вы правы, только не у всех есть такие знания, которому учиться и учиться, а нужен бывает раз в полгода.
Лет 10 назад сайты заказывал, ещё и ждал, пока мной займутся уважаемые программисты, а сейчас шаблон или elementor, и всё, лендинг уже висит.
Я считаю, no code/low code это как раз решение для таких как я, самые базовые вещи смогу сам собрать, а за сильно сложным обращусь к таким, как Вы.
@@ai-iiru мне нравился проект coze. Долго там висел, плагины свои делал, потом сделали козу платной,из РФ конечно не работают платежи. А извращаться с оплатами не охота. Забил, делаю тоже самое через свой код и llama_index.
Чел, зачем ты записываешь и выкладываешь ролики, где ты разговариваешь сам с собой? )) Все что понял я как человек много раз слышавший о "Make" , но не работавший с ним, это то, что есть такой сервис, который может сделать вот такое, а дальше бу-бу-бу, разбирайтесь сами... )) Ну реально, нихера не понятно, просто словесная каша.
Это я не для того чтобы покритиковать от нехер делать. Просто искал видос как раз о работе данного сервиса, а тут твой канал, а там бу-бу-бу, разбирайтесь сами.
Благодарю за отклик, учту в следующем видео
Пытался слушать, но не смог дальше. Толи вы заикаетесь, толи у вас такой стиль разговора.
может быть, хотя в жизни не заикаюсь, но видео режу при монтаже, возможно еще потому, что русский не родной. Учту. В любом случае, благодарю за отклик)
@@ai-iiru Да, слушать очень тяжело. Нужно что-то делать, если хотите развивать канал. Удачи!
нормально слушать на 1.5 скорости слушал и все норм
Можно читать, подключить текст или расшифровать
Скорость воспроизведения повыше ставьте, информационные ролики минимум нужно слушать на 1.25, а в данном случае ещё и съедает неровности
Очень интересное видео, спасибо.
было бы еще полезно если бы был ТГ канал, где так же можно почитать новости, знать информацию о новых видео.
А как оплачиваете сайт? ОН есть в бесплатном формате? или только платно?
рад, что вам интересно, также как и мне)
ТГ канала нет, вы первый, кто задает такой вопрос, стоит подумать.
Какой сайт? Маке? Там до 1000 операций/мес бесплатно
@@ai-iiru обязательно ТГ
Интересно. Спасибо!
Это что за мамкин трейдер!