Что накинулись на спеца - звук не тот, говорит не так. Решение - не нравится не смотри, пройди мимо, но нет же, надо насрать в комментах и оскорбить человека, эго свое потешить
Если сайт имеет HTML разметку, использование AI для запросов экономически невыгодно. Сменить поменявшийся селектор в скрипте скрапера стоит 2 копейки, а AI будет жрать копейки всегда. Вообще, проблемы писать скраперы проблемы нет, проблема, это защита основанная на поведении скрипта на сайте.
как я вижу это решение для тех кто от вида html разметки в обморок падает, каким им селекторы. ну и для тех кому парсить надо 1 раз в сутки, изза цены. если четсно реальное применение очень сложно придумать, ну мало ли...
Далее можно автоматизировать отправку скриншота и настроить систему реакций на изменение значений и кнопки "покупать" и "продавать" передать нейронке )
Очень интересное видео, спасибо. было бы еще полезно если бы был ТГ канал, где так же можно почитать новости, знать информацию о новых видео. А как оплачиваете сайт? ОН есть в бесплатном формате? или только платно?
рад, что вам интересно, также как и мне) ТГ канала нет, вы первый, кто задает такой вопрос, стоит подумать. Какой сайт? Маке? Там до 1000 операций/мес бесплатно
Навеяло: Про API для CoinDesk не слышали? По сути: а вообще занятный подход, свежий взгляд на парсинг ;) Но по времени обработки - дохрега дольше, чем по api
ну, coinmarketcap мне попался под руку, потому что хотелось попробовать на том, где данные нужны периодически и парсинг решал бы "добычу" этих данных. К крипте никакого отношения не имею. В любом случае, благодарю за отклик)
очень опасно полагаться на "зрение" от GPT, сейчас работаю над одной автоматизацией, и вижу, что когда речь идет о чтении данных с изображения, в ответах очень много галюцинаций, путает номера, названия улиц (может легко сказать что речь идет о совсем другом адресе, нежели указан в тексте, даже если промт составлен в виде "прочитай и верни текст слово в слово"), и речь идет об идеальных изображениях, разночтения в которых невозможны, особенно показателен пример с адресами, в тексте один адрес, в его ответе другой, причем с более популярными местами в городе о котором идет речь, а не просто созвучные улицы называет
@@romankonstantinovich2584 значит нам не повезло, в нашей задаче точность нужна хотя бы на уровне 80 процентов, но получаем результаты 50/50, и да, я говорю именно об API, в пользовательском интерфейсе, результаты гораздо точнее, проверено на сотнях документов
@@ai-iiru нет, пока тестили только openAI, и так как объем имено сканированных документов не большой, пока сосредоточились на обработке текстовых данных
Поддерживаю, как то скармливал GPT баскетбольную статистику от руки картинкой, чтобы он составил нормальный протокол, так он какие-то левые фамилии написал, очки - совсем из других данных.
Ильяс, добрый день! Подскажите как реализовать цепочку: 1. Приходит новость через RSS feed 2. ChatGPT вырезает из статьи только первые несколько абзацев 3. ChatGPT отправляет в телеграм Стандартная цепочка работает криво и ChatGPT сильно каверкает статью после анализа. Нужно чтобы он цитировал. Если делать цепочку RSS-ChatGPT, ИИ ругается, что не может использовать прямой текст, а перефразирует он не точно (как написал выше)
@@shap3lessplay654 Вы можете: а) спарсить текст, и вырезать абзацы через регулярные выражения б) спарсить текст -> разбить на абзацы -> фильтровать первые несколько абзацев
@@david_gvana Здравствуйте! Именно парсинг? Например, собирать данные для исследования рынка: анализ рыночных трендов, мониторинг цен, мониторинг конкурентов или чтоб найти емайлы, номера телефонов, почтовый адрес, названия компаний, должность....
ЗДАРРРРРРРРРРРРРРРОВАЙИЯ;)(:В БУДУЩЕМ БУДУТ РУЛИТЬ ТЕ КТО СМОГУТ СТРОИТЬ ГРАМОТНЫЕ И ИНТЕРЕСНО НЕСТАНДАРТНЫЕ ЗАПРОСЫ РОБОТОВ И РЕАЛИЗОВЫВАТЬ УНИКАЛЬНЫЕ ПРОЕКТЫ
ПРивет. Хотелось бы понять как сделать полноценный парсер с входящим запросом, и последующим сохранением информацию после изъятия. Например если у меня есть только сайт с 100 000 страницами. НА вашем примере получается что это ручной парсер с единичным запросом, но кажется что это слишком дорого, с учетом того что нужно платить и зха сервис и за гпт нет ?
Привет! Входящие URL страниц можно задать в Google sheets, и на выходе также заносить в таблицы, либо отправлять в емайл/мессенджер. По стоимости не считал, и да, количество операций влияет на бюджет, это правда. В предыдущем видео говорил про парсинг через http -запросы, там гпт не нужен. При таком количестве страниц (100k) имеет смысл, наверное, парсеры, типа apify, подключать.
🤔Это все хорошо, а можно в этой программе Make создать так, чтобы она лазила моим аккаунтом по фейсбуку в групах, пабликах, и могла оставлять разные комментарии к чужим постам или сообщениям, к примеру раз в минуту. Сообщения будут короткими, которые я сгенерирую gpt и закину списком где они будут подтягиватся случайно. Можно так сделать?
@@myQrise думаю, комментарии можно настроить только в своём аккаунте, это же машина, ей нужна инструкция где, куда, что можно, что нельзя. Произвольно не ходит, на заборах не пишет. И слава Богу.
@@ai-iiru Благодарю за ответ. Да за комментарии знаю, это не проблема. Тот же зепто постер справляется с этим на ура. Ну в зепто постере можно самому код писать на питоне, может написание кода исправит эту задачу 🤔 Я б шаблон купил, если бы был такой
@@ai-iiruЯ попытался сделать. Не получилось. Идея такая. 1 раз в сутки парить скрин токена и GPT4o делать анализ по промпту, а затем в бота закидывать, чтобы любой по запросу мог выводить себе эту аналитику. Ну и донаты просить на токены у тех кто будет пользоваться.
Чел, зачем ты записываешь и выкладываешь ролики, где ты разговариваешь сам с собой? )) Все что понял я как человек много раз слышавший о "Make" , но не работавший с ним, это то, что есть такой сервис, который может сделать вот такое, а дальше бу-бу-бу, разбирайтесь сами... )) Ну реально, нихера не понятно, просто словесная каша. Это я не для того чтобы покритиковать от нехер делать. Просто искал видос как раз о работе данного сервиса, а тут твой канал, а там бу-бу-бу, разбирайтесь сами.
Бедный человек. Как он завязан на чужие платформы, по самые яйца. Грустно на это смотреть. В какой-то момент его поимеют на любом этапе обработки запроса.
@@2009Spread Я за нашу Айтишечку переживаю. Походу я один здесь увидел проблему. Всем остальным все нравится, они готовы делать то же самое что и автор. А он, на минуточку, вещает на всю аудиторию ютубчика.
@@xintreavideo opensource юзать нужно больше костылить чтоб собрать все вместе. да и в бажину упрешься а там некому законтрибьютить чтоб фиксануть. А тут хочется что-то выкатить хоть MVP какое-то. Потому как можно зарыться в челленжах и перегореть.
Да все эти приложухи менее надежные, чем свой код. То ломаются, то становятся платными, или как сейчас модно, просто русских ненавидят и блочат ру адреса. Так что лучше змеинный суп. У меня нет проблем с этим.
@@user-vv5hh4ci4j Возможно, Вы правы, только не у всех есть такие знания, которому учиться и учиться, а нужен бывает раз в полгода. Лет 10 назад сайты заказывал, ещё и ждал, пока мной займутся уважаемые программисты, а сейчас шаблон или elementor, и всё, лендинг уже висит. Я считаю, no code/low code это как раз решение для таких как я, самые базовые вещи смогу сам собрать, а за сильно сложным обращусь к таким, как Вы.
@@ai-iiru мне нравился проект coze. Долго там висел, плагины свои делал, потом сделали козу платной,из РФ конечно не работают платежи. А извращаться с оплатами не охота. Забил, делаю тоже самое через свой код и llama_index.
может быть, хотя в жизни не заикаюсь, но видео режу при монтаже, возможно еще потому, что русский не родной. Учту. В любом случае, благодарю за отклик)
Супер! Благодарю за знания!
Что накинулись на спеца - звук не тот, говорит не так. Решение - не нравится не смотри, пройди мимо, но нет же, надо насрать в комментах и оскорбить человека, эго свое потешить
Вы молодец! Молю, продолжайте!!!
Интересно очень. Вообще, сейчас мало контента с использованием gpt, побольше бы таких видосов)
интересное решение, если не получается обычным способом спарсить сайт, то можно попросить чат гпт прочитать скриншоты с этого сайта)))
благодарю за отклик)
Очень круто, и необычно! Вы молодец, продолжайте
Благодарю, даже только ради таких комментариев стОит делать)
Ильяс спасибо! Очень интересно, кратко, наглядно!
Интересная идея, тоже использую мейк и жпт, но пока много ручной работы, хочу все максимально сделать автономным, а то кучу времени трачу на рутину
Супер!
Супер , дед не отстаёт от трендов 😮
благодарю за высокую оценку, приятно )
почему дед?)
Все четко. Кратко. По делу
Велике дякую! 🎉
Если сайт имеет HTML разметку, использование AI для запросов экономически невыгодно. Сменить поменявшийся селектор в скрипте скрапера стоит 2 копейки, а AI будет жрать копейки всегда. Вообще, проблемы писать скраперы проблемы нет, проблема, это защита основанная на поведении скрипта на сайте.
как я вижу это решение для тех кто от вида html разметки в обморок падает, каким им селекторы. ну и для тех кому парсить надо 1 раз в сутки, изза цены. если четсно реальное применение очень сложно придумать, ну мало ли...
Суперр!!!
Продолжайте пожалуйста!!!
Супер, спасибо огромное
Интересно. Спасибо!
Спасибо большое
Спасибо большое круто!!!
Далее можно автоматизировать отправку скриншота и настроить систему реакций на изменение значений и кнопки "покупать" и "продавать" передать нейронке )
Спасибо большое круто
Очень неожиданное и интересное решение!
вероятно, решение пригодилось, рад
Очень интересное видео, спасибо.
было бы еще полезно если бы был ТГ канал, где так же можно почитать новости, знать информацию о новых видео.
А как оплачиваете сайт? ОН есть в бесплатном формате? или только платно?
рад, что вам интересно, также как и мне)
ТГ канала нет, вы первый, кто задает такой вопрос, стоит подумать.
Какой сайт? Маке? Там до 1000 операций/мес бесплатно
@@ai-iiru обязательно ТГ
а можно парсить не сайты а телеграм каналы ? ну и в другом удобном виде предоставлять информацию в той же телеге?
можно, но ооочень дорого, если через скриншоты)) зато на хабре куча статей про просмотр тг
Навеяло: Про API для CoinDesk не слышали?
По сути: а вообще занятный подход, свежий взгляд на парсинг ;)
Но по времени обработки - дохрега дольше, чем по api
ну, coinmarketcap мне попался под руку, потому что хотелось попробовать на том, где данные нужны периодически и парсинг решал бы "добычу" этих данных. К крипте никакого отношения не имею.
В любом случае, благодарю за отклик)
Начнешь изучать нейросети, и в 20 будешь выглядеть так)
👍
Скиньте пож-та гайд как в chatgpt в make отправить изображение для анализа, не совсем понятно как это сделать
Платен ли Маке? Если нет, как много подобных запросов он позволяет делать в день?
до 1000 операций/мес - бесплатно
очень опасно полагаться на "зрение" от GPT, сейчас работаю над одной автоматизацией, и вижу, что когда речь идет о чтении данных с изображения, в ответах очень много галюцинаций, путает номера, названия улиц (может легко сказать что речь идет о совсем другом адресе, нежели указан в тексте, даже если промт составлен в виде "прочитай и верни текст слово в слово"), и речь идет об идеальных изображениях, разночтения в которых невозможны, особенно показателен пример с адресами, в тексте один адрес, в его ответе другой, причем с более популярными местами в городе о котором идет речь, а не просто созвучные улицы называет
Я юзаю и минимум ошибок, чисто скринами с ним общаюсь
@@romankonstantinovich2584 значит нам не повезло, в нашей задаче точность нужна хотя бы на уровне 80 процентов, но получаем результаты 50/50, и да, я говорю именно об API, в пользовательском интерфейсе, результаты гораздо точнее, проверено на сотнях документов
а вы не пробовали также скрин скормить Claude от Anthropic? Текст он вытаскивал корректно, правда, я только тестил, статистики нет
@@ai-iiru нет, пока тестили только openAI, и так как объем имено сканированных документов не большой, пока сосредоточились на обработке текстовых данных
Поддерживаю, как то скармливал GPT баскетбольную статистику от руки картинкой, чтобы он составил нормальный протокол, так он какие-то левые фамилии написал, очки - совсем из других данных.
Это что за мамкин трейдер!
Спасибо за урок. Подскажите как ещё используете make для автоматизации с gpt?
Для контента, в основном, статьи в блог писать, и для аудио-в-текст, саммари для видео/аудио/лонгридов
Спасибо, очень познавательно
А как можно обратиться к вам за персональным заказом. Я не нашел ни почты ни иного способа обратиться к вам. У меня компания.
@@like3762 Телеграм @nejroset
Ильяс, добрый день! Подскажите как реализовать цепочку:
1. Приходит новость через RSS feed
2. ChatGPT вырезает из статьи только первые несколько абзацев
3. ChatGPT отправляет в телеграм
Стандартная цепочка работает криво и ChatGPT сильно каверкает статью после анализа. Нужно чтобы он цитировал. Если делать цепочку RSS-ChatGPT, ИИ ругается, что не может использовать прямой текст, а перефразирует он не точно (как написал выше)
@@shap3lessplay654 Вы можете: а) спарсить текст, и вырезать абзацы через регулярные выражения
б) спарсить текст -> разбить на абзацы -> фильтровать первые несколько абзацев
@@ai-iiru Когда вставляю парсер после РСС - он просто тянет ссылку, но не текст. После парсера какой модуль необходим для перевода в текст? Спасибо
@@ai-iiru можете пояснить пункт А или скинуть ссылку из Ваших видео, где об этом подробнее узнать? Спасибо
@@ai-iiru разобрался, спасибо)))
@@ai-iiru Что значит ошибка "Exceeded maxRedirects. Probably stuck in a redirect loop"?
А какой тарифный план на Gpt брать? Получается за 20 баксов в месяц?
@@solntsevlf Если Вам нужен 4o - то да, подписка ChatGPT Plus
@@ai-iiru а разве можно к make подключиться на бесплатном тарифе и реально пользоваться?
@@ai-iiru скорее автоматизация как вы показали на этом и подобных видео
Может я не понял, а просто посмотреть курс не быстрее?
Вот чувствую, что что-то интересное, но, блин, ну ничего же не понятно!
Что, куда, откуда...
Подскажите, для каких задач в маркетинге или продажах можно применять эту фишку?
@@david_gvana Здравствуйте!
Именно парсинг? Например, собирать данные для исследования рынка: анализ рыночных трендов, мониторинг цен, мониторинг конкурентов или чтоб найти емайлы, номера телефонов, почтовый адрес, названия компаний, должность....
О, и такие древние пенсионеры тоже знают о нейронках!
А если на сайте защиты стоят, как быть?
Cloudflare, капчи, и т.д.
Возможно, могут помочь вставка в модуль cookie с визита, но это не точно, нужно тестить
ЗДАРРРРРРРРРРРРРРРОВАЙИЯ;)(:В БУДУЩЕМ БУДУТ РУЛИТЬ ТЕ КТО СМОГУТ СТРОИТЬ ГРАМОТНЫЕ И ИНТЕРЕСНО НЕСТАНДАРТНЫЕ ЗАПРОСЫ РОБОТОВ И РЕАЛИЗОВЫВАТЬ УНИКАЛЬНЫЕ ПРОЕКТЫ
Вы можете рассказать про рекламу в Ютубе?Можно ли добавить рекламу в видео shorts?
@@DianaScorpio777 Понятия не имею, по моему, UA-cam в РФ рекламу отменил
@@ai-iiru Спасибо .
Привет! Спасибо за видео, а ссылку на готовую автоматизацию или инструкцию можно где-то получить?
могу на емайл скинуть (в json-формате)
Спасибо
Если не трудно, скиньте пожалуйста и мне.
@@ai-iiru не пришло
@@GodProper куда отправлять?
ПРивет. Хотелось бы понять как сделать полноценный парсер с входящим запросом, и последующим сохранением информацию после изъятия. Например если у меня есть только сайт с 100 000 страницами. НА вашем примере получается что это ручной парсер с единичным запросом, но кажется что это слишком дорого, с учетом того что нужно платить и зха сервис и за гпт нет ?
Привет! Входящие URL страниц можно задать в Google sheets, и на выходе также заносить в таблицы, либо отправлять в емайл/мессенджер. По стоимости не считал, и да, количество операций влияет на бюджет, это правда. В предыдущем видео говорил про парсинг через http -запросы, там гпт не нужен.
При таком количестве страниц (100k) имеет смысл, наверное, парсеры, типа apify, подключать.
А в чем она дешевле? У меня как было 20$, так и осталась.
gpt-4o $5.00 / 1M tokens | $15.00 / 1M tokens
gpt-4-turbo $10.00 / 1M tokens | $30.00 / 1M tokens
🤔Это все хорошо, а можно в этой программе Make создать так, чтобы она лазила моим аккаунтом по фейсбуку в групах, пабликах, и могла оставлять разные комментарии к чужим постам или сообщениям, к примеру раз в минуту. Сообщения будут короткими, которые я сгенерирую gpt и закину списком где они будут подтягиватся случайно. Можно так сделать?
@@myQrise думаю, комментарии можно настроить только в своём аккаунте, это же машина, ей нужна инструкция где, куда, что можно, что нельзя. Произвольно не ходит, на заборах не пишет.
И слава Богу.
@@ai-iiru Благодарю за ответ. Да за комментарии знаю, это не проблема. Тот же зепто постер справляется с этим на ура. Ну в зепто постере можно самому код писать на питоне, может написание кода исправит эту задачу 🤔 Я б шаблон купил, если бы был такой
@@myQrise а Вы попросите GPT код написать, он с этим хорошо справляется, и инструкцию напишет как и куда развернуть
А как такое сделать себе в notion??
Имеете ввиду, чтоб в notion данные приходили, или что?
@@ai-iiru да, чтобы собирались в базу данных в конкретный столбец
Я так понял этот Мейк в России даже с VPN не работает.😢
Маке доступен без VPN
@@ai-iiru Странно, после авторизации через гугл аккаунт написано, что сайт недоступен.
Сколько стоит внедрить?
привет! здесь только как идея, в реале ваши требования нужно знать. Можете на емайл написать или здесь вкратце, обсудим, что смогу - сделаю.
@@ai-iiruЯ попытался сделать. Не получилось. Идея такая. 1 раз в сутки парить скрин токена и GPT4o делать анализ по промпту, а затем в бота закидывать, чтобы любой по запросу мог выводить себе эту аналитику. Ну и донаты просить на токены у тех кто будет пользоваться.
я нечего не понял
Чел, зачем ты записываешь и выкладываешь ролики, где ты разговариваешь сам с собой? )) Все что понял я как человек много раз слышавший о "Make" , но не работавший с ним, это то, что есть такой сервис, который может сделать вот такое, а дальше бу-бу-бу, разбирайтесь сами... )) Ну реально, нихера не понятно, просто словесная каша.
Это я не для того чтобы покритиковать от нехер делать. Просто искал видос как раз о работе данного сервиса, а тут твой канал, а там бу-бу-бу, разбирайтесь сами.
Благодарю за отклик, учту в следующем видео
Бедный человек. Как он завязан на чужие платформы, по самые яйца. Грустно на это смотреть. В какой-то момент его поимеют на любом этапе обработки запроса.
Ты мать тереза? Не можешь уснуть, за других переживаешь?
@@2009Spread Я за нашу Айтишечку переживаю. Походу я один здесь увидел проблему. Всем остальным все нравится, они готовы делать то же самое что и автор. А он, на минуточку, вещает на всю аудиторию ютубчика.
@@xintreavideo opensource юзать нужно больше костылить чтоб собрать все вместе. да и в бажину упрешься а там некому законтрибьютить чтоб фиксануть. А тут хочется что-то выкатить хоть MVP какое-то. Потому как можно зарыться в челленжах и перегореть.
Да все эти приложухи менее надежные, чем свой код. То ломаются, то становятся платными, или как сейчас модно, просто русских ненавидят и блочат ру адреса. Так что лучше змеинный суп. У меня нет проблем с этим.
@@user-vv5hh4ci4j Возможно, Вы правы, только не у всех есть такие знания, которому учиться и учиться, а нужен бывает раз в полгода.
Лет 10 назад сайты заказывал, ещё и ждал, пока мной займутся уважаемые программисты, а сейчас шаблон или elementor, и всё, лендинг уже висит.
Я считаю, no code/low code это как раз решение для таких как я, самые базовые вещи смогу сам собрать, а за сильно сложным обращусь к таким, как Вы.
@@ai-iiru мне нравился проект coze. Долго там висел, плагины свои делал, потом сделали козу платной,из РФ конечно не работают платежи. А извращаться с оплатами не охота. Забил, делаю тоже самое через свой код и llama_index.
микро делает ушам больно!
Колонки или наушники норм купите
это пздц
Пытался слушать, но не смог дальше. Толи вы заикаетесь, толи у вас такой стиль разговора.
может быть, хотя в жизни не заикаюсь, но видео режу при монтаже, возможно еще потому, что русский не родной. Учту. В любом случае, благодарю за отклик)
@@ai-iiru Да, слушать очень тяжело. Нужно что-то делать, если хотите развивать канал. Удачи!
нормально слушать на 1.5 скорости слушал и все норм
Можно читать, подключить текст или расшифровать
Скорость воспроизведения повыше ставьте, информационные ролики минимум нужно слушать на 1.25, а в данном случае ещё и съедает неровности
Интересно, спасибо!
Это что за мамкин трейдер!