@@ai-iiru Приветсвую. а как спарсить статью целиком с картинками? Тут я так понял в ниндзяскрапере можно парсить только заголовки и описание мета. Если будет время добавьте подобный контент в видео. Спасибо
Боже мой! Гениально, именно это я для своего проекта и искала. Подскажите это платно, если да сколько стоит. Все парсеры морально устарели, а это то что доктор прописал! Искала две недели подобный механизм и когда опустила руки на вас наткнулась, это знак, что нужно продолжать проект.😊
Вы сделали мой день! Это же не сарказм, не? Можете на емайл ваши требования прислать, а дальше что смогу - сделаю. Стоимость опять-таки от сложности зависит
Подскажите, пожалуйста, как вы подключили scrapeNinja у меня нет всех этих полей, только возможность подключить через RapidAPI Key scrapeNinja выбрала бесплатный план, но где найти key вообще не понятно.
У меня тоже бесплатный план, это на подключение не влияет. Регистрируйтесь в rapidapi, при подключении scrapeninja вводите в поля 'x-rapidapi-host' и 'x-rapidapi-key'; в make после connection вводите URL сайта и т.д. На каком этапе застряли?
@@ai-iiru спасибо, но все равно ошибка. В rapidapi зарегистрировалась. В make добавляю ScrapeNinja- предлагает только создать подключение, а там только 2 поля: имя соединения и RapidAPI key
тоже не получается подключиться к rapidAPI:( зарегился там, вроде как нашел, где брать API, но при добавлении ключа make пишет ошибка 403 и да, присоединяюсь к вопросу ранее, если с помощью этого scrape ninja можно спарсить только заголовок и метаданные, а не всю страницу целиком, то в моем случае это будет бесполезно:( заранее спасибо за ответ
Не могу настроить Google таблицы. Сам блок работает а доступа к информации пишет " Информация зашифрована у вас нет доступа к информации". В самой программе таблицы я доступ открыл, таблицу составил, блок её находит и считывает но она зашифрована и я не могу её посмотреть. Вам спасибо! Много нужной и полезной информации. Может подскажете где моя ошибка?
Все вот эти Ваши пропуски объяснений, типа у меня тут зарегистрировано, сами разберётесь приводят к тому что разобраться с Ниньдзей не получается и дальше всё застопорилось на втором модуле.
Ильяс, добрый день! ПРедлагаю записать урок, где входящие новости с РСС канала проверяются через наличие новостей в конкретном ТГ канале. Если текст уникален на 75% - публиковать статью, в противном случае ничего не публиковать
@@Funnyaishortsworld Немного не понял - как сайт, который парсим и другой сайт соединены? И как может сбор информации с сайта влиять на другой сайт? Можете пояснить? Может, я чего-то не знаю, что обязан знать в этих случаях?
@@ai-iiru дело было так. У меня был неплохой по посещаемости сайт про домашних животных. Статьи были уникальные, сайт хорошо ранжировался. И вот я решил подразбавить его спаренными с другого сайта статьями. Мало того, я не просто парсил, я ещё и прогонял текст через чат gpt. Через пару месяцев сайт полностью вылетел из поиска Яндекса за не уникальный контент. Я спешно удалил все спарсенные статьи, но увы, сайт так и не попал в поиск.
"После вашей передачи, пришло еще больше писем с вопросами, с одной стороны всё понятно, с другой - не совсем " ))))
Как мне повезло с вашим каналом!!! Здоровья и всяческих успехов вам!
@@cryptodatex Во благо!
@@ai-iiru Приветсвую. а как спарсить статью целиком с картинками? Тут я так понял в ниндзяскрапере можно парсить только заголовки и описание мета. Если будет время добавьте подобный контент в видео. Спасибо
Столько всего интересного и полезного.Хорошо ,что Я подписалась .Спасибо .
Спасибо за видео, полезная информация!
@@maratnews Во благо!
какой код был в поле Extractor?
Боже мой! Гениально, именно это я для своего проекта и искала. Подскажите это платно, если да сколько стоит. Все парсеры морально устарели, а это то что доктор прописал! Искала две недели подобный механизм и когда опустила руки на вас наткнулась, это знак, что нужно продолжать проект.😊
Вы сделали мой день! Это же не сарказм, не?
Можете на емайл ваши требования прислать, а дальше что смогу - сделаю. Стоимость опять-таки от сложности зависит
классный инструмент - даже не знал о таком
Подскажите, пожалуйста, как вы подключили scrapeNinja у меня нет всех этих полей, только возможность подключить через RapidAPI Key
scrapeNinja выбрала бесплатный план, но где найти key вообще не понятно.
У меня тоже бесплатный план, это на подключение не влияет. Регистрируйтесь в rapidapi, при подключении scrapeninja вводите в поля 'x-rapidapi-host' и 'x-rapidapi-key'; в make после connection вводите URL сайта и т.д. На каком этапе застряли?
@@ai-iiru спасибо, но все равно ошибка. В rapidapi зарегистрировалась. В make добавляю ScrapeNinja- предлагает только создать подключение, а там только 2 поля: имя соединения и RapidAPI key
Куда вам скинуть скрины? Тест мне на емайл отправьте, пожалуйста
Для вас загрузил видео про соединение ScrapeNinja, гляньте
мне надо на одном сайте сделать поиск, но поиск с рекапчей гугл, как в make заполнить поле для поиска и пройти рекапчу?
через make не получится, тут нужен скрипт, и то не факт, что пройдет
Второй способ отличный, все понятно. С первым вопросы про запросы этого скреперниндзи, не понятно как они делаются.
скреперниндзи? или вы про ScrapingBee?
тоже не получается подключиться к rapidAPI:( зарегился там, вроде как нашел, где брать API, но при добавлении ключа make пишет ошибка 403
и да, присоединяюсь к вопросу ранее, если с помощью этого scrape ninja можно спарсить только заголовок и метаданные, а не всю страницу целиком, то в моем случае это будет бесполезно:(
заранее спасибо за ответ
@@alexandermalinin7411 В другом сценарии собираю только текст (статью) со страницы.
Что собирать зависит от скрипта, который Вы задаёте в теле модуля
Ого, вот это мощно! Спасибо за понятные объяснения. Правда начало видео "болтается"
да, есть такое, сам увидел на монтаже, не стал переснимать, сорян
Эээхх, мне все это надо было в 2017......
Не могу настроить Google таблицы. Сам блок работает а доступа к информации пишет " Информация зашифрована у вас нет доступа к информации". В самой программе таблицы я доступ открыл, таблицу составил, блок её находит и считывает но она зашифрована и я не могу её посмотреть. Вам спасибо! Много нужной и полезной информации. Может подскажете где моя ошибка?
А Вы не проболи созадть новую таблицу и её привязать? А так я не могу по описанию сказать, в чём там проблема, извините.
И во благо!
Все вот эти Ваши пропуски объяснений, типа у меня тут зарегистрировано, сами разберётесь приводят к тому что разобраться с Ниньдзей не получается и дальше всё застопорилось на втором модуле.
Благодарю, учту в следующих видео, не намеренно.
Для вас загрузил видео про соединение ScrapeNinja, гляньте
много информации не показано. куда, что пишем.
круто. а парсить после авторизации сможете, то есть зайти в с аккаунт и там систематически парсить ?
@@sergstrue362 Не, всякие капчи-логин-пароли не могём
Добрый день!
Можно ли спарсить канал на дзене?
@@allremont59 Здравствуйте! Текст можно
Привет, как парсить не только текст, но и картинки с сайта?
@@vsgnezdilov Привет, картинки из кода страницы можно вытаскивать через регулярные выражения (regex)
Можно ли так работать с озон? Пробую он постоянно возвращает ошибку. Может с ним есть какие-то отдельные хитрости настройки?)
У меня нет опыта парсинга с озон, не могу сказать, к сожалению
ua-cam.com/video/UmUnbl75W7E/v-deo.htmlsi=ALpD91NlCB8XMhJ5
api ключ как найти сайта от меня требует
@@kasym2915 какого сайта?
Здравствуйте! А авито можно?
@@СергейПетров-ы9р2б Что на авито нужно?
Пыталась повторить, затык с регулярными выражениями, как в видео не получилось
@@Pavlina-xp4oh Вы можете выражения подбирать на regex101.com
Яндекс маркет можно спарсить?
зависит от данных, как много и часто нужны - чтоб стоимость была адекватной результатам.
1:10
2:53
3:06
7:10
Ильяс, добрый день! ПРедлагаю записать урок, где входящие новости с РСС канала проверяются через наличие новостей в конкретном ТГ канале. Если текст уникален на 75% - публиковать статью, в противном случае ничего не публиковать
@@shap3lessplay654 Благодарю за идею!
между прочим, об этом просят и реальные заказчики, похоже, актуально.
А как парсить текст?
С сайта? Или откуда?
@@ai-iiru ну конечно с сайта.
Сделаю тоже самое на Python в 5 раз быстрее. Добавлю любые ваши хотелки.
@@sdv75 Благодарю за отклик!
Могу Вам написать в ТГ?
@@ai-iiru zula_zulovich
@@ai-iiruzula_zulovich
@@ai-iiru Пишите @zula_zulovich
Пишите zula_zulovich
Записать на таблицу.
Любой сайт так парсить не получится, не вводите людей в заблуждение. Большинство крупных сайтов имеют защиту от такого парсинга.
И лягушкой не получится?
Согласен, например паркинг букмекерских контор не даст.
Парсинг сайтов на данный момент это прямой путь к тому, что ваш сайт выкинут из поиска.
@@Funnyaishortsworld Немного не понял - как сайт, который парсим и другой сайт соединены? И как может сбор информации с сайта влиять на другой сайт?
Можете пояснить? Может, я чего-то не знаю, что обязан знать в этих случаях?
@@ai-iiru дело было так. У меня был неплохой по посещаемости сайт про домашних животных. Статьи были уникальные, сайт хорошо ранжировался. И вот я решил подразбавить его спаренными с другого сайта статьями. Мало того, я не просто парсил, я ещё и прогонял текст через чат gpt. Через пару месяцев сайт полностью вылетел из поиска Яндекса за не уникальный контент. Я спешно удалил все спарсенные статьи, но увы, сайт так и не попал в поиск.
Поработайте с дикцией, слушать очень сложно
А как ютуб парсить?
@@seo38com Что Вы хотите собрать?