Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
我覺得要這影片我要跪著看才可以表達我的讚嘆
?? 這程式也不是他寫的 為啥要跪
@@boicelu620 程式被寫出來會不會運用就差很多,EXCEL大家電腦都有 ,但真正會活用的不算多,能深入淺出教大家如何活用我覺得很厲害
@@boicelu620但能把這麼多程序用易通的語言講給大部分人聽這不是一件小事情
那對寫程式的人,你要用什麼姿勢看?
那我们一起跪吧 哈哈哈哈哈哈
東西到您的手裡就能夠變得簡單易懂,真的是本事,感謝您!
是我见过讲解教授电脑知识最清晰明了简介易懂的一位博主了,赞!
謝謝!
謝謝PAPAYA老師!! 還順便複習了超實用Excel功能!! 之前一直想找,卻不知道用什麼關鍵字來搜尋Trim跟Substitute!!
每次都是愉快地开启和关闭PAPAYA的视频,开心学习就是这么简单。大赞!
然后换到自己做的时候 -- 大脑: 是的你已经全都懂了。 手指:不,你什么都没有学会……
試了一下 還是蠻容易有Bug的但感謝分享這個方法
好強大的東東,總是會有人發明的,我們等著用~~謝謝
發明這類工具的人好天才,如此高效請求也難怪網頁要驗機器人😂
現在網頁驗證已經沒有用了 AI做的比人類好
同事說裝爬蟲自動找資料,終於一年後PAPAYA老師來教學了❤🎉
好震驚 居然有這麼方便的擴充套件 非常感謝!
滿滿的尊敬,感謝分享
爬蟲難得其實是分析他的架構,決定怎麼抓比較有效率。
太實用了!謝謝PAPAYA
昨天還在煩惱怎麼抓資料~今天就看這部,感謝PAPAYA
已經不知道要怎麼形容papaya 頻道的厲害及重要性了👍👍👍👍
太神了!感謝分享及講解❤❤
太神了!我把我淘寶購物清單爬下來加總,14年來買了120幾萬台幣,呵呵!
你買真多 ~~~~ !厲害厲害 👍👍👍
我蝦皮想抓資料,但是蝦皮似乎阻擋了爬蟲軟體,淘寶沒有阻擋嗎!?
@@劉睿麟-d3z 爬購物紀錄沒有問題
終於來到這種資訊科技的時代了,以前論文爬蟲對文組來說好痛苦QQ
收集信息方便
說實話跟文理組沒啥關係,只是有沒有必要要多學而已;Beautiful Soup, Scrapy, Selenium, HTTP requests這些基本上你只要一步一步照著做而已
@@Unrequired ==你要確定捏,不懂一點html不是略懂PYTHON就算有CHATGPT也很難爬好ㄇ,這個東西超方便的,就算我會爬我知道這個也懶得花時間去研究網頁架構了,浪費時間
語言類本來就是文組的...
精闢的講解!!請收下我的膝蓋...
比較明著來的網頁適合用這類的工具
當我前幾天好不容易學好爬蟲時...這部影片就出現了,我...好吧,至少我知道原理如果遇到比較複雜的頁面還是要自己寫w
😂我也有好幾次這樣的感受,好不容易找到成就感,影片就出現了
用過Web Scraper 與 Instant Data Scraper, 這些工具是蠻方便的, 但很多時候抓取結果不如預期, 翻頁的時候抓不到資料, 自動翻頁時跳頁, 翻頁失敗, 資料沒有對齊等, 必須事後下很大的功夫整理, 我認為還是要自己學習編程來抓取, 這些工具當成輔助..
自己做可以复用,这个每次 还要重新设置一遍。 大部分需要抓的资料都是经常更新的,不可能只抓一遍。
真的太神了!免除自己寫python程式碼了~
簡單又實用!超強!
「感恩讚嘆」尚不足以形容的強大!
謝謝師傅 !
現在爬蟲困難是一堆驗證機器人:
老師好,我用影片的方法用在全國法規資料庫最新消息,擴充判斷’下一頁‘按鈕一直判斷成‘最後一頁’,即便我按影片步驟教導‘下一頁’才是正確的按鈕,開始爬蟲時還是會變成去按‘最後一頁’導致爬蟲資料只有第一頁及最後一頁,想請問有建議的解決方法嗎?謝謝。
我也是遇到問題
太實用了! 如果能夠做到 Zepier 連接上 Google Sheet 就不得了
感谢!刚好工作中需要用到爬虫,这个教程超级实用
讲解得好清晰优雅!
非常感謝老師,太有幫助了!
厲害~ 感謝分享
超棒的謝謝🎉🎉🎉
這個好實用阿阿阿❤❤❤
太優質了✨
很棒的教學
大感謝,正好需要啊
請問有沒有 一次搜尋多網站的爬蟲工具
實用的功能,馬上來試試看
感謝大師!!! 前天看到影片,今天就用上了! 省下超多力氣🙏
讚嘆 ! 正好用上 !
感謝分享~ 想請教如何可定時抓網頁資料及自動儲存下來用作分析(google sheet/excel/csv等儲存都可以), 例如想分析網站指定貨品價格走勢, 謝謝
哇!這個工具很實用,感謝分享
谢谢老师 ,聪明还会教
老師您應該拿師鐸獎
看了一下,基本上整合了简单的爬虫功能,但如果目标页面十分复杂,还是需要自己写代码
好犀利
太強了
希望可以教學變成自動爬蟲的方式不再需要手動爬資料🙏
太方便了🎉🎉🎉
為什麼我跪著看, 這太方便了
感謝分享~請問如果想要抓的網頁資料是在內頁中ZIP檔案裡的WORD檔的話,可行嗎?
滿滿的敬配
谢谢您的分享 请问Firefox浏览器有类似的插件吗
真心佩服
谢谢papaya , 我想到要抓取的数据了
請問大師,爛番茄網頁結構,如果要全部一次抓完所有影片資訊,但是找不到NEXT BUTTON,按下LOAD MORE功能鍵,就只停在現行網頁上,並沒有持續向下抓取資訊,應如何處理?
天啊 好方便!
還好還沒開始花時間學爬蟲....❤
但有些網頁用javascript 出的dynamic content應該不行吧
這不是主要問題。第一個瀏覽器擴充工具和第二個工具都內建瀏覽器,可以執行javascript。反而python scrapy之類的編程方法一般不支持javascript。
@@gqqnbig應該是說最基本的python 方法是不支援,但只要再加些lib就可以支援
實際上就是搜出網頁中寫死的大區塊然後再對內容分類而已所以只要遇到有進階篩選功能的,就會因為商品區塊改成個別呈現,導致只能抓到一團寂寞
感謝大神!!!
如果又有一個可以偽裝成chrome等瀏覽器的擴充插件出現 那是真的不用寫code也可以應付絕大多數的爬蟲了
想請問一下,是不是結構複雜的網站就比較不適用?
是,有些網站用的是前後端分離技術,資料是從後端拿的,必須得去觀察網站傳送資料的流程才能抓到規則去爬蟲
适不适用主要看你具体需求,和网站反爬。其实就是解析页面定位Html标签和class名字等相对做成插件比较方便。需要进阶一点可以试下rpa可视图形式拖拽。再进阶则是使用python结合scrapy去做深度定制
限制的問題在於它的爬蟲沒有控制爬行速度與使用者掩護所造成的爬行速度過快而被擋下
@@吃吃-b1e 延时爬去是必然,掩护的话考虑的就太多请求头,代理IP还有代理IP质量,登陆等.
@@武山儒海 能跟你加聯繫嗎
老师有了解过影刀吗
跪著看完了
跪著感謝
老師你好我想詢問用photoshop如何把黑色人物剪影→正常圖片例如:神奇寶的猜猜我是誰還原成原本的樣子請問有沒有相關教學?感謝老師!!原本我是用魔術棒選黑色隱藏的部分再用曝光度調亮再來就自己亂搞,雖然看得出輪廓但不是很自然。。請告訴我正常的步驟,謝謝
嗨,如果沒有原始檔或原始圖層,要把一個非常暗的圖片還原成原來的樣子會有點困難喔,因為在調暗的過程中圖像會失去一些色彩資訊和細節。所以要做猜猜我是誰這種效果的話,保留一份原始影像還是最理想的。
真滴方便
這集有料
這個方法只有一個缺點: 太強了!
現在爬蟲變這麼簡單了嗎?
真神人也!
OAO!!!!!!!請問老師這有辦法批量抓圖片嗎?好需要orz想要整理家具的材質貼圖像是沙發的皮革有多種顏色跟布料/金屬件也有多種顏色放到anytype裡面當資料庫
之前有用過eagle,批量抓圖非常好用,雖然是要付費,但如果工作上常常使用,絕對很值得
直接用Excel Import Data From Web就可阿
謝謝老師 下跪中
视频不错
我太早出生了😢😢 謝謝老師 每一部都好棒
Octoparse的試用只有14天?
如果單純想要抓網頁的文字與圖片但是有很多頁呢?不需要做成表格
請問PaPaya, 如果遇到的按鈕是 1, 2, 3, 4 ,5. 有方法解?
我的膝蓋在親地板
真的很方便不過會用爬蟲的狀況多半是要做機器人啦XD
做內容農場~
只能跪著看影片了
愛你
如果沒有按鈕 是要用一個一個點擊的怎辦?
使用上我有一個問題,我想抓自己的會員資料,無法使用帳號密碼登入,自然無法抓內部資料,請問如何解決,謝謝。
太狂拉
神啊!!
請問有什麼軟體可以快速抓取pdf內容部分資料,重複動作,將大量抓取的資料轉換成excel😅
Octoparse要收費了。 有沒有可取代的免費工具。 謝謝老師
太猛惹吧!!!!!!!!!!!!!!
如果他是滾動式到底部自動呈現下一頁資料,而不是點擊的話,這也是可以的嗎
學習了
那如何要抓取圖片呢??😅
好家伙 我用的八爪鱼爬取器都被你发现了!!
請收下我的膝蓋!! 太神拉~~~
太神
請問如果要下載下面網頁所查詢到的csv檔案,如何變成每天自動爬文下載檔案
我覺得要這影片我要跪著看才可以表達我的讚嘆
?? 這程式也不是他寫的 為啥要跪
@@boicelu620 程式被寫出來會不會運用就差很多,EXCEL大家電腦都有 ,但真正會活用的不算多,能深入淺出教大家如何活用我覺得很厲害
@@boicelu620但能把這麼多程序用易通的語言講給大部分人聽這不是一件小事情
那對寫程式的人,你要用什麼姿勢看?
那我们一起跪吧 哈哈哈哈哈哈
東西到您的手裡就能夠變得簡單易懂,真的是本事,感謝您!
是我见过讲解教授电脑知识最清晰明了简介易懂的一位博主了,赞!
謝謝!
謝謝PAPAYA老師!! 還順便複習了超實用Excel功能!! 之前一直想找,卻不知道用什麼關鍵字來搜尋Trim跟Substitute!!
每次都是愉快地开启和关闭PAPAYA的视频,开心学习就是这么简单。大赞!
然后换到自己做的时候 -- 大脑: 是的你已经全都懂了。 手指:不,你什么都没有学会……
試了一下 還是蠻容易有Bug的
但感謝分享這個方法
好強大的東東,總是會有人發明的,我們等著用~~謝謝
發明這類工具的人好天才,如此高效請求也難怪網頁要驗機器人😂
現在網頁驗證已經沒有用了 AI做的比人類好
同事說裝爬蟲自動找資料,終於一年後PAPAYA老師來教學了❤🎉
好震驚 居然有這麼方便的擴充套件 非常感謝!
滿滿的尊敬,感謝分享
爬蟲難得其實是分析他的架構,決定怎麼抓比較有效率。
太實用了!謝謝PAPAYA
昨天還在煩惱怎麼抓資料~今天就看這部,感謝PAPAYA
已經不知道要怎麼形容papaya 頻道的厲害及重要性了👍👍👍👍
太神了!感謝分享及講解❤❤
太神了!我把我淘寶購物清單爬下來加總,14年來買了120幾萬台幣,呵呵!
你買真多 ~~~~ !厲害厲害 👍👍👍
我蝦皮想抓資料,但是蝦皮似乎阻擋了爬蟲軟體,淘寶沒有阻擋嗎!?
@@劉睿麟-d3z 爬購物紀錄沒有問題
終於來到這種資訊科技的時代了,以前論文爬蟲對文組來說好痛苦QQ
收集信息方便
說實話跟文理組沒啥關係,只是有沒有必要要多學而已;
Beautiful Soup, Scrapy, Selenium, HTTP requests這些基本上你只要一步一步照著做而已
@@Unrequired ==你要確定捏,不懂一點html不是略懂PYTHON就算有CHATGPT也很難爬好ㄇ,這個東西超方便的,就算我會爬我知道這個也懶得花時間去研究網頁架構了,浪費時間
語言類本來就是文組的...
精闢的講解!!請收下我的膝蓋...
比較明著來的網頁適合用這類的工具
當我前幾天好不容易學好爬蟲時...
這部影片就出現了,我...好吧,至少我知道原理
如果遇到比較複雜的頁面還是要自己寫w
😂我也有好幾次這樣的感受,
好不容易找到成就感,影片就出現了
用過Web Scraper 與 Instant Data Scraper, 這些工具是蠻方便的, 但很多時候抓取結果不如預期, 翻頁的時候抓不到資料, 自動翻頁時跳頁, 翻頁失敗, 資料沒有對齊等, 必須事後下很大的功夫整理, 我認為還是要自己學習編程來抓取, 這些工具當成輔助..
自己做可以复用,这个每次 还要重新设置一遍。 大部分需要抓的资料都是经常更新的,不可能只抓一遍。
真的太神了!免除自己寫python程式碼了~
簡單又實用!超強!
「感恩讚嘆」尚不足以形容的強大!
謝謝師傅 !
現在爬蟲困難是一堆驗證機器人:
老師好,我用影片的方法用在全國法規資料庫最新消息,擴充判斷’下一頁‘按鈕一直判斷成‘最後一頁’,即便我按影片步驟教導‘下一頁’才是正確的按鈕,開始爬蟲時還是會變成去按‘最後一頁’導致爬蟲資料只有第一頁及最後一頁,想請問有建議的解決方法嗎?謝謝。
我也是遇到問題
太實用了! 如果能夠做到 Zepier 連接上 Google Sheet 就不得了
感谢!刚好工作中需要用到爬虫,这个教程超级实用
讲解得好清晰优雅!
非常感謝老師,太有幫助了!
厲害~ 感謝分享
超棒的謝謝🎉🎉🎉
這個好實用阿阿阿❤❤❤
太優質了✨
很棒的教學
大感謝,正好需要啊
請問有沒有 一次搜尋多網站的爬蟲工具
實用的功能,馬上來試試看
感謝大師!!! 前天看到影片,今天就用上了! 省下超多力氣🙏
讚嘆 ! 正好用上 !
感謝分享~ 想請教如何可定時抓網頁資料及自動儲存下來用作分析(google sheet/excel/csv等儲存都可以), 例如想分析網站指定貨品價格走勢, 謝謝
哇!這個工具很實用,感謝分享
谢谢老师 ,聪明还会教
老師您應該拿師鐸獎
看了一下,基本上整合了简单的爬虫功能,但如果目标页面十分复杂,还是需要自己写代码
好犀利
太強了
希望可以教學變成自動爬蟲的方式
不再需要手動爬資料🙏
太方便了🎉🎉🎉
為什麼我跪著看, 這太方便了
感謝分享~請問如果想要抓的網頁資料是在內頁中ZIP檔案裡的WORD檔的話,可行嗎?
滿滿的敬配
谢谢您的分享 请问Firefox浏览器有类似的插件吗
真心佩服
谢谢papaya , 我想到要抓取的数据了
請問大師,爛番茄網頁結構,如果要全部一次抓完所有影片資訊,但是找不到NEXT BUTTON,按下LOAD MORE功能鍵,就只停在現行網頁上,並沒有持續向下抓取資訊,應如何處理?
天啊 好方便!
還好還沒開始花時間學爬蟲....❤
但有些網頁用javascript 出的dynamic content應該不行吧
這不是主要問題。第一個瀏覽器擴充工具和第二個工具都內建瀏覽器,可以執行javascript。反而python scrapy之類的編程方法一般不支持javascript。
@@gqqnbig應該是說最基本的python 方法是不支援,但只要再加些lib就可以支援
實際上就是搜出網頁中寫死的大區塊然後再對內容分類而已
所以只要遇到有進階篩選功能的,就會因為商品區塊改成個別呈現,導致只能抓到一團寂寞
感謝大神!!!
如果又有一個可以偽裝成chrome等瀏覽器的擴充插件出現 那是真的不用寫code也可以應付絕大多數的爬蟲了
想請問一下,是不是結構複雜的網站就比較不適用?
是,有些網站用的是前後端分離技術,資料是從後端拿的,必須得去觀察網站傳送資料的流程才能抓到規則去爬蟲
适不适用主要看你具体需求,和网站反爬。其实就是解析页面定位Html标签和class名字等相对做成插件比较方便。需要进阶一点可以试下rpa可视图形式拖拽。再进阶则是使用python结合scrapy去做深度定制
限制的問題在於它的爬蟲沒有控制爬行速度與使用者掩護所造成的爬行速度過快而被擋下
@@吃吃-b1e 延时爬去是必然,掩护的话考虑的就太多请求头,代理IP还有代理IP质量,登陆等.
@@武山儒海 能跟你加聯繫嗎
老师有了解过影刀吗
跪著看完了
跪著感謝
老師你好
我想詢問用photoshop
如何把黑色人物剪影→正常圖片
例如:神奇寶的猜猜我是誰
還原成原本的樣子
請問有沒有相關教學?
感謝老師!!
原本我是用魔術棒選黑色隱藏的部分
再用曝光度調亮
再來就自己亂搞,雖然看得出輪廓
但不是很自然。。
請告訴我正常的步驟,
謝謝
嗨,如果沒有原始檔或原始圖層,要把一個非常暗的圖片還原成原來的樣子會有點困難喔,
因為在調暗的過程中圖像會失去一些色彩資訊和細節。
所以要做猜猜我是誰這種效果的話,保留一份原始影像還是最理想的。
真滴方便
這集有料
這個方法只有一個缺點: 太強了!
現在爬蟲變這麼簡單了嗎?
真神人也!
OAO!!!!!!!
請問老師這有辦法批量抓圖片嗎?
好需要orz
想要整理家具的材質貼圖
像是沙發的皮革有多種顏色跟布料/金屬件也有多種顏色
放到anytype裡面當資料庫
之前有用過eagle,批量抓圖非常好用,雖然是要付費,但如果工作上常常使用,絕對很值得
直接用Excel Import Data From Web就可阿
謝謝老師 下跪中
视频不错
我太早出生了😢😢 謝謝老師 每一部都好棒
Octoparse的試用只有14天?
如果單純想要抓網頁的文字與圖片但是有很多頁呢?不需要做成表格
請問PaPaya, 如果遇到的按鈕是 1, 2, 3, 4 ,5. 有方法解?
我的膝蓋在親地板
真的很方便
不過會用爬蟲的狀況多半是要做機器人啦XD
做內容農場~
只能跪著看影片了
愛你
如果沒有按鈕 是要用一個一個點擊的怎辦?
使用上我有一個問題,我想抓自己的會員資料,無法使用帳號密碼登入,自然無法抓內部資料,請問如何解決,謝謝。
太狂拉
神啊!!
請問有什麼軟體可以快速抓取pdf內容部分資料,重複動作,將大量抓取的資料轉換成excel😅
Octoparse要收費了。 有沒有可取代的免費工具。 謝謝老師
太猛惹吧!!!!!!!!!!!!!!
如果他是滾動式到底部自動呈現下一頁資料,而不是點擊的話,這也是可以的嗎
學習了
那如何要抓取圖片呢??😅
好家伙 我用的八爪鱼爬取器都被你发现了!!
請收下我的膝蓋!!
太神拉~~~
太神
請問如果要下載下面網頁所查詢到的csv檔案,如何變成每天自動爬文下載檔案