Halo pak mau tanya, setelah file diupload ke openrefine kenapa tidak ada data berupa link yang muncul ya pak? Pdhl setelah saya cek versi excelnya looknya sama dg excel yg ada di video (ada judul artikel+link)
@@halfcathalfhooman9382 Kita bisa mengekstrak topik-topik artikel dengan menggunakan algoritma topik modeling, antara lain yang diimplementasikan di aplikasi TopMod yang dijelaskan di video ini ua-cam.com/video/-hmxXt1hizM/v-deo.html&ab_channel=IkbalMaulana
Metode yg saya jelaskan di video mensyaratkan kita tahu semua alamat URL dari setiap dokumen yg di-scrape. Jadi tidak cukup hanya alamat situsnya (misalnya kompas.com), lalu semua yg ada di situ ditarik.
Dengan Openrefine kita hanya bisa mengunduh html (page source) dari suatu url, tetapi tidak secara otomatis mengunduh file2 yg bisa didownload dari sana
@@reeree346 Sepengetahuan saya ini diambilnya gantian, tidak bersamaan. Seperti kita ambil judul (dengan value.parseHtml().select("title")), bergantian dengan ambil isi teksnya (dengan value.parseHtml().seledt("p")....). Judul dan teks ditaruh di kolom yang berbeda. Bisa ditunjukkan alamat url dari web page yang mau diekstrak? Lalu sampaikan apa yang mau ditarik. Nanti saya akan coba eksperimen dg OpenRefine. Misalnya artikel dari kompas atau dari detik.com atau lainnya.
Mantabbbbb, Ilmunya sangan bermanfaat
Siiip
request pak : tutorial membuat aplikasi crwaler portal berita
Halo pak mau tanya, setelah file diupload ke openrefine kenapa tidak ada data berupa link yang muncul ya pak? Pdhl setelah saya cek versi excelnya looknya sama dg excel yg ada di video (ada judul artikel+link)
Setelah select file, kemudian klik next, lalu kita pilih csv, encodingnya coba pilih utf-8
@@ikbalmaulana3254 terima kasih pak sudah bisa.. lalu muncul pertanyaan baru, gimana cara auto code artikel2 ini yg jumlahnya ratusan ya pak?
@@halfcathalfhooman9382 Kita bisa mengekstrak topik-topik artikel dengan menggunakan algoritma topik modeling, antara lain yang diimplementasikan di aplikasi TopMod yang dijelaskan di video ini ua-cam.com/video/-hmxXt1hizM/v-deo.html&ab_channel=IkbalMaulana
kalau untuk scrape satu situs saja bisa pak?
Metode yg saya jelaskan di video mensyaratkan kita tahu semua alamat URL dari setiap dokumen yg di-scrape. Jadi tidak cukup hanya alamat situsnya (misalnya kompas.com), lalu semua yg ada di situ ditarik.
Bagaimana Cara ambil p&h secara bersamaan pak? Sy cb error
Dengan Openrefine kita hanya bisa mengunduh html (page source) dari suatu url, tetapi tidak secara otomatis mengunduh file2 yg bisa didownload dari sana
@@ikbalmaulana3254 Bukan file, klo dr html kan ada yg paragraph content dan . Nah cara ngambil keduanya secara bersamaan gmn ya pak?
@@reeree346 Sepengetahuan saya ini diambilnya gantian, tidak bersamaan. Seperti kita ambil judul (dengan value.parseHtml().select("title")), bergantian dengan ambil isi teksnya (dengan value.parseHtml().seledt("p")....). Judul dan teks ditaruh di kolom yang berbeda.
Bisa ditunjukkan alamat url dari web page yang mau diekstrak? Lalu sampaikan apa yang mau ditarik. Nanti saya akan coba eksperimen dg OpenRefine. Misalnya artikel dari kompas atau dari detik.com atau lainnya.