Junta Zeniarja
Junta Zeniarja
  • 54
  • 250 594
Klastering K Means dengan Streamlit (Web Apps) | Cara Mudah Membuat Aplikasi Web Data Science
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Data Science menggunakan Streamlit. Aplikasi Berbasis Web yang akan dibangun tentang klastering dengan algoritma K-Means dimana data yang digunakan berjumlah 5000 data acak secara normal yang dibangun dengan library numpy.
Dokumentasi Matplotlib untuk fungsi confidence_ellipse :
matplotlib.org/stable/gallery/statistics/confidence_ellipse.html
Requirements Library:
numpy==1.23.1
matplotlib==3.5.2
scikit-learn==1.1.1
streamlit==1.11.1
Terimakasih sudah menonton videonya.
Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukung channel ini.
Kunjungi video lainnya di:
ua-cam.com/users/JuntaZeniarja​
#Aplikasi #Skripsi #DataMining #WebApps #Streamlit #Python #Klastering #K-Means #kmeans #KMeans #scikit-learn #sklearn #Algoritma #MachineLearning #Framework #SkripsiDataMining #JudulSkripsiDataMining #SidangSkripsiDataMining #PengolahanDataSkripsi #AnalisisDataSkripsi #CariDataSkripsi #MengolahDataSkripsi #DataSkripsi #OlahDataSkripsidenganPython #SkripsiDataSekunder #DataSkripsiTidakNormal #MengolahDataSkripsidenganPython #SkripsiTeknikInformatika #SkripsiSistemInformasi #SkripsiKualitatif #SkripsiKuantitatif #Skripsiadalah #KuliahOnline​ #DiRumahAja​ #SamaSaya​ #DataMining​ #DataMining2022 #DataMiningBasic​ #DataMiningIndonesia​ #DataMiningTutorial​ #DataMiningRapidminer​ #Clustering #DataMiningKlasterisasi #DataMiningClassification​ #DataMiningConcept​ #DataMiningAlgorithm​ #DataMiningTechniques​ #DataMiningBusiness​ #Rapidminer​ #RapidminerStudio​ #RapidminerIndonesia​ #RapidminerBasics​ #RapidminerTutorial​ #RapidminerAutoModel​ #RapidminerDataMiningTutorial​ #Python #DataScience #DataScience2022 #DataScienceIndonesia #JuntaZeniarja
Переглядів: 4 300

Відео

Klasifikasi Penguin dengan Streamlit (Web Apps) | Cara Mudah Buat Aplikasi Web Skripsi Data Mining
Переглядів 6 тис.2 роки тому
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Skripsi Data Mining menggunakan Streamlit. Aplikasi Berbasis Web yang akan dibangun tentang Klasifikasi Penguin dengan algoritma Naive Bayes (bisa diganti sesuai keinginan) yang bisa disimpan atau diimport dengan library pickle, kemudian dibangun menggunakan Streamlit. Terimakasih sudah menonton videonya. Subscribe...
Klasifikasi Bunga IRIS dengan Streamlit (WebApps) | Cara Mudah Buat Aplikasi Web Skripsi Data Mining
Переглядів 3,9 тис.2 роки тому
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Skripsi Data Mining menggunakan Streamlit. Aplikasi Berbasis Web yang akan dibangun tentang Klasifikasi Bunga IRIS dengan algoritma Naive Bayes yang dibangun menggunakan Streamlit. Terimakasih sudah menonton videonya. Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukung channel ini. Kunj...
Klasifikasi Data dengan Streamlit (Web Apps) | Cara Mudah Buat Aplikasi Web Skripsi Data Mining #3
Переглядів 11 тис.2 роки тому
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Web Skripsi Data Mining menggunakan Streamlit. Aplikasi Web yang akan dibangun menggunakan 3 dataset bawaan dari library Scikit-Learn antara lain Dataset Bunga Iris, Dataset Kanker Payudara dan Dataset Digit Angka. Sedangkan untuk penggunaan algoritma Machine Learningnya menggunakan 3 contoh algoritma yaitu algoritma K...
Prediksi Kelulusan Mahasiswa dengan Naive Bayes | Cara Mudah Buat Aplikasi Skripsi Data Mining #2
Переглядів 8 тис.2 роки тому
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Skripsi Data Mining dengan algoritma klasifikasi Naive Bayes. Implementasi menggunakan Python 3 (Anaconda - Jupyter Notebook). Studi kasus yang digunakan adalah Prediksi / Klasifikasi Kelulusan Mahasiswa. Download sampel data kelulusan mahasiswa: drive.google.com/drive/folders/1Tu5q3vtZpI_v5wsmLPtKynC7S2YXO8Xn?usp=shar...
Klasifikasi Bunga Iris dengan Naive Bayes | Cara Mudah Buat Aplikasi Skripsi Data Mining - Kasus #1
Переглядів 5 тис.3 роки тому
Video ini menjelaskan tentang langkah - langkah mudah untuk membuat Aplikasi Skripsi Data Mining dengan algoritma klasifikasi Naive Bayes. Implementasi menggunakan Python 3 (Anaconda - Jupyter Notebook). Studi kasus yang digunakan adalah Prediksi / Klasifikasi Jenis Bunga (IRIS). Terimakasih sudah menonton videonya. Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukun...
Pertemuan 14 - Validasi dan Pengujian Model dengan Python |Cross Validation|Python Data Mining 2021
Переглядів 4,2 тис.3 роки тому
Kuliah Online Data Mining tentang penjelasan Validasi dan Pengujian Model serta Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Terimakasih sudah mengikuti kuliah online & tutorialnya. Subscribe, Share, Like dan Comment jika dirasa bermanfaat, untuk terus mendukung channel ini. Kunjungi video perkuliahan lainnya di: ua-cam.com/...
Pertemuan 13 - Asosiasi dengan Python | Apriori dengan Python | Python Data Mining 2021
Переглядів 7 тис.3 роки тому
Kuliah Online Data Mining tentang Asosiasi (Association Rules) atau Market Basket Analysis dengan algoritma Apriori serta Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Online_Retail.xlsx): drive.google.com/file/d/1hEL7PFv7_TRjmdWSp4l9_bh8FTA5fl5p/view?usp=sharing Sumber: www.geeksforgeeks.org/imp...
Pertemuan 12 - Regresi dengan Python | Regresi Linear & Berganda | Python Data Mining 2021 |Korelasi
Переглядів 6 тис.3 роки тому
Kuliah Online Data Mining tentang Regresi baik Simple Regresi Linear dan Regresi Linear Berganda serta Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Data Penjualan.xlsx): drive.google.com/file/d/1yI3zRPa89SFL7tS0pFewcuERzv8LBa_S/view?usp=sharing Terimakasih sudah mengikuti kuliah online & tutoria...
Pertemuan 11 - Agglomerative Hierarchical Clustering (AHC) dengan Python | Python Data Mining 2021
Переглядів 5 тис.3 роки тому
Kuliah Online Data Mining tentang Klastering Data dengan Agglomerative Hierarchical Clustering (AHC) dan Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Data AHC.xlsx): drive.google.com/file/d/100GNSA0qOYo0KEr0FF3_mfuQ_7Vc3OKt/view?usp=sharing Terimakasih sudah mengikuti kuliah online & tutorialnya...
Pertemuan 10 - Klastering Data dengan K-Means menggunakan Python | Python Data Mining 2021 | K-MEANS
Переглядів 14 тис.3 роки тому
Kuliah Online Data Mining tentang Klastering Data dengan K-Means dan Implementasi Aplikasi Data Mining sederhana menggunakan pemrograman Python. Mudah belajar Python untuk Data Mining. Download data yang digunakan (Dataku.txt): drive.google.com/file/d/1hTLWrxcdikAwpTRmR0OHomdfciPb-vJd/view?usp=sharing Download data yang digunakan (Konsumen.csv): drive.google.com/file/d/1aR8dgJ9MA3VBc9DSsdKTwQCf...
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Data Mining & Data Science 2021
Переглядів 1,6 тис.3 роки тому
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Data Mining & Data Science 2021
Pertemuan 2 - Data untuk Data Mining |Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
Переглядів 2,6 тис.3 роки тому
Pertemuan 2 - Data untuk Data Mining |Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
Переглядів 2,2 тис.3 роки тому
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining| Data Mining Indonesia 2021 (Revisi)
Pertemuan 7 - Klasifikasi Decision Tree dgn Python |Python Data Mining| DecisionTree C4.5 (Revisi)
Переглядів 13 тис.3 роки тому
Pertemuan 7 - Klasifikasi Decision Tree dgn Python |Python Data Mining| DecisionTree C4.5 (Revisi)
Pertemuan 6 - Klasifikasi K-Nearest Neighbor (K-NN) dengan Python | Python Data Mining 2021
Переглядів 13 тис.3 роки тому
Pertemuan 6 - Klasifikasi K-Nearest Neighbor (K-NN) dengan Python | Python Data Mining 2021
Pertemuan 5 - Klasifikasi Naive Bayes dengan Python | Python Data Mining 2021 (versi Meet)
Переглядів 13 тис.3 роки тому
Pertemuan 5 - Klasifikasi Naive Bayes dengan Python | Python Data Mining 2021 (versi Meet)
Visualisasi Data Covid19 dengan Python | Corona Virus | Covid-19 | Python Data Mining 2021
Переглядів 7 тис.3 роки тому
Visualisasi Data Covid19 dengan Python | Corona Virus | Covid-19 | Python Data Mining 2021
Pertemuan 4 - Metode Learning | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Переглядів 1,9 тис.3 роки тому
Pertemuan 4 - Metode Learning | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Pertemuan 3 - Preprocessing Data dengan Python | Kuliah Online Data Mining 2021 | Python Data Mining
Переглядів 21 тис.3 роки тому
Pertemuan 3 - Preprocessing Data dengan Python | Kuliah Online Data Mining 2021 | Python Data Mining
Pertemuan 2 - Data untuk Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Переглядів 1,9 тис.3 роки тому
Pertemuan 2 - Data untuk Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Переглядів 3,7 тис.3 роки тому
Pertemuan 1 - Pengantar Data Mining | Kuliah Online Data Mining 2021 | Data Mining Indonesia
Web Mining | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Переглядів 5833 роки тому
Web Mining | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Model STKI dengan Boolean Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Переглядів 1,7 тис.4 роки тому
Model STKI dengan Boolean Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Preprosesing Dokumen (Document Preprocessing)
Переглядів 1,2 тис.4 роки тому
Preprosesing Dokumen (Document Preprocessing)
Klasifikasi Dokumen dengan K-Nearest Neighbor (K-NN) | Sistem Temu Kembali Informasi (STKI) | IR
Переглядів 3,9 тис.4 роки тому
Klasifikasi Dokumen dengan K-Nearest Neighbor (K-NN) | Sistem Temu Kembali Informasi (STKI) | IR
Pengenalan Sistem Temu Kembali Informasi
Переглядів 2,4 тис.4 роки тому
Pengenalan Sistem Temu Kembali Informasi
Model STKI dengan Vector Space Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Переглядів 2 тис.4 роки тому
Model STKI dengan Vector Space Model | Sistem Temu Kembali Informasi (STKI) | Information Retrieval
Kuliah Online Data Mining - Tipe Tipe Atribut Data | 1 Menit Mengenal Tipe Data
Переглядів 8324 роки тому
Kuliah Online Data Mining - Tipe Tipe Atribut Data | 1 Menit Mengenal Tipe Data
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Channel
Переглядів 1,3 тис.4 роки тому
Kuliah Online Junta Zeniarja - Education Channel | Kuliah Online Channel

КОМЕНТАРІ

  • @nuzultriyanto
    @nuzultriyanto Рік тому

    Pak numpang nanya, kalau data ada beberapa file bisa di Cluster tidak pak? Terima kasih pak

    • @juntazen
      @juntazen Рік тому

      bisa, tetapi sebaiknya waktu pengolahan dijadikan satu

  • @unknown-xp5qw
    @unknown-xp5qw Рік тому

    izin bertanya pak. saya masih pemula mengenai python streamlit. jadi saya hanya menginstall sesuai yg ada divideo tapi belum sampai masuk di kodingan di Vs code. saya break dahulu.. lalu ketika saya menjalankan cmd kembali saya cek kok semacam streamlit, pandas, dll tidak ada ya pak. mohon solusinya pak

    • @juntazen
      @juntazen Рік тому

      diaktifkan dahulu Virtual Environment nya mas/mb, yg telah diinstal library streamlit, pandas, dll

  • @unknown-xp5qw
    @unknown-xp5qw Рік тому

    maaf pak data tidak terjadi missing value tetapi ketika mengimplementasikan misal dg menggunakan algo. naive bayes 2 label mendapatkan hasil 0 semua. solusinya bagaimana ya pak

    • @juntazen
      @juntazen Рік тому

      Jika hasil prediksi menggunakan algoritma Naive Bayes mendapatkan nilai 0 semua, bisa jadi terdapat masalah pada pembagian data training dan testing. Salah satu solusinya adalah dengan memastikan bahwa data yang digunakan untuk training dan testing telah terdistribusi dengan baik dan mewakili semua kemungkinan nilai pada setiap fitur. Selain itu, dapat juga dilakukan pengecekan terhadap model Naive Bayes yang digunakan. Mungkin model yang digunakan tidak cocok dengan data yang digunakan, sehingga perlu memilih model yang lebih sesuai dengan data. Selain itu, bisa juga dicoba menggunakan algoritma klasifikasi lain yang lebih cocok dengan data yang dimiliki, seperti Decision Tree, Random Forest, atau Support Vector Machine (SVM). Jika hal tersebut tidak memperbaiki hasil prediksi, maka bisa jadi data tidak memiliki korelasi dengan variabel target sehingga tidak bisa digunakan untuk memprediksi variabel target dengan model tertentu. Dalam hal ini, perlu dilakukan analisis lebih lanjut untuk mencari tahu apakah memang ada korelasi antara variabel prediktor dan variabel target.

  • @zulfaizzullabibah4728
    @zulfaizzullabibah4728 Рік тому

    kak implementasi yang Algoritma C4.5 ke streamlit 🙏

  • @ummymusyarofah6362
    @ummymusyarofah6362 Рік тому

    Pak mohon izin, kalau menggunakan backaward elimination syntaxnya bagaimana lg ? Terimakasih 🙏🏻

    • @juntazen
      @juntazen Рік тому

      import numpy as np from sklearn.neighbors import KNeighborsClassifier from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # Load dataset iris = load_iris() X = iris.data y = iris.target # Bagi dataset menjadi data latih dan data uji X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # Inisialisasi nilai K K = 5 # Inisialisasi variabel untuk menyimpan subset atribut yang akan dipertahankan selected_features = list(range(X.shape[1])) # Tentukan SL (significance level) yang diinginkan SL = 0.05 # Looping untuk menghapus atribut yang tidak signifikan while True: # Inisialisasi array untuk menyimpan hasil evaluasi model p_values = [] # Looping untuk melakukan evaluasi model dengan setiap atribut yang dipertahankan for feature in selected_features: # Buat model KNN dengan atribut yang dipertahankan knn = KNeighborsClassifier(n_neighbors=K) knn.fit(X_train[:, selected_features], y_train) # Hitung prediksi model pada data uji y_pred = knn.predict(X_test[:, selected_features]) # Hitung p-value untuk atribut tertentu p_value = 1 - accuracy_score(y_test, y_pred) # Simpan p-value ke dalam array p_values.append(p_value) # Cari atribut dengan p-value paling besar max_p_value = max(p_values) max_p_value_index = p_values.index(max_p_value) # Jika p-value paling besar melebihi SL, hapus atribut tersebut if max_p_value > SL: del selected_features[max_p_value_index] else: break # Buat model KNN dengan subset atribut yang dipertahankan knn = KNeighborsClassifier(n_neighbors=K) knn.fit(X_train[:, selected_features], y_train) # Hitung prediksi model pada data uji dengan subset atribut yang dipertahankan y_pred = knn.predict(X_test[:, selected_features]) # Hitung akurasi model pada data uji dengan subset atribut yang dipertahankan accuracy = accuracy_score(y_test, y_pred) # Cetak akurasi model print("Akurasi model KNN dengan subset atribut yang dipertahankan: {:.2f}%".format(accuracy * 100))

    • @juntazen
      @juntazen Рік тому

      Program di atas mengimplementasikan algoritma Backward Elimination untuk mempertahankan subset atribut yang signifikan pada data latih untuk digunakan dalam model KNN. Algoritma ini dapat membantu meningkatkan akurasi model dengan membuang atribut yang tidak signifikan dan mengurangi dimensi data. Program ini diuji pada dataset iris dan mencetak akurasi model KNN pada data uji dengan subset atribut yang dipertahankan. Anda dapat memodifikasi program ini untuk digunakan pada dataset yang berbeda dan menyesuaikan parameter K dan SL sesuai kebutuhan.

  • @nikomangrustini7553
    @nikomangrustini7553 Рік тому

    Ijin bertanya pak, untuk data kategorikal yg missing valuesnya mencapai ribuan itu bisa pakai modus juga?

    • @juntazen
      @juntazen Рік тому

      Memakai modus sebagai imputasi (pengisian) data yang hilang pada variabel kategorikal bisa jadi pilihan yang tepat, namun tergantung pada karakteristik data tersebut. Namun, perlu diperhatikan bahwa penggunaan modus hanya cocok untuk data kategorikal yang memiliki distribusi frekuensi yang seimbang, yaitu setiap nilai muncul dengan frekuensi yang relatif sama. Jika distribusi frekuensi tidak seimbang, maka penggunaan modus dapat menghasilkan bias pada data. Selain penggunaan modus, terdapat beberapa metode lain yang dapat digunakan untuk mengisi missing value pada data kategorikal, seperti metode hot-deck dan cold-deck, serta teknik regresi. Pilihan metode yang digunakan harus disesuaikan dengan karakteristik data yang dimiliki dan tujuan analisis yang ingin dicapai.

  • @sigitaja7140
    @sigitaja7140 Рік тому

    maaf pak izin bertanya, untuk membagi data training dan data testing bagaimana ya pak?

    • @juntazen
      @juntazen Рік тому

      Untuk membagi data menjadi data training dan data testing di RapidMiner, Anda dapat menggunakan operator Split atau Cross Validation. 1. Menggunakan operator Split: - Buka RapidMiner Studio dan buka proses Anda. - Tambahkan operator Split dari panel Operator di sisi kiri. - Hubungkan operator Split ke data input. - Atur proporsi split (misalnya 70% training dan 30% testing) pada konfigurasi operator Split. - Jika diperlukan, atur pengaturan lain seperti randomization atau stratification. - Output dari operator Split akan menghasilkan dua kumpulan data, satu untuk training dan satu lagi untuk testing. 2. Menggunakan operator Cross Validation: - Buka RapidMiner Studio dan buka proses Anda. - Tambahkan operator Cross Validation dari panel Operator di sisi kiri. - Hubungkan operator Cross Validation ke data input. - Atur pengaturan operator Cross Validation seperti jumlah fold dan pengaturan stratifikasi. - Output dari operator Cross Validation akan menghasilkan beberapa kumpulan data, masing-masing berisi bagian data training dan testing yang berbeda. Anda dapat menggunakan operator lain untuk memproses data training dan data testing, seperti operator Decision Tree atau operator Neural Network, tergantung pada tipe model yang ingin Anda kembangkan. Jangan lupa juga untuk melakukan evaluasi kinerja model Anda pada data testing untuk memastikan kualitas model Anda.

  • @idabagusmadeswarbawa2074
    @idabagusmadeswarbawa2074 Рік тому

    Command prompt dan streamlitnya gak ada

    • @juntazen
      @juntazen Рік тому

      bisa disimak video yang hampir sama di link berikut : 1. Klasifikasi Penguin => ua-cam.com/video/M_VZkyWHPvY/v-deo.html 2. Klasifikasi Bunga IRIS => ua-cam.com/video/H1LYO6vhFek/v-deo.html 3. Klasifikasi Data dengan Streamlit (Web Apps) => ua-cam.com/video/hTn_3qss7KQ/v-deo.html

  • @idabagusmadeswarbawa6286
    @idabagusmadeswarbawa6286 Рік тому

    Request menu output akurasi

  • @idabagusmadeswarbawa2074
    @idabagusmadeswarbawa2074 Рік тому

    Streamlit gak bisa diinstall

    • @juntazen
      @juntazen Рік тому

      dicek terlebih dahulu untuk versi python nya mas, mungkin dependency nya

  • @ajitegar7738
    @ajitegar7738 Рік тому

    Mantabbb Pak

  • @jefrijaya1960
    @jefrijaya1960 Рік тому

    pak minta ppt pertemuan 1 sampai akhir dong pak

  • @jevone9570
    @jevone9570 Рік тому

    pak apakah saya boleh minta ppt dari pertemuan 1 sampai pertemuan akhir pak? untuk mempermudah akses belajar saya?

  • @jefry4887
    @jefry4887 Рік тому

    Pak boleh minta pptnya gk pak?

  • @azkaluthfanrudiana397
    @azkaluthfanrudiana397 Рік тому

    pak saya coba buat bikin mirip seperti yang bapak buat, tapi saya kena atribut eror di def pilih_dataset(), dibaris x = data.data dan y = data.target. katanya NoneType object has no atribute 'data'. solusinya gimana ya pak? terimakasih

  • @aisyahnovriani1990
    @aisyahnovriani1990 Рік тому

    pak, jika menggunakan dataset yang berupa excel kira-kira masih bisa ga ya pak?

  • @puzpa
    @puzpa Рік тому

    Pak ijin bertanya, gimna caranya kalau pake dua metode pak, metode naive bayes dan Knn pak

    • @juntazen
      @juntazen Рік тому

      import numpy as np from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.naive_bayes import GaussianNB from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # load dataset iris iris = datasets.load_iris() X = iris.data y = iris.target # bagi data menjadi data training dan data testing X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # buat model Naive Bayes nb_model = GaussianNB() nb_model.fit(X_train, y_train) # buat model KNN knn_model = KNeighborsClassifier(n_neighbors=5) knn_model.fit(X_train, y_train) # prediksi kelas menggunakan model Naive Bayes dan model KNN nb_pred = nb_model.predict(X_test) knn_pred = knn_model.predict(X_test) # gabungkan prediksi kedua model combined_pred = np.vstack((nb_pred, knn_pred)).T # klasifikasi dengan memilih hasil prediksi terbanyak final_pred = [] for pred in combined_pred: final_pred.append(np.argmax(np.bincount(pred))) # hitung akurasi accuracy = accuracy_score(y_test, final_pred) print("Akurasi kombinasi Naive Bayes dan KNN: {:.2f}%".format(accuracy*100))

    • @juntazen
      @juntazen Рік тому

      Bisa menggunakan contoh diatas kemudian dimodifikasi sesuai kebutuhan. Pada program di atas, dataset Iris di-load menggunakan fungsi load_iris() dari library scikit-learn. Data kemudian dibagi menjadi data training dan data testing dengan rasio 70:30 menggunakan fungsi train_test_split(). Selanjutnya, dibuat dua model klasifikasi yaitu Naive Bayes dan KNN menggunakan library scikit-learn. Setelah model-model dibuat, data testing digunakan untuk memprediksi kelas menggunakan model Naive Bayes dan KNN. Hasil prediksi kedua model digabungkan dengan fungsi vstack() dan hasilnya diteruskan ke tahap klasifikasi, di mana kelas yang diprediksi adalah kelas yang muncul paling banyak pada kedua hasil prediksi. Akhirnya, akurasi dari kombinasi kedua model dihitung menggunakan fungsi accuracy_score().

  • @solihkhinmustofa8381
    @solihkhinmustofa8381 Рік тому

    assalumualaikum.., pak junta., lihat konten dan materi nya., langsung tahu ini sahabat seperdjoengan., salam satu perguruan RSW...

    • @juntazen
      @juntazen Рік тому

      wa'alaikumsalam, salam seperdjoengan mas Solihkhin

  • @successfulvictorypublisher6090

    Mantap! Ribuan terima kasih!

  • @supiyantohasan3776
    @supiyantohasan3776 Рік тому

    Terima kasih Pak, semoga berkah ilmunya ijin bertanya Pak..bagaimana perintahnya kalau saya mau cari tahu datasets apa saja ada di library sklearn

    • @juntazen
      @juntazen Рік тому

      bisa menggunakan baris kode seperti ini: from sklearn import datasets # list semua dataset di sklearn.datasets dataset_list = [i for i in dir(datasets) if i.startswith('load_')] print("Daftar dataset di scikit-learn: ") for dataset in dataset_list: print(dataset[5:])

  • @raihansyah1853
    @raihansyah1853 Рік тому

    Izin bertanya pak kalau saat Mentraining Model Error penyebabnya apa ya pak

  • @roniardianzah1896
    @roniardianzah1896 Рік тому

    Implementasi source code nya dong pak

    • @juntazen
      @juntazen Рік тому

      !pip install Sastrawi from Sastrawi.StopWordRemover.StopWordRemoverFactory import StopWordRemoverFactory from Sastrawi.Stemmer.StemmerFactory import StemmerFactory import re # Contoh dokumen doc = "Ini adalah contoh dokumen. Dokumen ini berisi beberapa kalimat. Kita akan menggunakan ini untuk menunjukkan tahapan preprocessing." # Case folding (ubah huruf kapital menjadi huruf kecil) doc = doc.lower() # Menghapus karakter non-alfanumerik dan whitespace doc = re.sub(r'[^\w\s]', '', doc) # Menghapus stopword stopword_factory = StopWordRemoverFactory() stopword = stopword_factory.create_stop_word_remover() filtered_doc = stopword.remove(doc) # Stemming stemmer_factory = StemmerFactory() stemmer = stemmer_factory.create_stemmer() normalized_doc = stemmer.stem(filtered_doc) # Output hasil preprocessing print("Hasil preprocessing:") print(normalized_doc)

    • @juntazen
      @juntazen Рік тому

      diatas contoh preprocessing menggunakan Sastrawi

  • @RafaelEden
    @RafaelEden Рік тому

    bang , sumber datanya dari mana bang , mohon bang diblas bang

    • @juntazen
      @juntazen Рік тому

      data random sample dari riset sebelumnya

  • @nimasayumasithoh4133
    @nimasayumasithoh4133 Рік тому

    mengapa ketika sudah klik finish untuk mengupload datanya lama ya pak?

    • @juntazen
      @juntazen Рік тому

      mungkin jumlah datanya terlalu banyak, karna versi yang free maksimal skitar 10rb record, atau ada beberapa proses yang tidak sesuai

  • @fadliazisalauzi8090
    @fadliazisalauzi8090 Рік тому

    Terimakasih kak, semoga ilmunya di catat menjadi kebaikan 😇

  • @hadadkarsanuriman2487
    @hadadkarsanuriman2487 Рік тому

    izin bertanya pak, apakah coding python untuk decision tree selain C4.5 berbeda dengan yang divideo pak? atau sama saja untuk semua jenis decision tree?

    • @juntazen
      @juntazen Рік тому

      sama untuk library yg telah update dengan jenis decision tree yang terbaik, bisa dicek disini scikit-learn.org/stable/modules/tree.html#tree-algorithms-id3-c4-5-c5-0-and-cart

  • @nugrahaufal2754
    @nugrahaufal2754 Рік тому

    pak mau bertanya, untuk dataku.txt itu dataset tentang apa ya?

    • @juntazen
      @juntazen Рік тому

      dataset sampel klastering

  • @sandiadimulya4966
    @sandiadimulya4966 Рік тому

    maaf pak, ada contoh program untuk klasifikasi kelayakan penerima bantuan pake naive bayes?

    • @juntazen
      @juntazen Рік тому

      kalau sesuai topik tidak ada mas, bisa menggunakan contoh data klasifikasi kelulusan mahasiswa di ua-cam.com/video/7elJMqv8AlY/v-deo.html, atau klasifikasi bunga iris di ua-cam.com/video/H1LYO6vhFek/v-deo.html, atau klasifikasi penguin di ua-cam.com/video/M_VZkyWHPvY/v-deo.html, karena sama contohnya tinggal diganti saja data atau topik kasusnya.

  • @ilhamferdiansyah7275
    @ilhamferdiansyah7275 Рік тому

    Pak saya stak di cmd di py -3 -m venv env , error nya py is not recognized itu knp ya pak

    • @juntazen
      @juntazen Рік тому

      pastikan sudah terinstall pythonnya, atau bisa dicek disini, semoga bisa membantu => www.educative.io/answers/err-python-is-not-recognized-as-an-internal-or-external-command

  • @Itscindyaaa
    @Itscindyaaa Рік тому

    Izin meminta source code nya pak🙏

    • @juntazen
      @juntazen Рік тому

      bisa di cek disini untuk source codenya => colab.research.google.com/drive/11R9qYf5pojIiw34r-8b5wz7MC3kA-3NM?usp=sharing

  • @tjitjidarma3064
    @tjitjidarma3064 2 роки тому

    Terimakasih untuk ilmunya pak. Sudah lama saya cari video seperti ini. Alhamdulillah dah dapat di channel bapak. Penjelasannya jelas dan mudah dipahami. Tetap semangat bkin videonya pak. Auto like coment subscribe pokoknya. Ditunggu video selanjutnya pak. Kalau bisa yg k means yah pak🙏💪

  • @tjitjidarma3064
    @tjitjidarma3064 2 роки тому

    Terimakasih untuk ilmunya pak. Saya dah lama cari2 video seperti ini. Sangat jelas sekali penjelasannya. Semngat yah pak. Langsung subscribe pokoknya. Ditunggu video selanjutnya. Yg k.means klw bisa pak😌

  • @vikiwahyudi2860
    @vikiwahyudi2860 2 роки тому

    Terimakasih pak

  • @boprewugadijo5839
    @boprewugadijo5839 2 роки тому

    Sangat membantu, terimakasih pak dosen sehat selalu...

  • @faridwahyu9073
    @faridwahyu9073 2 роки тому

    bang minta kodenya

    • @juntazen
      @juntazen 2 роки тому

      bisa dicek disini kak => colab.research.google.com/drive/10XFU5-FJT5ARFwZX_M80VTHOIWUK3G5G?usp=sharing

  • @destriputriyani8916
    @destriputriyani8916 2 роки тому

    Halo pak, boleh minta source code nya untuk dicoba dan dipelajari?🙏

    • @juntazen
      @juntazen 2 роки тому

      DecisionTree => colab.research.google.com/drive/1aFxk99E_5IfUgrtG9FzhF2nUBBRJHVnV?usp=sharing DecisionTree_IrisCSV => colab.research.google.com/drive/1DW8t7n6cmy_EVXXZ8WmzO9UMkFB3-6m6?usp=sharing Dataset Bunga Iris => drive.google.com/file/d/1yCyc88rWHW77zHdkGkmJOB-tUMuxStEM/view

  • @aldilukman6794
    @aldilukman6794 2 роки тому

    Permisi pak, setelah membuat model naive bayes lalu ingin menerapkan model tersebut menggunakan file baru (belum ada 0/1) untuk dilakukan prediksi tahapannya bagaimana ya pak?

    • @juntazen
      @juntazen 2 роки тому

      bisa menyimak video ini mas => ua-cam.com/video/7elJMqv8AlY/v-deo.html

  • @prasetyaprasetya1817
    @prasetyaprasetya1817 2 роки тому

    pak bagaimana cara evaluasi model dec tree menggunakan python?

    • @juntazen
      @juntazen 2 роки тому

      bisa menyimak video yg ini mas => ua-cam.com/video/rosTpHk9IuI/v-deo.html

  • @damarjatisuryakusuma6572
    @damarjatisuryakusuma6572 2 роки тому

    Saya mau tanya Pak, kalau untuk menghapus record yang ada missing value (nan tadi di python) itu untuk codenya bagaimana ya Pak? terimakasih

    • @juntazen
      @juntazen 2 роки тому

      bisa menggunakan perintah => df.dropna() df => dataframe Secara default perintah dropna() akan menghapus semua baris yang mengandung nilai NaN.

  • @maheswari9338
    @maheswari9338 2 роки тому

    27:20

  • @waynness906
    @waynness906 2 роки тому

    pak streamlit apakah bisa di deploy ke self hosting?

    • @juntazen
      @juntazen 2 роки тому

      sesuai dokumentasi di website nya (docs.streamlit.io/knowledge-base/tutorials/deploy), utk deploy bisa melalui streamlit cloud, docker, kubernetes, heroku. Dan nantinya bisa di forward ke domain kita.

  • @catsNyong
    @catsNyong 2 роки тому

    sangat bermanfaat, barakallahu fiikum

  • @agungdwi2250
    @agungdwi2250 2 роки тому

    Pak buat tutorial analisa loyalitas pelanggan dengan stramlite

    • @juntazen
      @juntazen 2 роки тому

      ditunggu tutorial selanjutnya mas, trus dukung channel ini agar terus berkembang. terimakasih

  • @vernandyasasti9550
    @vernandyasasti9550 2 роки тому

    pak mau tanya, untuk mengetahui hasil data apa saja yg masuk ke cluster tsb bagaimana ya?

    • @juntazen
      @juntazen 2 роки тому

      bisa menggunakan : print(kmeans.labels_), dicek disini mb => colab.research.google.com/drive/11enMbQNfqU3SxCClZLOVmYKb92kyOkg-?usp=sharing

  • @galihfarid1277
    @galihfarid1277 2 роки тому

    Bismillah, maaf pak mau bertanya, apakah sebelum tahapan operator cross validation harus di tambahkan operator Split data?

    • @juntazen
      @juntazen 2 роки тому

      tidak harus mas

  • @fikal_hafidzhaikal41
    @fikal_hafidzhaikal41 2 роки тому

    Pak kalau bisa pakai database juga dan dapat di cari serpi kayak mesin pencari ?

    • @juntazen
      @juntazen 2 роки тому

      iya mas, mhn maaf karena banyak agenda dan kesibukan kerja, jadi dukung terus channelnya dan nantikan video berikutnya, semoga bisa sesuai harapan teman2. Terimakasih

  • @alfafa6657
    @alfafa6657 2 роки тому

    Mohon penjelasannya Pak, cara membaca/menginterpretasikan diagram yang terbentuk di menit 11:58 itu seperti apa ya Pak ? Terimakasih Pak.

    • @juntazen
      @juntazen 2 роки тому

      diagram yg terbentuk pertama kelompok (2,3), kemudian digabung dengan kelompok (1,4) => menjadi satu kelompok (1,2,3,4). Kemudian kelompok (1,2,3,4) digabung dengan kelompok 5 menjadi satu kelompok (1,2,3,4,5). Sehingga hirarki yang pertama 2 dan 3, kemudian 1 dan 4. Dan hirarki yang kedua gabungan (2, 3) dan (1,4) menjadi (1,2,3,4). Kemudian hirarki yang ketiga (1,2,3,4) dengan 5 menjadi (1,2,3,4,5).

  • @localpedia7169
    @localpedia7169 2 роки тому

    Bang buat tutorial hasil prediksinya bisa disimpan ke dalam database bang

    • @juntazen
      @juntazen 2 роки тому

      ditunggu tutorial selanjutnya, terus dukung channel ini ya kak, terimakasih

    • @localpedia7169
      @localpedia7169 2 роки тому

      @@juntazen siap bang ditunggu

  • @sdnkaranganyarii8577
    @sdnkaranganyarii8577 2 роки тому

    mas mau tanya,saya masih bingung tentang data mining, tapi saya mau ambil skripsi data mining, bisa membantu gak mas ? terima kasih

    • @juntazen
      @juntazen 2 роки тому

      nanti ditanyakan disini saja mas

  • @nuraaaaid
    @nuraaaaid 2 роки тому

    Pak izin bertanya, apakah ada jurnal/buku tentang aturan baku penentuan nilai min support dan minimum confidence pada metode asosiasi pak ? 🙏

    • @juntazen
      @juntazen 2 роки тому

      untuk literasi utk hal tersebut saya belum menemukan yang sesuai. Jadi bisa menggunakan rule of thumb dimana gunakan aturan 50% dl dicoba, kemudian dianalisa bisa ditambahkan secara bertahap atau dikurangi.