Data Preprocessing dengan Rapidminer: Remove Duplicate, Missing Value, Seleksi Atribut

Поділитися
Вставка
  • Опубліковано 24 жов 2024

КОМЕНТАРІ • 11

  • @MuhammadHarizNurbudianto
    @MuhammadHarizNurbudianto Рік тому +1

    Terimakasih Pak Achmad Solichin, video penjelasan Data Preprocessing sangat bermanfaat dan mudah dipahami 🙏

  • @khairaalmahyraa
    @khairaalmahyraa 2 роки тому +1

    Terimakasih untuk penjelasannya pak, sangat membantu saya menyelesaikan tugas akhir

  • @galihmuhammad696
    @galihmuhammad696 2 роки тому +1

    terima kasih pak atas penjelasannya, saja jadi lebih mudah untuk mengerjakan tugas

  • @ilhamalfathurizky8477
    @ilhamalfathurizky8477 2 роки тому +2

    Terimakasih pak, videonya sangat berguna bagi kami untuk belajar ,materi yang disampaikan cukup jelas dan mudah untuk dipahami

  • @anggifitria4967
    @anggifitria4967 11 місяців тому

    terimakasih banyak pak, sangat jelas dan mudah dipahami. sehat terus ya pak

  • @muhammadichsan4644
    @muhammadichsan4644 2 роки тому +1

    Terimakasih atas penjelasan materinya pak,berguna sekali untuk pembelajaran

  • @cakrabuana6239
    @cakrabuana6239 2 роки тому

    Terimakasih pak videonya sangat membantu saya dalam belajar.

  • @rayhanfebriyansaputra2944
    @rayhanfebriyansaputra2944 2 роки тому

    Terimakasih pak pengajaran dari bapak sangat mudah dimengerti oleh kami dan materi yang disampaikan mudah dipahami

  • @putriamalia313
    @putriamalia313 7 місяців тому

    bagaimana cara mengecek kalau data tersebut ada duplikatnya? mohon bantuannya

  • @DanuraAdityadan
    @DanuraAdityadan 2 роки тому +1

    Pak izin bertanya , Jika datanya "sangat kotor" atau banyak sekali Noisy Data, lalu saya ubah dengan populasi terbanyak atau rata rata , apakah itu akan mempengaruhi akurasi hasil,, bagaimana solusinya jika demikian kasusnya terima kasih

    • @AchmadSolichin
      @AchmadSolichin  2 роки тому +1

      Jika komposisi data yg noisy terlalu banyak, mungkin bisa pertimbangkan opsi pengambilan data ulang. Namun jika data yg tidak noisy dirasa sudah cukup untuk diproses, maka lebih baik gunakan data itu aja.