Contoh Soal Decision 2 0 penilaian0% menganggap dokumen ini bermanfaat (0 suara) 386 tayangan2 halamanInformasi Dokumenklik untuk memperluas informasi dokumen
Contoh SOal Decision AI 2 Hak Cipta© © All Rights Reserved Format TersediaDOCX, PDF, TXT atau baca online dari Scribd Bagikan dokumen IniBagikan atau Tanam DokumenOpsi Berbagi
Apakah menurut Anda dokumen ini bermanfaat?0%0% menganggap dokumen ini bermanfaat, Tandai dokumen ini sebagai bermanfaat 0%0% menganggap dokumen ini tidak bermanfaat, Tandai dokumen ini sebagai tidak bermanfaat Apakah konten ini tidak pantas?Laporkan Dokumen IniUnduh sekarang SimpanSimpan Contoh Soal Decision 2 Untuk Nanti 0 penilaian0% menganggap dokumen ini bermanfaat (0 suara) Contoh Soal Decision 2 Diunggah olehEddy Subianto Hong
Contoh SOal Decision AI 2 Deskripsi lengkapSimpanSimpan Contoh Soal Decision 2 Untuk Nanti 0%0% menganggap dokumen ini bermanfaat, Tandai dokumen ini sebagai bermanfaat 0%0% menganggap dokumen ini tidak bermanfaat, Tandai dokumen ini sebagai tidak bermanfaat TanamkanBagikan CetakUnduh sekarang Lompat ke Halaman Anda di halaman 1dari 2Cari di dalam dokumen You're Reading a Free Preview Buy the Full Version Puaskan Keingintahuan AndaSegala yang ingin Anda baca. Kapan pun. Di mana pun. Perangkat apa pun. Tanpa Komitmen. Batalkan kapan saja. Bagikan dokumen IniBagikan atau Tanam DokumenOpsi Berbagi
Beranda Buku Buku audio Dokumen Decision Tree (Pohon keputusan) adalah alat pendukung keputusan yang menggunakan model keputusan seperti pohon dan kemungkinan konsekuensinya, termasuk hasil acara kebetulan, biaya sumber daya, dan utilitas. Ini adalah salah satu cara untuk menampilkan algoritma yang hanya berisi pernyataan kontrol bersyarat.
Table of Contents
Algoritma untuk Induksi Decision TreeAlgoritma dasar (algoritma greedy):
Kondisi untuk menghentikan partisi:
Ulasan Singkat EntropyEntropy (Teori Informasi)
Ukuran Attribute Selection: Information Gain (ID3)
Attribute Selection: Information Gain
Tahapan Algoritma Decision Tree (ID3)
Contoh Algoritma Decision Tree (ID3)Siapkan Data TrainingData TrainingPilih Atribut Sebagai AkarUntuk memilih atribut akar, didasarkan pada nilai Gain tertinggi dari atribut-atribut yang ada. Untuk mendapatkan nilai Gain, harus ditentukan terlebih dahulu nilai Entropy Rumus Entropy: S = Himpunan Kasus. n = Jumlah Partisi S. pi = Proporsi dari Si terhadap S. Rumus Gain: S = Himpunan Kasus. A = Atribut. n = Jumlah Partisi Atribut A. | Si | = Jumlah Kasus pada partisi ke-i. | S | = Jumlah Kasus dalam S Perhitungan Entropy dan Gain AkarEntropy Total Entropy Outlook Entropy Temperature Entropy Humidity Entropy Windy Dari perhitungan di atas menghasilkan tabel seperti di bawah ini. Perhitungan Entropy dan Gain AkarLangkah berikunya yakni mencari nilai Gain. Penghitungan Gain AkarGain (Total, Outlook) Gain (Total, Temperature) Gain (Total, Humidity) Gain (Total, Windy) Dari perhitungan di atas, maka didapatkan nilai masing-masing gain. Kemudian nilai tersebut dimasukkan ke dalam tabel. Perhitungan Gain AkarGain Tertinggi Sebagai AkarDari hasil pada Node 1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah HUMIDITY yaitu sebesar 0.37051. Dengan demikian HUMIDITY dapat menjadi node akar. Ada 2 nilai atribut dari HUMIDITY yaitu HIGH dan NORMAL. Dari kedua nilai atribut tersebut, nilai atribut NORMAL sudah mengklasifikasikan kasus menjadi 1 yaitu keputusan-nya Yes, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Tetapi untuk nilai atribut HIGH masih perlu dilakukan perhitungan lagi. Node 1Buat cabang untuk tiap-tiap nilaiUntuk memudahkan, dataset di filter dengan mengambil data yang memiliki kelembaban HUMADITY=HIGH untuk membuat table Node 1.1 OUTLOOKTEMPERATUREHUMIDITYWINDYPLAYSUNNYHOTHIGHFALSENOSUNNYHOTHIGHTRUENOCLOUDYHOTHIGHFALSEYESRAINYMILDHIGHFALSEYESSUNNYMILDHIGHFALSENOCLOUDYMILDHIGHTRUEYESRAINYMILDHIGHTRUENOPerhitungan Entropi Dan Gain CabangPerhitungan Entropi Dan Gain CabangGain Tertinggi Sebagai Node 1.1Dari hasil pada Tabel Node 1.1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah OUTLOOK yaitu sebesar 0.69951. Dengan demikian OUTLOOK dapat menjadi node kedua Artibut CLOUDY = YES dan SUNNY= NO sudah mengklasifikasikan kasus menjadi 1 keputusan, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Tetapi untuk nilai atribut RAINY masih perlu dilakukan perhitungan lagi Node 1.1Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg samaOUTLOOKTEMPERATUREHUMDITYWINDYPLAYRAINYMILDHIGHFALSEYESRAINYMILDHIGHTRUENOGain Tertinggi Sebagai Node 1.1.2Dari tabel, Gain Tertinggi adalah WINDY dan menjadi node cabang dari atribut RAINY. Karena semua kasus sudah masuk dalam kelas Apa itu decision tree dalam Data Mining?Decision tree adalah algoritma machine learning yang menggunakan seperangkat aturan untuk membuat keputusan dengan struktur seperti pohon yang memodelkan kemungkinan hasil, biaya sumber daya, utilitas dan kemungkinan konsekuensi atau resiko.
Pada kasus seperti apa decision tree digunakan?Decision tree digunakan untuk menangani kumpulan data non-linier secara efektif. Decision tree digunakan dalam kehidupan nyata di banyak bidang, seperti teknik, perencanaan sipil, hukum, dan bisnis. Decision tree dapat dibagi menjadi dua jenis; variabel kategori dan pohon keputusan variabel kontinu.
Bagaimana cara decision tree mengambil keputusan?Lantas, bagaimana cara membuat decision tree? Berikut Glints jelaskan langkah-langkahnya.. Tulis keputusan yang ingin kamu ambil. © Magoosh.com. ... . Pertimbangkan hasil setiap baris. Setelah membuat beberapa garis, pertimbangkan hasilnya. ... . 3. Lanjutkan proses yang sama. ... . 4. Tetapkan nilai untuk setiap kemungkinan hasil.. Apakah decision tree juga dapat membantu dalam pengambilan keputusan perusahaan?Decision tree tidak hanya digunakan untuk membantu pengambilan keputusan yang sederhana, namun juga pada banyak hal lainnya. Decision tree umumnya digunakan data analyst untuk melakukan analisis prediktif.
|