Klasifikasi WEKA menghasilkan hasil yang serupa tetapi kinerjanya berbeda

Pertama saya membaca ini: Bagaimana menafsirkan klasifikasi weka? tetapi itu tidak membantu saya .

Kemudian untuk latar belakangnya saya mencoba belajar di kompetisi kaggle dan model dievaluasi dengan area ROC.

Sebenarnya saya membuat dua model dan data tentangnya direpresentasikan dengan cara ini:

Correctly Classified Instances       10309               98.1249 %
Incorrectly Classified Instances       197                1.8751 %
Kappa statistic                          0.7807
K&B Relative Info Score             278520.5065 % 
K&B Information Score                  827.3574 bits      0.0788 bits/instance 
Class complexity | order 0            3117.1189 bits      0.2967 bits/instance 
Class complexity | scheme              948.6802 bits      0.0903 bits/instance  
Complexity improvement     (Sf)       2168.4387 bits      0.2064 bits/instance 
Mean absolute error                      0.0465 
Root mean squared error                  0.1283 
Relative absolute error                 46.7589 % >72<69
Root relative squared error             57.5625 % >72<69
Total Number of Instances            10506     

=== Detailed Accuracy By Class ===

           TP Rate   FP Rate   Precision   Recall  F-Measure   ROC Area  Class
             0.998     0.327      0.982     0.998     0.99       0.992    0
             0.673     0.002      0.956     0.673     0.79       0.992    1
Weighted Avg.    0.981     0.31       0.981     0.981     0.98       0.992

Selain Skor Info Relatif K&B; Kesalahan absolut relatif dan kesalahan kuadrat relatif akar yang masing-masing inferior, superior, dan superior pada model terbaik yang dinilai dengan kurva ROC, semua datanya sama. Saya membuat model ketiga dengan perilaku serupa (tingkat TP dan seterusnya), tetapi sekali lagi K&B Relative Info Score; Kesalahan absolut relatif dan kesalahan kuadrat relatif akar bervariasi. Namun hal tersebut tidak memungkinkan untuk memprediksi apakah model ketiga ini lebih unggul dari kedua model pertama (variasinya sama dibandingkan model terbaik, jadi secara teori seharusnya model tersebut lebih unggul, namun ternyata tidak).

Apa yang harus saya lakukan untuk memprediksi apakah suatu model akan berperforma baik mengingat detailnya?

Terima kasih sebelumnya.


person Ando Jurai    schedule 27.05.2015    source sumber
comment
Melakukan hal ini: scikit-learn.org/stable/modules/model_evaluation.html tolong kamu? Saat saya mempelajari pembelajaran mesin, terkadang situs berbeda menawarkan bantuan, meskipun situs tersebut tidak menggunakan Weka atau Java. Jika Anda dapat membaca kode di sana, Anda mungkin dapat menyesuaikan informasinya untuk menciptakan solusi bagi masalah Anda. Saya tidak pernah memperkirakan kualitas suatu model sebelumnya, jadi saya tidak dapat memberikan informasi lebih detail kepada Anda.   -  person KJaeg    schedule 27.05.2015
comment
Ini mungkin menarik juga: www2.geog. ucl.ac.uk/~mdisney/teaching/GEOGG121/bayes/   -  person KJaeg    schedule 27.05.2015
comment
Terima kasih, saya tidak yakin bisa menjawab pertanyaan saya dengan itu, tapi setidaknya saya akan belajar sesuatu. Agak berlawanan dengan intuisi bahwa beberapa model dengan lebih banyak kesalahan dapat bekerja lebih baik. Saya juga menganggap skor info relatif sebagai sesuatu yang mengevaluasi kelengkapan model dibandingkan dengan data model mana yang dilatih (yaitu, jika aturan klasifikasi yang ditemukan memungkinkan klasifikasi untuk semua contoh), tetapi tampaknya bukan itu masalahnya.   -  person Ando Jurai    schedule 27.05.2015
comment
Sudah lama sekali, karena saya harus mengerjakan topik pembelajaran mesin. Saya hanya memeriksa kualitas model saya dengan membandingkan hasil aslinya. Namun saya tidak pernah sampai pada situasi tersebut untuk memprediksi perilaku mereka. Saya tahu, Google mengembalikan informasi yang kurang relevan untuk pertanyaan pembelajaran mesin. Ternyata Machine Learning dari Peter Flach adalah sumber daya serba guna terbaik yang saya miliki, meskipun itu bukan buku tulisan terbaik. Jika Anda bisa mendapatkan akses ke buku ini, lihatlah di sana. Mungkin Anda akan menemukan sesuatu.   -  person KJaeg    schedule 27.05.2015
comment
Kembali ke pertanyaan Anda: Secara naif saya akan memvalidasi model dengan validasi silang pada kumpulan data yang berbeda, dan menganggap hasilnya sebagai prediksi. Apakah itu sebuah pilihan?   -  person KJaeg    schedule 27.05.2015
comment
Itu relatif. Saya membagi kumpulan data yang disediakan menjadi 5 bagian dan melakukan itu, tetapi sebenarnya tidak jauh lebih baik. Saya tidak dapat memperoleh sesuatu yang berarti dalam kaitannya dengan ROC. Namun sebagian dari hal ini terkait dengan fakta bahwa rangkaian pengujian memiliki bias yang berbeda dengan rangkaian pelatihan (masalahnya seperti rangkaian waktu, kami memiliki waktu bertahun-tahun untuk dilatih dan bertahun-tahun untuk diprediksi, tetapi modelnya secara keseluruhan sangat buruk). Bagaimanapun, terima kasih atas petunjuknya ke buku Peter Flach. Saya akan mencoba membacanya. Terima kasih semuanya telah mencoba membantu.   -  person Ando Jurai    schedule 25.06.2015