Классификация WEKA дает схожие, но разные характеристики

Сначала я прочитал это: Как интерпретировать классификацию weka? но это мне не помогло. .

Затем, чтобы настроить фон, я пытаюсь учиться в соревнованиях kaggle, и модели оцениваются с помощью области ROC.

На самом деле я построил две модели и данные о них представлены таким образом:

Correctly Classified Instances       10309               98.1249 %
Incorrectly Classified Instances       197                1.8751 %
Kappa statistic                          0.7807
K&B Relative Info Score             278520.5065 % 
K&B Information Score                  827.3574 bits      0.0788 bits/instance 
Class complexity | order 0            3117.1189 bits      0.2967 bits/instance 
Class complexity | scheme              948.6802 bits      0.0903 bits/instance  
Complexity improvement     (Sf)       2168.4387 bits      0.2064 bits/instance 
Mean absolute error                      0.0465 
Root mean squared error                  0.1283 
Relative absolute error                 46.7589 % >72<69
Root relative squared error             57.5625 % >72<69
Total Number of Instances            10506     

=== Detailed Accuracy By Class ===

           TP Rate   FP Rate   Precision   Recall  F-Measure   ROC Area  Class
             0.998     0.327      0.982     0.998     0.99       0.992    0
             0.673     0.002      0.956     0.673     0.79       0.992    1
Weighted Avg.    0.981     0.31       0.981     0.981     0.98       0.992

Кроме K&B Relative Info Score; Относительная абсолютная ошибка и корень относительного квадрата ошибки, которые соответственно ниже, выше и выше в наилучшей модели, оцениваемые по кривым ROC, все данные одинаковы. Я построил третью модель с аналогичным поведением (уровень TP и т. д.), но снова K&B Relative Info Score; Относительная абсолютная ошибка и относительная квадратичная ошибка корня варьировались. Но это не позволяло предсказать, превосходит ли эта третья модель обе первые (вариации были одинаковыми по сравнению с лучшей моделью, поэтому теоретически она должна была быть лучше, но это не так).

Что я должен сделать, чтобы предсказать, будет ли модель работать хорошо, учитывая такие подробности о ней?

Спасибо заранее.


person Ando Jurai    schedule 27.05.2015    source источник
comment
Делает это: scikit-learn.org/stable/modules/model_evaluation.html помочь тебе? Когда я изучал машинное обучение, иногда разные сайты предлагали помощь, даже если они не использовали Weka или Java. Если вы сможете прочитать там код, возможно, вы сможете адаптировать их информацию для создания решения вашей проблемы. Я никогда раньше не предсказывал качество модели, поэтому не могу дать вам более подробную информацию.   -  person KJaeg    schedule 27.05.2015
comment
Это тоже может быть интересно: www2.geog. ucl.ac.uk/~mdisney/teaching/GEOGG121/bayes/   -  person KJaeg    schedule 27.05.2015
comment
Что ж, спасибо, я не уверен, что смогу ответить этим на свой вопрос, но, по крайней мере, я кое-что узнаю. Немного нелогично, что какая-то модель с большим количеством ошибок может работать лучше. Также я думал об относительной информационной оценке как о чем-то, оценивающем полноту модели по сравнению с данными, на которых модель обучается (то есть, если найденные правила классификации позволяют классифицировать все экземпляры), но, похоже, это не совсем так.   -  person Ando Jurai    schedule 27.05.2015
comment
Это было давно, так как мне приходилось работать над темами машинного обучения. Я только проверял качество своих моделей, сравнивая их реальные результаты. Но я никогда не подходил к ситуации, чтобы предсказать их поведение. Я знаю, что Google возвращает слишком мало релевантной информации для вопросов машинного обучения. Выяснилось, что «Машинное обучение» от Питера Флаха — это лучшее, что у меня было в одном ресурсе, даже если это не самая лучшая написанная книга. Если у вас есть доступ к этой книге, загляните туда. Может быть, вы найдете что-нибудь.   -  person KJaeg    schedule 27.05.2015
comment
Вернемся к вашему вопросу: наивно я бы проверил модели с перекрестной проверкой на разных наборах данных и принял результаты в качестве прогноза. Это вариант?   -  person KJaeg    schedule 27.05.2015
comment
Было, относительно. Я разделил предоставленные наборы данных в 5 раз и сделал это, но на самом деле это было не намного лучше. Я не мог получить что-то значимое с точки зрения РПЦ. Но отчасти это связано с тем, что тестовые наборы имели разные смещения, чем обучающие наборы (проблема была чем-то вроде временного ряда, у нас были годы на обучение и годы на прогнозирование, но в целом это было довольно плохо смоделировано). В любом случае, спасибо за ссылку на книгу Питера Флака. попробую прочитать. Спасибо всем за попытку помочь.   -  person Ando Jurai    schedule 25.06.2015