ms什么意思| 厨娘是什么意思| 急性前列腺炎吃什么药| 枫树的叶子像什么| 小腹胀胀的是什么原因| 医美是什么专业| 梦到前夫什么意思| 80分贝相当于什么声音| 月经老是推迟是什么原因| 天冬与麦冬有什么区别| 生理期可以吃什么水果| 什么其谈| 发量多的女生适合什么发型| 和田玉对身体有什么好处| 81年属鸡是什么命| 荤段子是什么意思| 什么情况下要打破伤风针| 血液是什么组织| 裸妆是什么意思| 吐血是什么病| 乙脑是什么病| 宜子痣是什么意思| 乌龟吃什么| 额头上长痘痘什么原因| 桃子不能和什么水果一起吃| 大便拉水是什么原因| 驳是什么意思| h2ra 是什么药物| levi是什么意思| 红参和人参有什么区别| 胃胀气吃什么食物好| 发炎是什么意思| 肝胆相照是什么意思| 宝宝拉肚子有粘液是什么原因| 体位性低血压是什么| 阈值是什么意思| 印鉴是什么意思| 性无能是什么意思| 胎儿胆囊偏大有什么影响| 下边瘙痒是什么原因| 为什么打牌老输| 激素六项是查什么的| sunglasses是什么意思| 伊朗是什么派| 眼睛不舒服是什么原因引起的| va是什么维生素| 蜘蛛痣是什么原因引起的| 筋膜炎用什么药好| 脊柱侧弯拍什么片子| 尿酸高适合吃什么食物| 萎缩性胃炎吃什么药效果好| 月例是什么意思| 渚是什么意思| 急性支气管炎吃什么药| 胃幽门螺旋杆菌吃什么药效果好| 双肺纹理增多是什么意思严重吗| 日光灯属于什么光源| 上火吃什么药好| 次胖是什么意思| eblan是什么品牌| 痛风不能吃什么水果| 智齿什么时候拔合适| 胬肉是什么意思| 梦见自己哭了是什么意思| 广西为什么简称桂| 堃什么意思| 梦见进监狱是什么兆头| 什么是比例| levi是什么意思| 静脉曲张是什么样子| 秀米是什么| 男人结扎有什么危害| mm是什么单位| 排骨和什么一起炖好吃| 经期头痛吃什么药| 核磁共振什么时候出结果| 下午3点是什么时辰| 什么是紫癜| 姨妈期能吃什么水果| 台湾什么时候回归| 涸的意思是什么| 什么情况下做心脏造影| 小号避孕套是什么尺寸| 滑脉是什么意思| 嬴姓赵氏是什么意思| 肌酐高吃什么好| 俄罗斯乌克兰为什么打仗| vertu手机为什么那么贵| 胆囊炎是什么| 嗓子有异物感堵得慌吃什么药| 阑尾炎在什么位置疼| 心肌病是什么病| 状元是什么官| 蒲公英长什么样| 宁五行属什么| 什么样的人不能坐飞机| 香油吃多了有什么害处| 家门是什么意思| 推举是什么意思| 什么是横纹肌肉瘤| 中元节是什么意思| 为什么会得灰指甲| 一什么之| 6月13日什么星座| 4月10日是什么星座| 翳是什么意思| 谷维素是什么| 例假淋漓不尽是什么原因造成的| 报应是什么意思| 吃红糖有什么好处和坏处| 做蛋糕用什么油| 九月份是什么星座| 鞥是什么意思| 无什么不什么| 胃窦肠化是什么意思| 七月份有什么节日| 澳门是什么时候被葡萄牙占领的| 什么的豆角| 做腹腔镜手术后需要注意什么| 成什么上什么| 杭字五行属什么| 眼开大财主是什么生肖| 逆商是什么意思| Preparing什么意思| 阴道有灼热感是什么原因| 梦见笑是什么意思| 寻麻疹涂什么药膏| 1999属什么生肖| 梦见婆婆去世预示什么| 诟病是什么意思| 司令是什么军衔| 象牙塔比喻什么| 椎管狭窄吃什么药| 主理人是什么意思| 初中老师需要什么学历| mcv偏低是什么意思| 月亮为什么是红色的| 男生下面长什么样| 什么是植物人| ba是什么| 鼠的守护神是什么菩萨| 粉色分泌物是什么原因| fila是什么品牌| 胃痛吃什么| 陈醋和蜂蜜一起喝有什么好处| 蜘蛛的天敌是什么动物| 杭州的市花是什么花| 避重就轻是什么意思| 去痣挂号挂什么科| 肾囊肿有什么症状| 治疗呼吸道感染用什么药最好| 3月30日是什么星座| pe什么材质| 95年属于什么生肖| 紫薇什么意思| 牛磺酸是什么东西| 常务副县长什么级别| 1989是什么生肖| 头发白缺什么| 全血是什么意思| 长期失眠应该吃什么药| 老母鸡炖什么好吃又有营养价值| 07年属什么生肖| 肝做什么检查最准确| 甲功五项是什么意思| 低血糖要吃什么| 鲁班姓什么| 皮蛋是什么蛋做的| 背痛是什么原因引起的| 苦荞有什么作用| 支原体感染有什么症状| 贫血吃什么东西好| 今年17岁属什么| 分家是什么意思| 阑尾炎吃什么药| c14呼气试验是检查什么的| 宝宝屁多是什么原因| 尖锐是什么意思| police是什么意思| 乳铁蛋白是什么| 热感冒吃什么药好| 菩提根是什么| 什么时候立秋| 机遇什么意思| 冥寿是什么意思| 强势的人有什么特点| 橘红是什么| 愚昧是什么意思| 大连机场叫什么名字| 什么是硬下疳| 梦见儿子拉屎是什么意思| 风情万种的意思是什么| 日本为什么投降| 副乳挂什么科| 妇科做活检是什么意思| 钠偏低是什么原因| 土字生肖有钱收是什么生肖| 来忘掉错对来怀念过去是什么歌| 吃什么有饱腹感还减肥| 四大天王是什么生肖| 痛风应该挂什么科| 门口放镜子有什么讲究| 工资5k是什么意思| 吃什么对身体好| 黄体囊肿是什么意思| 乳糖不耐受喝什么奶粉比较好| 尿检潜血是什么意思| 吃什么去火| 婧读什么| 吃什么能缓解孕吐| 云的五行属性是什么| 利尿剂是什么| 尿检3个加号什么意思| rt是什么| 什么是碱性磷酸酶| 无限未来为什么不写了| 大血小板比率偏高是什么原因| 虾仁炒什么好吃又简单| 甲母痣是什么| 赛字五行属什么| 占有欲什么意思| 什么应什么合| 放疗后吃什么恢复的快| 眼皮跳吃什么药| emo是什么意思| 卵泡是什么东西| 西芹炒什么好吃| 柳树代表什么生肖| 眼睛长结石是什么原因引起的| 一阴一阳是什么数字| 四级什么时候报名| 婴儿足底采血查什么| grace什么意思中文| 梦见吃饭是什么预兆| 牙松动了还疼用什么方法处理最好| 画肖指什么生肖| 胃不好吃什么菜| der是什么意思| abs材质是什么| 李小龙和丁佩什么关系| 消字号是什么意思| 隔空打牛是什么意思| 2月15日是什么星座| 贺喜是什么意思| 正对什么| 什么花在春天开| 扁平足是什么样子图片| 非典型鳞状细胞是什么意思| 画风是什么意思| 黄精是什么药材| 总蛋白偏高有什么危害| sunglasses是什么意思| 眼泪为什么是咸的| 格色是什么意思| a4纸能折什么| 什么时候立秋| 什么是挠脚心| 什么的玉米| 西洋参什么时候吃效果最好| 鸡精和味精有什么区别| penis是什么意思| 养狗人容易得什么病| hpv是检查什么的| 为什么医生爱开喜炎平| 百度
百度 所谓姑苏版,是指清代康熙、雍正、乾隆时期苏州桃花坞木版年画全盛期的作品。

In machine learning, a probabilistic classifier is a classifier that is able to predict, given an observation of an input, a probability distribution over a set of classes, rather than only outputting the most likely class that the observation should belong to. Probabilistic classifiers provide classification that can be useful in its own right[1] or when combining classifiers into ensembles.

Types of classification

edit

Formally, an "ordinary" classifier is some rule, or function, that assigns to a sample x a class label ?:

 

The samples come from some set X (e.g., the set of all documents, or the set of all images), while the class labels form a finite set Y defined prior to training.

Probabilistic classifiers generalize this notion of classifiers: instead of functions, they are conditional distributions  , meaning that for a given  , they assign probabilities to all   (and these probabilities sum to one). "Hard" classification can then be done using the optimal decision rule[2]:?39–40?

 

or, in English, the predicted class is that which has the highest probability.

Binary probabilistic classifiers are also called binary regression models in statistics. In econometrics, probabilistic classification in general is called discrete choice.

Some classification models, such as naive Bayes, logistic regression and multilayer perceptrons (when trained under an appropriate loss function) are naturally probabilistic. Other models such as support vector machines are not, but methods exist to turn them into probabilistic classifiers.

Generative and conditional training

edit

Some models, such as logistic regression, are conditionally trained: they optimize the conditional probability   directly on a training set (see empirical risk minimization). Other classifiers, such as naive Bayes, are trained generatively: at training time, the class-conditional distribution   and the class prior   are found, and the conditional distribution   is derived using Bayes' rule.[2]:?43?

Probability calibration

edit

Not all classification models are naturally probabilistic, and some that are, notably naive Bayes classifiers, decision trees and boosting methods, produce distorted class probability distributions.[3] In the case of decision trees, where Pr(y|x) is the proportion of training samples with label y in the leaf where x ends up, these distortions come about because learning algorithms such as C4.5 or CART explicitly aim to produce homogeneous leaves (giving probabilities close to zero or one, and thus high bias) while using few samples to estimate the relevant proportion (high variance).[4]

 
An example calibration plot

Calibration can be assessed using a calibration plot (also called a reliability diagram).[3][5] A calibration plot shows the proportion of items in each class for bands of predicted probability or score (such as a distorted probability distribution or the "signed distance to the hyperplane" in a support vector machine). Deviations from the identity function indicate a poorly-calibrated classifier for which the predicted probabilities or scores can not be used as probabilities. In this case one can use a method to turn these scores into properly calibrated class membership probabilities.

For the binary case, a common approach is to apply Platt scaling, which learns a logistic regression model on the scores.[6] An alternative method using isotonic regression[7] is generally superior to Platt's method when sufficient training data is available.[3]

In the multiclass case, one can use a reduction to binary tasks, followed by univariate calibration with an algorithm as described above and further application of the pairwise coupling algorithm by Hastie and Tibshirani.[8]

Evaluating probabilistic classification

edit

Commonly used evaluation metrics that compare the predicted probability to observed outcomes include log loss, Brier score, and a variety of calibration errors. The former is also used as a loss function in the training of logistic models.

Calibration errors metrics aim to quantify the extent to which a probabilistic classifier's outputs are well-calibrated. As Philip Dawid put it, "a forecaster is well-calibrated if, for example, of those events to which he assigns a probability 30 percent, the long-run proportion that actually occurs turns out to be 30 percent".[9] Foundational work in the domain of measuring calibration error is the Expected Calibration Error (ECE) metric.[10] More recent works propose variants to ECE that address limitations of the ECE metric that may arise when classifier scores concentrate on narrow subset of the [0,1], including the Adaptive Calibration Error (ACE) [11] and Test-based Calibration Error (TCE).[12]

A method used to assign scores to pairs of predicted probabilities and actual discrete outcomes, so that different predictive methods can be compared, is called a scoring rule.

Software Implementations

edit
  • MoRPE[13] is a trainable probabilistic classifier that uses isotonic regression for probability calibration. It solves the multiclass case by reduction to binary tasks. It is a type of kernel machine that uses an inhomogeneous polynomial kernel.

References

edit
  1. ^ Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome (2009). The Elements of Statistical Learning. p. 348. Archived from the original on 2025-08-05. [I]n data mining applications the interest is often more in the class probabilities   themselves, rather than in performing a class assignment.
  2. ^ a b Bishop, Christopher M. (2006). Pattern Recognition and Machine Learning. Springer.
  3. ^ a b c Niculescu-Mizil, Alexandru; Caruana, Rich (2005). Predicting good probabilities with supervised learning (PDF). ICML. doi:10.1145/1102351.1102430. Archived from the original (PDF) on 2025-08-05.
  4. ^ Zadrozny, Bianca; Elkan, Charles (2001). Obtaining calibrated probability estimates from decision trees and naive Bayesian classifiers (PDF). ICML. pp. 609–616.
  5. ^ "Probability calibration". jmetzen.github.io. Retrieved 2025-08-05.
  6. ^ Platt, John (1999). "Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods". Advances in Large Margin Classifiers. 10 (3): 61–74.
  7. ^ Zadrozny, Bianca; Elkan, Charles (2002). "Transforming classifier scores into accurate multiclass probability estimates" (PDF). Proceedings of the eighth ACM SIGKDD international conference on Knowledge discovery and data mining - KDD '02. pp. 694–699. CiteSeerX 10.1.1.164.8140. doi:10.1145/775047.775151. ISBN 978-1-58113-567-1. S2CID 3349576. CiteSeerX: 10.1.1.13.7457.
  8. ^ Hastie, Trevor; Tibshirani, Robert (1998). "Classification by pairwise coupling". The Annals of Statistics. 26 (2): 451–471. CiteSeerX 10.1.1.309.4720. doi:10.1214/aos/1028144844. Zbl 0932.62071. CiteSeerX: 10.1.1.46.6032.
  9. ^ Dawid, A. P (1982). "The Well-Calibrated Bayesian". Journal of the American Statistical Association. 77 (379): 605–610. doi:10.1080/01621459.1982.10477856.
  10. ^ Naeini, M.P.; Cooper, G.; Hauskrecht, M. (2015). "Obtaining well calibrated probabilities using bayesian binning" (PDF). Proceedings of the AAAI Conference on Artificial Intelligence.
  11. ^ Nixon, J.; Dusenberry, M.W.; Zhang, L.; Jerfel, G.; Tran, D. (2019). "Measuring Calibration in Deep Learning" (PDF). CVPR workshops.
  12. ^ Matsubara, T.; Tax, N.; Mudd, R.; Guy, I. (2023). "TCE: A Test-Based Approach to Measuring Calibration Error". Proceedings of the Thirty-Ninth Conference on Uncertainty in Artificial Intelligence (UAI). arXiv:2306.14343.
  13. ^ "MoRPE". GitHub. Retrieved 17 February 2023.
脚老是抽筋是什么原因 西安古时候叫什么 今年是什么年庚 首级是什么意思 醋泡黑豆有什么功效
鹰潭有什么好玩的地方 梦见蛇预示着什么 为什么妇科病要肛门塞药 颜面扫地什么意思 什么是孝
什么的花蕾 肢体拘挛是什么意思 髋关节积液是什么原因造成的 怀孕前三个月吃什么好 red是什么颜色
皮肤过敏擦什么药膏好得快 毛囊炎长什么样 什么年龄割双眼皮最好 hgh是什么意思 三个目念什么
知更鸟是什么意思travellingsim.com 白喉采取什么隔离hcv8jop6ns5r.cn 杏仁有什么功效和作用hcv7jop9ns2r.cn 2010是什么年travellingsim.com 养猫的人容易得什么病hcv8jop8ns2r.cn
长闭口是什么原因造成的beikeqingting.com 男人沉默了说明什么weuuu.com pagani是什么车hcv8jop7ns7r.cn 撕脱性骨折什么意思sscsqa.com 女人自尊心强说明什么hcv8jop2ns2r.cn
嘴唇发黑什么原因xianpinbao.com 口腔上火吃什么药hcv9jop1ns3r.cn 膝超伸是什么hcv8jop6ns4r.cn 男人皮肤黑穿什么颜色的衣服好看hcv8jop2ns1r.cn 雪莲菌泡牛奶有什么功效gysmod.com
瘦的人吃什么才能变胖hcv7jop9ns7r.cn 什么叫cta检查hcv7jop9ns6r.cn 手指关节发黑是什么原因hcv7jop9ns6r.cn 狗是什么属性hcv8jop1ns8r.cn cbd是什么意思啊hcv8jop9ns2r.cn
百度