人夫是什么意思| 来月经有异味什么原因| 胸闷挂什么科室| 入木三分什么意思| 什么的迎春花| 肠胃炎吃什么食物| 久坐腰疼是什么原因| 私处痒是什么原因| 一什么柜子| 什么叫袖珍人| 梦女是什么| 吃什么生血| 吃什么对肝好| 尿素氮偏低是什么意思| 攫住是什么意思| 什么是混合磨玻璃结节| 裂纹舌是什么原因引起的| hpd是什么意思| 子宫内膜不均匀是什么意思| 94年什么命| 长乘宽乘高算的是什么| 夏天中午吃什么| 晚年是什么意思| 撸管是什么意思| 女生右手食指戴戒指什么意思| 方得始终什么意思| 婴儿蓝是什么颜色| 香蕉为什么是弯的| 干嘛是什么意思| 失眠吃什么食物| 激光点痣后需要注意什么| 王不见王是什么意思| 采阴补阳是什么意思| 手心发热吃什么药最好| 机械表是什么意思| 女人手心痒是什么征兆| 蝙蝠长什么样子图片| 舒张压低是什么原因| 把脉把的是什么脉| 肾衰竭是什么意思| 属鼠和什么属相最配| 大义灭亲是什么意思| 什么动物不长胡须| 什么是肿瘤标志物| 什么是电子邮件地址| 红细胞计数偏低是什么意思| 阳寿是什么意思| 李幼斌是什么军衔| 烂脚丫用什么药能治除根| 龙龟适合什么属相人| 武则天为什么立无字碑| 巨峰葡萄为什么叫巨峰| 富二代是什么意思| 菊花的功效是什么| 心口下面疼是什么原因| 白酒是什么时候出现的| 阴壁有许多颗粒是什么原因| 开什么店好赚钱| 教唆是什么意思| 阴阳互补什么意思| 山见念什么| 血半念什么| 22年什么婚| 孕妇吃香蕉对胎儿有什么好处| 内裤发黄是什么妇科病| 突然发胖要警惕什么病| 我方了是什么意思| 小孩铅过高有什么症状| 牙齿痛吃什么消炎药| 土豆不能和什么一起吃| 睡眠不好会引起什么症状| 碳元素是什么| 夏天脚冷是什么原因| 柠檬黄配什么颜色好看| 脑供血不足检查什么项目| 对等是什么意思| 结节是什么原因引起的| 女人生气容易得什么病| 阎王是什么意思| 龚是什么意思| 93岁属什么生肖| 净化心灵是什么意思| 异国他乡的意思是什么| 钝是什么意思| 三个力念什么| 实属什么意思| 6月23号什么星座| 平躺就咳嗽是什么原因| 只欠东风的上一句是什么| 肚脐左下方疼是什么原因| 1.5是什么星座| 青少年膝盖痛什么原因| 吸入甲醛会有什么症状| 10月出生的是什么星座| 骨科属于什么科| 口舌麻木吃什么药| 肺结节挂什么科| 14岁可以做什么工作| 兔子吃什么蔬菜| 三铵复合肥是什么| 米非司酮片是什么药| 补办结婚证需要什么手续| 欢子真名叫什么| 望梅止渴是什么故事| 61年属什么生肖| 阳历2月份是什么星座| 异丙醇是什么| hcd是什么意思| 墨迹是什么意思| 丙氨酸氨基转移酶高吃什么药| 银屑病是什么引起的| 野鸡吃什么| 泡酒用什么酒好| 血压低吃什么药见效快| 衰竭是什么意思| bug是什么意思网络用语| 牛什么饭| 脓毒症是什么病| 北极熊吃什么| 宬字五行属什么| 梦见买碗是什么意思| 枸杞有什么作用| 酒蒙子是什么意思| 梨状肌综合征吃什么药| 牙疼可以吃什么药| 肝癌是什么原因引起的| 婴儿游泳有什么好处和坏处| 大豆磷脂是什么| 西替利嗪是什么药| 什么是皮肤病| 生力军什么意思| esim卡是什么| 都有什么瓜| 软坚散结是什么意思| 什么是间质性肺炎| 它是什么用英语怎么说| 双肺条索是什么意思| 积分落户是什么意思| 典韦字什么| 利尿是什么意思| 吃什么补阳气| 毛主席女儿为什么姓李| 什么月| 肺上有结节是什么意思| 关羽姓什么| 为什么会脱发| 嘴唇起小水泡是什么原因| 牛肚是什么| egcg是什么| 跨界歌手是什么意思| 猪头肉是什么意思| 借记卡是什么卡| 12月6日什么星座| 白斑是什么| edd是什么意思| 染色体变异发生在什么时期| 春暖花开是什么生肖| 71年什么时候退休| 尿急是什么原因| 备孕要注意些什么| 有机食品是什么意思| ca199偏高是什么意思| 肺气不足吃什么药| 潜叶蝇打什么药效果好| 尿蛋白质阳性什么意思| 口腔溃疡补充什么维生素| 真菌感染是什么引起的| 肺气肿用什么药效果好| 用字五行属什么| 大什么大什么| rr医学上什么意思| 梦见长白头发是什么意思| 人潮涌动是什么意思| 参详意思是什么| 晚上睡觉小腿抽筋是什么原因| 什么是疣图片| 唐塞是什么意思| 什么叫副乳| 冰箱不制冷是什么原因| 高血糖吃什么水果最好| 胃病可以吃什么水果| 肾不纳气用什么中成药| 胎儿顶臀长是什么意思| 脱发看什么科| 台湾高山茶属于什么茶| 咳嗽咳白痰是什么症状| pg是什么激素| 樱花什么时候开| 大姨妈来了吃什么水果好| 特朗普是什么星座| 不知不觉是什么意思| 滨海新区有什么好玩的地方| 备注是什么意思| 赵子龙属什么生肖| 反流性咽喉炎吃什么药最好| 肾脏挂什么科| 人为什么怕死| 98年出生属什么| 程度是什么意思| 甲状腺结节吃什么盐| 小限是什么意思| acc是什么意思| 开除党籍有什么后果| 血液肿瘤是什么病| 做肠镜前喝的是什么药| 牛跟什么生肖相冲| 头皮痒是什么原因| 窈窕淑女君子好逑是什么意思| 什么的小船| 水漂是什么意思| 狗的胡须有什么用| 没有什么会永垂不朽| 皮下紫癜是什么引起的| 综合内科是看什么病| 发烧骨头疼是什么原因| 疯狂动物城里的狐狸叫什么| 出现的反义词是什么| 清明是什么意思| 孩子是ab型父母是什么血型| 我低头向山沟是什么歌| 9.3号是什么星座| 白完念什么| 抑郁气滞是什么症状| 甲状腺去医院挂什么科| 骨折喝酒有什么影响吗| 单身领养孩子需要什么条件| 药流后需要注意什么| 怀孕脸上长痘痘是什么原因| 臆想症是什么| 为什么会有高血压| 什么是天眼| 81年属鸡的是什么命| 酸野是什么| 我追呀追呀是什么歌曲| 自助是什么意思| 浅表性胃炎吃什么药好使| q1什么意思| or什么意思| 乳癖是什么病| 尿管型偏高是什么原因| 膝关节置换后最怕什么| 什么是转基因食品| 燕麦色是什么颜色| 五味子是什么| 舌根发麻是什么原因| 女性绝经前有什么症状| 咳嗽吃什么药效果好| 怀孕脚浮肿是什么原因引起的| 百合什么时候开花| 去医院检查怀孕挂什么科| 香油吃多了有什么害处| 吃什么能增强性功能| 四级士官是什么级别| 老人不睡觉是什么预兆| 什么是穿堂风| 结婚27年是什么婚| 物流是什么| 烧心胃酸吃什么药| 汞中毒是什么症状| 身上皮肤痒是什么原因| 拔牙之后能吃什么| 90年属什么生肖| 扩心病是什么病| 致电是什么意思| 百度

ST嘉陵扭亏拟申请摘帽 重大重组正在推进中

(Redirected from Kernel trick)
百度 “也许有人说,一百年以后,这个种子没用了呢?我期待看到种子没有用的那一天,这说明那个植物还在,该多么美好!”事实上,钟扬团队在海拔4000米以上的山峰收集到很多重要植物,如香柏和杜鹃,被发现含有抗癌成分,并通过美国药学会认证。

In machine learning, kernel machines are a class of algorithms for pattern analysis, whose best known member is the support-vector machine (SVM). These methods involve using linear classifiers to solve nonlinear problems.[1] The general task of pattern analysis is to find and study general types of relations (for example clusters, rankings, principal components, correlations, classifications) in datasets. For many algorithms that solve these tasks, the data in raw representation have to be explicitly transformed into feature vector representations via a user-specified feature map: in contrast, kernel methods require only a user-specified kernel, i.e., a similarity function over all pairs of data points computed using inner products. The feature map in kernel machines is infinite dimensional but only requires a finite dimensional matrix from user-input according to the representer theorem. Kernel machines are slow to compute for datasets larger than a couple of thousand examples without parallel processing.

Kernel methods owe their name to the use of kernel functions, which enable them to operate in a high-dimensional, implicit feature space without ever computing the coordinates of the data in that space, but rather by simply computing the inner products between the images of all pairs of data in the feature space. This operation is often computationally cheaper than the explicit computation of the coordinates. This approach is called the "kernel trick".[2] Kernel functions have been introduced for sequence data, graphs, text, images, as well as vectors.

Algorithms capable of operating with kernels include the kernel perceptron, support-vector machines (SVM), Gaussian processes, principal components analysis (PCA), canonical correlation analysis, ridge regression, spectral clustering, linear adaptive filters and many others.

Most kernel algorithms are based on convex optimization or eigenproblems and are statistically well-founded. Typically, their statistical properties are analyzed using statistical learning theory (for example, using Rademacher complexity).

Motivation and informal explanation

edit

Kernel methods can be thought of as instance-based learners: rather than learning some fixed set of parameters corresponding to the features of their inputs, they instead "remember" the  -th training example   and learn for it a corresponding weight  . Prediction for unlabeled inputs, i.e., those not in the training set, is treated by the application of a similarity function  , called a kernel, between the unlabeled input   and each of the training inputs  . For instance, a kernelized binary classifier typically computes a weighted sum of similarities   where

  •   is the kernelized binary classifier's predicted label for the unlabeled input   whose hidden true label   is of interest;
  •   is the kernel function that measures similarity between any pair of inputs  ;
  • the sum ranges over the n labeled examples   in the classifier's training set, with  ;
  • the   are the weights for the training examples, as determined by the learning algorithm;
  • the sign function   determines whether the predicted classification   comes out positive or negative.

Kernel classifiers were described as early as the 1960s, with the invention of the kernel perceptron.[3] They rose to great prominence with the popularity of the support-vector machine (SVM) in the 1990s, when the SVM was found to be competitive with neural networks on tasks such as handwriting recognition.

Mathematics: the kernel trick

edit
 
SVM with feature map given by   and thus with the kernel function  . The training points are mapped to a 3-dimensional space where a separating hyperplane can be easily found.

The kernel trick avoids the explicit mapping that is needed to get linear learning algorithms to learn a nonlinear function or decision boundary. For all   and   in the input space  , certain functions   can be expressed as an inner product in another space  . The function   is often referred to as a kernel or a kernel function. The word "kernel" is used in mathematics to denote a weighting function for a weighted sum or integral.

Certain problems in machine learning have more structure than an arbitrary weighting function  . The computation is made much simpler if the kernel can be written in the form of a "feature map"   which satisfies  The key restriction is that   must be a proper inner product. On the other hand, an explicit representation for   is not necessary, as long as   is an inner product space. The alternative follows from Mercer's theorem: an implicitly defined function   exists whenever the space   can be equipped with a suitable measure ensuring the function   satisfies Mercer's condition.

Mercer's theorem is similar to a generalization of the result from linear algebra that associates an inner product to any positive-definite matrix. In fact, Mercer's condition can be reduced to this simpler case. If we choose as our measure the counting measure   for all  , which counts the number of points inside the set  , then the integral in Mercer's theorem reduces to a summation If this summation holds for all finite sequences of points   in   and all choices of   real-valued coefficients   (cf. positive definite kernel), then the function   satisfies Mercer's condition.

Some algorithms that depend on arbitrary relationships in the native space   would, in fact, have a linear interpretation in a different setting: the range space of  . The linear interpretation gives us insight about the algorithm. Furthermore, there is often no need to compute   directly during computation, as is the case with support-vector machines. Some cite this running time shortcut as the primary benefit. Researchers also use it to justify the meanings and properties of existing algorithms.

Theoretically, a Gram matrix   with respect to   (sometimes also called a "kernel matrix"[4]), where  , must be positive semi-definite (PSD).[5] Empirically, for machine learning heuristics, choices of a function   that do not satisfy Mercer's condition may still perform reasonably if   at least approximates the intuitive idea of similarity.[6] Regardless of whether   is a Mercer kernel,   may still be referred to as a "kernel".

If the kernel function   is also a covariance function as used in Gaussian processes, then the Gram matrix   can also be called a covariance matrix.[7]

Applications

edit

Application areas of kernel methods are diverse and include geostatistics,[8] kriging, inverse distance weighting, 3D reconstruction, bioinformatics, cheminformatics, information extraction and handwriting recognition.

edit

See also

edit

References

edit
  1. ^ "Kernel method". Engati. Retrieved 2025-08-06.
  2. ^ Theodoridis, Sergios (2008). Pattern Recognition. Elsevier B.V. p. 203. ISBN 9780080949123.
  3. ^ Aizerman, M. A.; Braverman, Emmanuel M.; Rozonoer, L. I. (1964). "Theoretical foundations of the potential function method in pattern recognition learning". Automation and Remote Control. 25: 821–837. Cited in Guyon, Isabelle; Boser, B.; Vapnik, Vladimir (1993). Automatic capacity tuning of very large VC-dimension classifiers. Advances in neural information processing systems. CiteSeerX 10.1.1.17.7215.
  4. ^ Hofmann, Thomas; Sch?lkopf, Bernhard; Smola, Alexander J. (2008). "Kernel Methods in Machine Learning". The Annals of Statistics. 36 (3). arXiv:math/0701907. doi:10.1214/009053607000000677. S2CID 88516979.
  5. ^ Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Foundations of Machine Learning. US, Massachusetts: MIT Press. ISBN 9780262018258.
  6. ^ Sewell, Martin. "Support Vector Machines: Mercer's Condition". Support Vector Machines. Archived from the original on 2025-08-06. Retrieved 2025-08-06.
  7. ^ Rasmussen, Carl Edward; Williams, Christopher K. I. (2006). Gaussian Processes for Machine Learning. MIT Press. ISBN 0-262-18253-X. [page needed]
  8. ^ Honarkhah, M.; Caers, J. (2010). "Stochastic Simulation of Patterns Using Distance-Based Pattern Modeling". Mathematical Geosciences. 42 (5): 487–517. Bibcode:2010MaGeo..42..487H. doi:10.1007/s11004-010-9276-7. S2CID 73657847.

Further reading

edit
edit
小人难防前一句是什么 什么吃蟑螂 芦荟有什么好处 炎症反应性细胞改变是什么意思 1020是什么星座
荨麻疹用什么药好 人为什么会打嗝 spa按摩是什么意思 麻疹是什么病 益生菌适合什么人群吃
为什么会牙痛 健康证是什么 hb是什么意思医学 什么扑鼻成语 尿道感染吃什么药好得快
厚黑学讲的是什么 吃牛肉不能吃什么 女大十八变是什么意思 电饭锅内胆什么材质好 龙眼和桂圆有什么区别
正规医院减肥挂什么科hcv7jop6ns1r.cn 十二指肠溃疡是什么原因引起的naasee.com 毛豆是什么豆hcv7jop6ns7r.cn 胃胀疼是什么原因hcv8jop4ns9r.cn wonderful什么意思hcv8jop3ns8r.cn
肚脐眼上面痛是什么原因引起的chuanglingweilai.com 什么的嘴hcv8jop0ns3r.cn 肌酐下降是什么原因hcv9jop6ns2r.cn 恍惚是什么意思mmeoe.com 庭字五行属什么hcv7jop7ns1r.cn
哈喇味是什么味道wuhaiwuya.com hbv病毒是什么意思hcv7jop9ns7r.cn 调节是什么意思hcv9jop5ns4r.cn 豆豉是什么东西hcv9jop6ns8r.cn 金牛座是什么星象hcv9jop1ns7r.cn
一本线是什么意思hcv8jop3ns9r.cn 长溃疡是缺什么维生素hcv9jop4ns5r.cn 一个小时尿一次是什么原因hcv7jop4ns5r.cn 陈晓和赵丽颖为什么分手onlinewuye.com 霉菌性炎症用什么药效果最好jinxinzhichuang.com
百度