机器学习聚类算法中的闵可夫斯基距离

最近闲着没事了解一下聚类算法,闵可夫斯基距离真有趣,搞得我有点一头雾水,废话不多,上定义:

本文从公式上表述了欧几里得距离、曼哈顿距离、切比雪夫距离记忆闵可夫斯基距离之间的关系。

一般而言,定义一个距离函数 d(x,y), 需要满足下面几个准则:
1)同一性: d(x,x) = 0 // 到自己的距离为0
2) 非负性:d(x,y) >= 0 // 距离非负
3) 对称性:d(x,y) = d(y,x) //如果 A 到 B 距离是 a,那么 B 到 A 的距离也应该是 a
4) 直递性:d(x,k) d(k,y) >= d(x,y) // 三角形法则: (两边之和大于第三边)

闵可夫斯基距离:

闵可夫斯基距离(Minkowski distance)是衡量数值点之间距离的一种非常常见的方法,假设数值点 P 和 Q 坐标如下:
那么,闵可夫斯基距离定义为:

该距离最常用的 p 是 2 和 1, 前者是欧几里得距离(Euclidean distance),后者是曼哈顿距离(Manhattan distance)。假设在曼哈顿街区乘坐出租车从 P 点到 Q 点,白色表示高楼大厦,灰色表示街道:

当 p 趋近于无穷大时,闵可夫斯基距离转化成切比雪夫距离(Chebyshev distance):

全部评论

相关推荐

点赞 评论 收藏
分享
评论
点赞
收藏
分享
牛客网
牛客企业服务