序
我们都知道 KNN 分类算法有一个缺点,就是在找样本的 K 个最近邻时,需要计算该样本和其他 所有 样本之间的距离,并对距离进行排序,才能挑选出前 K 个距离最小的。
这个过程中计算量很大,效率低,使得 KNN 难以应用于大数据集。
那么有什么方式能够快速求出样本的最近邻呢?
答案是 有,那就是本文要介绍的数据结构:k-d树
一、kd-tree 简介
kd-tree(k-dimensional 树的简称),是一种对 k 维空间中的实例点进行 存储 以便对其进行 快速检索 的树形数据结构。(也就是说,用一种方式将所有点组织成树形结构,利于快速检索)
主要应用于多维空间关键数据的搜索(如:范围搜索和最近邻搜索)。
k-d树是空间二分树(Binary space partitioning )的一种特殊情况。
二、kd-tree 结构特征
k-d树是每个节点都为 k 维点的二叉树。
该树中的所有 非叶子节点 可以视作用一个超平面把空间分割成两个半空间。节点左边的子树代表在超平面左边的点,节点右边的子树代表在超平面右边的点。
选择超平面的方法如下:每个节点都与 k 维中垂直于超平面的那一维有关。因此,如果选择按照 x 轴划分,所有 x 值小于指定值的节点都会出现在左子树,所有 x 值大于指定值的节点都会出现在右子树。这样,超平面可以用该 x 值来确定,其法线为 x 轴的单位向量。
三、kd-tree 的构建
Kd-Tree的构建算法:
-
在 K 维数据集合中选择具有最大方差的维度 k ,然后在该维度上选择 中位数 节点 m 为超平面对该数据集合进行划分,得到两个子集合;同时创建一个树结点node,用于存储该节点 m ;
-
对两个子集合重复(1)步骤的过程,直至所有子集合都不能再划分为止;如果某个子集合不能再划分时,则将该子集合中的数据保存到叶子结点(leaf node)。
也就是说,先找一个维度(拥有最大方差),用中值对数据进行划分,然后再找一个维度,再用中值对数据进行划分…,直到所有的节点都成为叶子节点被记录在树中。
四、利用Kd-Tree进行最近邻查找
构建好一棵Kd-Tree后,下面给出利用Kd-Tree进行最近邻查找的算法:
现在有一个待分类样本 Q:
-
将查询数据 Q 从根结点开始,按照 Q 与各个结点的比较结果向下访问 Kd-Tree,直至达到叶子结点。
其中 Q 与结点的比较指的是将 Q 对应于结点中的 k 维度上的值与 m 进行比较,若 Q(k) < m,则访问左子树,否则访问右子树。到达叶子结点 时,计算 Q 与叶子结点上保存的数据之间的距离,记录下最小距离对应的数据点,记为 当前 “最近邻点” Pcur 和最小距离 Dcur 。
我们以当前最近邻点 Pcur 为中心,Dcur 为半径,圈定查找范围,最近邻就在这个范围内。
这就是算法的优势,直接缩小了查找范围。
-
进行 回溯(Backtracking)操作,该操作是为了找到离 Q 更近的“最近邻点”。即判断未被访问过的分支里是否还有离 Q 更近的点,它们之间的距离小于Dcur。
如果 Q 与其父结点下的未被访问过的分支之间的距离小于 Dcur ,则认为该分支中存在离 Q 更近的数据,进入该结点,进行(1)步骤一样的查找过程,如果找到更近的数据点,则更新为当前的 “最近邻点” Pcur,并更新 Dcur。
如果 Q 与其父结点下的未被访问过的分支之间的距离大于 Dcur ,则说明该分支内不存在与 Q 更近的点。
回溯的判断过程是从下往上进行的,直到回溯到根结点时已经不存在与 Q 更近的分支为止。
五、总结
kd 树的核心思想是根据维度中位数将样本进行区域划分,查找时样本顺着树往下走就能到自己所在的区域,该区域的那个叶子节点是最有可能“最近邻”的节点,然后最近邻肯定在该区域内,缩小了查找范围,在该查找范围内进行回溯查找就能找到最近邻。
参考链接
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/118881.html