博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
监督学习--k近邻算法
阅读量:4693 次
发布时间:2019-06-09

本文共 322 字,大约阅读时间需要 1 分钟。

2017-07-20 15:18:25

k近邻(k-Nearest Neighbour, 简称kNN)学习是一种常用的监督学习方法,其工作机制非常简单,对某个给定的测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个‘邻居’的信息进行预测。一般来说,在分类中采用‘投票法’,即选择的这k个样本中出现最多的类别标记作为预测结果。

优点:精度高,对异常值不敏感,无数据输入假定;

缺点:计算复杂度高、空间复杂度高;(对每个输入测试样本,需要计算其和所有训练样本的距离,并从中选择k个最相近的)

适用的数据范围:连续型和离散型

 

转载于:https://www.cnblogs.com/TIMHY/p/7211778.html

你可能感兴趣的文章
随机数生成函数
查看>>
CDQ分治
查看>>
引用的本质
查看>>
归并排序求逆序对
查看>>
Kejin Player
查看>>
构造函数的分类和调用
查看>>
c/c++面试大全
查看>>
拷贝构造函数调用的时机
查看>>
c++ inline函数
查看>>
构造函数与初始化列表
查看>>
c++多态的一个例子
查看>>
类对象作为类成员
查看>>
c++模板函数
查看>>
面向对象和面向过程的区别及优劣对比详解
查看>>
const与指针
查看>>
thsi指针的一些用法及作用
查看>>
c++友元
查看>>
c++运算符重载
查看>>
一元运算符重载
查看>>
c中的malloc函数
查看>>