NN 基于类比学习,似的训练元组进行比较。训练元组由 n 个属性描述。每个元组代表 n 维空间中的一个点。这样,所有训练元组都存储在 n 维模式空间中。
当给定一个未知元组时,k-最近邻分类器会在模式空间中搜索与该未知元组最接近的 k 个训练元组。这 k 个训练元组就是该未知元组的 k 个“最近邻”。“接近度”是根据距离度量(例如欧氏距离)来定义的。K 的合理值是通过实验确定的。
回归
回归通常被称为确定两个或多个变量之间的关系。例如,假设你需要根据给定的输入数据 X 来预测某人的收入。
这里,目标变量表示我们关心预测 手机号数据库列表 的未知变量,连续表示 Y 可以取的值没有间隙(不连续性)。
预测收入是一个经典的回归问题。你的输入数据应该包含所有能够预测个人收入的信息(称为特征),例如他的工作时间、教育经历、职位、居住地。
一些常用的回归模型是:
- 线性回归
- 逻辑回归
- 多项式回归
线性回归 使用最佳拟合直线(也 内部销售代表和外部销售代表有什么区别? 称为回归线)建立因变量(Y)和一个或多个自变量(X)之间的关系。
从数学上讲,
h(xi) = βo + β1 * xi + e
其中 βo 是截距,β1 是直线的斜率,e 是误差项。
逻辑回归 是 一种用于响应变量为分类变量的算法。逻辑回归的思想是找到特征与特定结果概率之间的关系。
从数学上讲,
p(X) = βo + β1 * X 其中 p(x) = p(y = 1 | x)
多项式回归是一种 回归分 线数据库析形式 ,其中独立变量 x 和因变量 y 之间的关系被建模为 x 的 n 次多项式。
监督学习和无监督学习的区别
区别在于,在监督学习中,“类别”、“类”或“标签”是已知的。而在无监督学习中,这些是未知的,学习过程会尝试找到合适的“类别”。在这两种学习中,都会考虑所有参数,以确定哪些参数最适合进行分类。
选择监督学习还是无监督学习,取决于你是否了解数据的“类别”。如果了解,就使用监督学习。