线性模型使用简单的公式来通过一组数据点找到“最佳拟合”线。您可以通过您知道的变量等式找到要预测的变量。为了找到预测,我们输入我们知道的变量来得到答案。换句话说,为了找出蛋糕烘烤需要多长时间,我们只需输入成分。有不同形式的线性模型算法。
线性回归,也称为“最小二乘回归”,是线性模型的最标准形式。对于回归问题(我们试图预测的变量是数值),线性回归是最简单的线性模型。
回归算法通常用于统计分析,是用于机器学习的关键算法。回归算法帮助分析师建模数据点之间的关系。回归算法定义数字目标值,而不是类。通过估算数值变量,这些算法在预测产品需求,销售数据,营销回报等方面非常有用。例如:
・
今年我们能销售多少件这类产品?
・
这个城市的旅行费用是多少?
・
汽车维持其使用寿命的最高速度是多少?
回归算法可以量化数据集中变量之间的相关强度。此外,回归分析可用于根据历史值预测数据的未来值。然而,重要的是要记住回归分析假设相关性与因果关系有关。如果不了解数据背景,回归分析可能会导致您的预测不准确。
逻辑回归只是线性回归对分类问题的适应(我们试图预测的变量是“是/否”答案)。Logistic回归因其形状而非常适用于分类问题。
线性回归和逻辑回归都具有相同的缺点。两者都具有“过度拟合”的倾向,这意味着模型过于精确地适应数据,代价是推广到迄今为止看不见的数据的能力。因此,两种模型通常都是“正规化”的,这意味着它们有一定的惩罚来防止过度拟合。线性模型的另一个缺点是,由于它们很简单,因此往往难以预测更复杂的行为。