正规方程计算的是 · x的逆,哪一个是n × n矩阵(在这里n是特征数量)。求逆矩阵的的计算复杂度[computational complexity ]通常是O()到O(),取决于具体实现。换句话说,㘝你的特征是2个,那么你的计算时间大约是 = 5.3 到 = 8.
当特征的数量增长(例如,100,000)时,正规变得非常缓慢。 从好的方面来说,这个方程是关于训练集的样本数是线性的(它是O(m)),所以它能有效地处理大型的训练集,只要内存足够。
同样,一旦你训练了线性回归模型(使用正规方程或任何其他算法),预测就会非常快:计算复杂度与你想要预测的实例数量和特征的数量是线性相关的。换句话说,待预测的样本数量变为两倍的话(或者是两倍的特征),那么只需要花费大约两倍的时间。
现在我们来看一种非常不同的方法来训练线性回归模型,该方法更适合于有大量特性的情况,或者有太多的训练实例以满足内存需要。