首先实现线性回归模型,通过梯度下降最小化均方误差,代码包含数据准备、训练和预测,最终参数接近真实关系,适用于高性能场景。

想用C++实现线性回归,其实并不复杂。虽然Python在机器学习领域更常见,但C++凭借其高性能,在对效率要求高的场景中非常适用。下面是一个简单的线性回归实现示例,帮助你入门C++机器学习。
线性回归基本原理
线性回归的目标是找到一条直线 y = wx + b,使得预测值与真实值之间的误差最小。我们使用均方误差(MSE)作为损失函数,并通过梯度下降法更新参数 w 和 b。
代码实现步骤
下面是一个完整的C++线性回归实现,包含数据准备、模型训练和预测。
立即学习“C++免费学习笔记(深入)”;
#include#include #include class LinearRegression { private: double w, b; // 权重和偏置 double learning_rate; // 学习率 int iterations; // 迭代次数
public: LinearRegression(double lr = 0.01, int iter = 1000) : w(0.0), b(0.0), learning_rate(lr), iterations(iter) {}
// 前向传播:计算预测值 std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn predict(const std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn& w) { std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn pred; for (double x : w) { pred.push_back(w * x + b); } return pred; } // 计算均方误差 double compute_cost(const std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn& X, const std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn& y) { int m = X.size(); double cost = 0.0; for (int i = 0; i zuojiankuohaophpcn m; ++i) { double pred = w * X[i] + b; cost += (pred - y[i]) * (pred - y[i]); } return cost / (2 * m); } // 训练模型 void fit(const std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn& X, const std::vectorzuojiankuohaophpcndoubleyoujiankuohaophpcn& y) { int m = X.size(); for (int iter = 0; iter zuojiankuohaophpcn iterations; ++iter) { double dw = 0.0, db = 0.0; // 计算梯度 for (int i = 0; i zuojiankuohaophpcn m; ++i) { double pred = w * X[i] + b; dw += (pred - y[i]) * X[i]; db += (pred - y[i]); } dw /= m; db /= m; // 更新参数 w -= learning_rate * dw; b -= learning_rate * db; // 每100次输出一次损失 if (iter % 100 == 0) { double cost = compute_cost(X, y); std::cout zuojiankuohaophpcnzuojiankuohaophpcn "Iteration " zuojiankuohaophpcnzuojiankuohaophpcn iter zuojiankuohaophpcnzuojiankuohaophpcn ", Cost: " zuojiankuohaophpcnzuojiankuohaophpcn cost zuojiankuohaophpcnzuojiankuohaophpcn ", w: " zuojiankuohaophpcnzuojiankuohaophpcn w zuojiankuohaophpcnzuojiankuohaophpcn ", b: " zuojiankuohaophpcnzuojiankuohaophpcn b zuojiankuohaophpcnzuojiankuohaophpcn std::endl; } } } // 预测单个值 double predict(double x) { return w * x + b; } // 获取模型参数 void get_params(double& weight, double& bias) { weight = w; bias = b; }};
使用示例
下面是一个简单的测试用例,模拟一组线性数据并训练模型。
立即学习“C++免费学习笔记(深入)”;
int main() { // 模拟数据:y = 2x + 1 + 噪声 std::vectorX = {1, 2, 3, 4, 5}; std::vector y = {3.1, 5.0, 7.1, 8.9, 11.0}; // 接近 2x+1 LinearRegression model(0.01, 1000); model.fit(X, y); double w, b; model.get_params(w, b); std::cout zuojiankuohaophpcnzuojiankuohaophpcn "\n最终模型: y = " zuojiankuohaophpcnzuojiankuohaophpcn w zuojiankuohaophpcnzuojiankuohaophpcn "x + " zuojiankuohaophpcnzuojiankuohaophpcn b zuojiankuohaophpcnzuojiankuohaophpcn std::endl; // 预测 double x_test = 6; std::cout zuojiankuohaophpcnzuojiankuohaophpcn "预测 x=6 时,y = " zuojiankuohaophpcnzuojiankuohaophpcn model.predict(x_test) zuojiankuohaophpcnzuojiankuohaophpcn std::endl; return 0;}
运行结果会显示损失逐渐下降,最终参数接近 w=2, b=1,说明模型学习到了正确的线性关系。
小结与扩展建议
这个例子展示了如何从零实现一个线性回归模型。你可以在此基础上进行扩展:
- 加入数据归一化提升训练稳定性
- 支持多特征输入(多元线性回归)
- 使用Eigen等数学库优化矩阵运算
- 封装为模板类支持不同数据类型
基本上就这些。C++实现虽然代码比Python多,但更贴近底层,适合嵌入式或高性能场景。掌握这个基础后,可以进一步尝试逻辑回归、神经网络等模型。不复杂但容易忽略细节,比如学习率设置和梯度计算的准确性。










