点击下方“Lwcah”关注公众号

立个flag,这是未来一段时间打算做的Python教程,敬请关注。

我的程序中给出数据data.xlsx(代码及数据见文末),10 列特征值,1 个目标值,适用于各行各业回归预测算法的需求,其中出图及数据自动保存在当前目录,设置的训练集与预测集的比例为 80%:20%。


在真实世界的数据中,总会混杂着各种异常点:测量错误、干扰噪声、极端值……
普通回归一旦遇到这些异常点,很容易被它们“拖歪”,导致预测不可靠。
RANSAC(Random Sample Consensus)回归就是为解决这一问题而设计的。
它通过“随机抽样 + 共识验证”的方式,找到最能代表真实规律的模型,是一种极其稳健的回归方法。
RANSAC 回归的核心思想非常直接:
“不断随机抽取少量样本拟合模型,然后检查有多少数据支持它,最终选择获得最多“共识”的那一次。
它不像传统回归那样一次性使用所有样本,而是通过大量随机尝试从混乱的数据中筛选出“真正可靠的部分”。
在每一次随机抽样中,RANSAC 只使用极少量样本来拟合模型。
如果这次抽到的样本不包含异常点,那么拟合出的模型就是“干净”的。
随后 RANSAC 会检查:
最终选择内点最多的模型作为结果。
这种机制让 RANSAC 天生能抵抗噪声和离群点的干扰。
RANSAC 的流程可以概括为:
最终的结果就是最能得到大多数数据认可的模型。
这种方式既简单又有效。
RANSAC 特别适合以下情况:
它的本质不是拟合所有数据,而是从混乱中找到“真正可信的那一部分”。
由于其稳健性强,RANSAC 被广泛应用于:
在噪声混杂的情况下,RANSAC 往往比传统方法更可靠。
特征值相关性热图用于展示各特征之间的相关强弱,通过颜色深浅体现正负相关关系,帮助快速识别冗余特征、强相关特征及可能影响模型稳定性的变量,为后续特征选择和建模提供参考。

散点密度图通过颜色或亮度反映点的聚集程度,用于展示大量样本的分布特征。相比普通散点图,它能更直观地呈现高密度区域、异常点及整体趋势,常用于回归分析与模型评估。以下为训练集和测试集出图效果。


贝叶斯优化会根据每一次调参的表现,持续更新一份“这个参数组合大概率能获得更好效果”的认知。
这份认知由一个代理模型承担,通常是高斯过程或树结构模型。它不像网格搜索那样盲目,而是先学、再试。
贝叶斯优化每次选新的参数时都会权衡:
每试一个参数组合,代理模型就会重新更新“信念”,并重新预测哪些区域值得继续尝试。
调参越往后,模型越“聪明”,搜索路径越精确。这就像一个不断学习经验的调参工程师,越调越准。
因为每一次试验都很有价值,贝叶斯优化通常只需几十次实验就能找到非常优秀的超参数组合。
这对训练成本高的模型(XGBoost、LightGBM、CatBoost、深度学习)尤其友好。
该图展示贝叶斯优化过程中各超参数的重要性,对模型误差影响最大的为 n_estimators 和 learning_rate,其次为 max_depth,而 subsample 与 reg_lambda 贡献较小,用于判断调参优先级。

一句话概括:
“随机搜索就是在超参数空间里不断“抽样试验”,从而找到表现最好的参数组合。
不同于按顺序走格子的调参方式,随机搜索会在整个参数空间中“自由跳跃”,每次从可能区域里随机挑选出一个参数组合,用最直接的方式评估模型的表现。
虽然名字叫“随机”,但它背后的逻辑却非常高效。
每次抽取的点都可能落在搜索空间的不同区域,让模型在有限的预算里探索更多潜在好参数。
你可以让 learning_rate 以对数分布抽取、让 n_estimators 偏向更大值,这让随机搜索能更贴近真实优化需求。
不依赖复杂的历史记录,适用于快速尝试、快速验证的场景。
换句话说: 它简单,但“简单得很有效”。
在许多模型中,超参数空间往往非常大,比如:
随机搜索能在这些复杂空间里迅速落点—— 不需要把所有组合都跑一遍,也不需要构建额外的代理模型,只需要不断抽样并测试结果。尤其在遥感反演、深度学习任务中,这种轻量但高覆盖的方式,往往能快速找到一个令人满意的初步最优解。
简单总结几个典型应用:
这也是为什么随机搜索常被当作调参的起步策略,先探索,再进一步细化。
该图为超参数的成对散点矩阵图,展示不同超参数之间的分布特征与潜在关系,对角线上为各参数的概率密度分布,可用于分析参数空间结构与抽样多样性。

该图展示超参数与模型误差的相关性重要性排名,不同柱状高度反映各参数对 RMSE 的影响强弱,其中 reg_alpha、max_depth 和 learning_rate 贡献最高,有助于确定调参重点方向。

一句话概括:
“网格搜索就是把所有设定好的超参数组合排成一个“网格”,逐个尝试,通过评估结果找到表现最佳的那一组参数。
就像在一个二维或多维坐标空间里,把所有候选参数都排列出来,然后把每个点都跑一遍,最终选出模型表现最优的位置。
网格搜索的理念非常直观:
这是一种系统化、无遗漏的搜索方式。它不会遗漏,也不会偏向,它用最直接的方式告诉你: 哪个参数组合最适合你的模型。
网格搜索的价值主要体现在几个方面:
你可以完全决定参数候选集,调参过程完全透明。
特别适合探索学习率、树深、正则项等关键参数的小步长变化。
与 Cross-Validation 结合后,能够获得稳定、可靠的参数评估结果。
每个组合都被尝试过,调参过程完整记录,适合科研工作。
网格搜索广泛应用于:
在你的任务里,网格搜索非常适合用于关键参数的局部精调,确保模型在最佳点附近充分探索。
该图展示 GridSearchCV 调参过程中各超参数与 RMSE 的相关性重要性,其中 learning_rate、reg_alpha 和 n_estimators 影响最明显,可用于识别关键参数并指导后续调参方向。





并将训练集和测试集的精度评估指标保存到 metrics. Mat 矩阵中。共两行,第一行代表训练集的,第二行代表测试集的;共 7 个精度评估指标,分别代表 R, R2, ME, MAE, MAPE, RMSE 以及样本数量。

保存的regression_result.mat数据中分别保存了名字为Y_train、y_pred_train、y_test、y_pred_test的矩阵向量。

同样的针对大家各自的数据训练出的模型结构也保存在model.json中,方便再一次调用。

调用的程序我在程序中注释了,如下
# 加载模型
# model.load_model("model.json")
主程序如下,其中从1-10,每一步都有详细的注释,要获取完整程序,请转下文代码获取
# =========================================================
# 主程序
# =========================================================
def main():
print("=== 1. 读取数据 ===")
data = pd.read_excel("data.xlsx")
X = data.iloc[:, :10].values
y = data.iloc[:, 10].values
feature_names = list(data.columns[:10])
print("=== 2. 划分训练与测试 ===")
X_train, X_test, y_train, y_test = train_test_split(
X, y, test_size=0.2, random_state=42
)
print("=== 3. 归一化 ===")
scaler_X = MinMaxScaler()
scaler_y = MinMaxScaler()
X_train_norm = scaler_X.fit_transform(X_train)
X_test_norm = scaler_X.transform(X_test)
y_train_norm = scaler_y.fit_transform(y_train.reshape(-1, 1)).ravel()
print("=== 4. 模型训练 ===")
model = train_model(X_train_norm, y_train_norm)
print("=== 5. 预测(反归一化到原始尺度) ===")
y_pred_train_norm = model.predict(X_train_norm)
y_pred_test_norm = model.predict(X_test_norm)
y_pred_train = scaler_y.inverse_transform(
y_pred_train_norm.reshape(-1, 1)
).ravel()
y_pred_test = scaler_y.inverse_transform(
y_pred_test_norm.reshape(-1, 1)
).ravel()
print("=== 6. 模型评估 ===")
metrics_train = evaluate_model(y_train, y_pred_train)
metrics_test = evaluate_model(y_test, y_pred_test)
print("\n训练集评估指标:")
for k, v in metrics_train.items():
print(f" {k}: {v:.4f}"if isinstance(v, float) else f" {k}: {v}")
print("\n测试集评估指标:")
for k, v in metrics_test.items():
print(f" {k}: {v:.4f}"if isinstance(v, float) else f" {k}: {v}")
print("=== 7. 保存结果到 MAT 文件 ===")
result_dict = {
"y_train": y_train.astype(float),
"y_pred_train": y_pred_train.astype(float),
"y_test": y_test.astype(float),
"y_pred_test": y_pred_test.astype(float),
}
savemat("regression_result.mat", result_dict)
print("已保存 regression_result.mat")
# 按指标顺序排列
metrics_matrix = np.array([
[metrics_train['R'], metrics_test['R']],
[metrics_train['R2'], metrics_test['R2']],
[metrics_train['ME'], metrics_test['ME']],
[metrics_train['MAE'], metrics_test['MAE']],
[metrics_train['MAPE'], metrics_test['MAPE']],
[metrics_train['RMSE'], metrics_test['RMSE']],
[metrics_train['样本数'], metrics_test['样本数']]
], dtype=float)
savemat("metrics.mat", {"metrics": metrics_matrix})
print("已保存 metrics.mat(矩阵大小 7×2)")
print("=== 8. SHAP 分析 ===")
X_combined = np.vstack([X_train_norm, X_test_norm])
X_df = pd.DataFrame(X_combined, columns=feature_names)
# shap_results = shap_analysis(model, X_combined, feature_names)
plot_shap_dependence(model, X_combined, feature_names, X_df)
print("=== 9. 密度散点图 ===")
plot_density_scatter(
y_test, y_pred_test, save_path="scatter_density_test.png"
)
plot_density_scatter(
y_train, y_pred_train, save_path="scatter_density_train.png"
)
print("=== 10. 相关性热图 ===")
correlation_heatmap(data, feature_names)
print("=== 完成!===")
if __name__ == "__main__":
main()
Python | K折交叉验证的参数优化的RANSAC回归预测及可视化算法(包括基础算法、贝叶斯搜索参数优化、随机搜索参数优化及网格搜索参数优化共4组算法)
https://mbd.pub/o/bread/YZWalJlpZQ==
新手小白/python 初学者请先根据如下链接教程配置环境,只需要根据我的教程即可,不需要安装 Python 及 pycharm 等软件。如有其他问题可加微信沟通。
Anaconda 安装教程(保姆级超详解)【附安装包+环境玩转指南】
https://mp.weixin.qq.com/s/uRI31yf-NjZTPY5rTXz4eA

荐读
Python | K折交叉验证的参数优化的Ridge回归(岭回归)预测及可视化算法
Python | K折交叉验证的参数优化的Lasso回归预测及可视化算法
Python | K折交叉验证的参数优化的随机森林RF及SHAP可解释性分析回归预测算法
Python | K折交叉验证的参数优化的AdaBoost及SHAP可解释性分析回归预测算法
Python | K折交叉验证的参数优化的GradientBoost及SHAP可解释性分析回归预测算法
Python | K折交叉验证的参数优化的NGBoost及SHAP可解释性分析回归预测算法
Python | K折交叉验证的参数优化的CatBoost及SHAP可解释性分析回归预测算法
炸裂!谷歌发布Gemini 3 Pro,好用程度可以吹爆他!
Python | 网格搜索参数优化的LGBM+SHAP可解释性分析回归预测及可视化算法
Python | 随机搜索参数优化的LGBM+SHAP可解释性分析回归预测及可视化算法
Python | 贝叶斯搜索参数优化的LGBM+SHAP可解释性分析回归预测及可视化算法
Python | LGBM+SHAP可解释性分析回归预测及可视化算法
Python | 网格搜索参数优化的XGBoost+SHAP可解释性分析回归预测及可视化算法
Python | 随机搜索参数优化的XGBoost+SHAP可解释性分析回归预测及可视化算法
Python | 贝叶斯搜索参数优化的XGBoost+SHAP可解释性分析回归预测及可视化算法
Python | XGBoost+SHAP可解释性分析回归预测及可视化算法
Anaconda安装教程(保姆级超详解)【附安装包+环境玩转指南】
给研究生的PPT分享 | 如何写好自己的第一篇文章:模块化写作思路+目的性承接措辞
助力论文中英翻译,我是这样训练ChatGPT的(附中文提示词)
我认为学会写专利也应该成为读研期间必备的通识课(附专利写作模版)
祝天下所有研友,都能同韩立一样,步履不停,初心不改,从平凡,走向不凡
《Lwcah》敬告
全职师资博士后,专注GNSS与遥感科学,致力于MATLAB与Python跨平台算法实现,涵盖机器/深度学习、信号分解、神经网络、测量平差。分享前沿会议资讯、基金申报、文献解析、学术与职业机会,打造资源共享科研交流平台,助力科研高效开展。
——《Lwcah》运营团队
投稿、转载、商务等合作请联系
微信号:Lwcahnqz

邮箱:Naiquan_Z@outlook.com
