Langchain系列文章目录
01-玩转LangChain:从模型调用到Prompt模板与输出解析的完整指南
02-玩转 LangChain Memory 模块:四种记忆类型详解及应用场景全覆盖
03-全面掌握 LangChain:从核心链条构建到动态任务分配的实战指南
04-玩转 LangChain:从文档加载到高效问答系统构建的全程实战
05-玩转 LangChain:深度评估问答系统的三种高效方法(示例生成、手动评估与LLM辅助评估)
06-从 0 到 1 掌握 LangChain Agents:自定义工具 + LLM 打造智能工作流!
07-【深度解析】从GPT-1到GPT-4:ChatGPT背后的核心原理全揭秘
PyTorch系列文章目录
Python系列文章目录
机器学习系列文章目录
01-什么是机器学习?从零基础到自动驾驶案例全解析
02-从过拟合到强化学习:机器学习核心知识全解析
03-从零精通机器学习:线性回归入门
04-逻辑回归 vs. 线性回归:一文搞懂两者的区别与应用
05-决策树算法全解析:从零基础到Titanic实战,一文搞定机器学习经典模型
06-集成学习与随机森林:从理论到实践的全面解析
07-支持向量机(SVM):从入门到精通的机器学习利器
08-【机器学习】KNN算法入门:从零到电影推荐实战
09-【机器学习】朴素贝叶斯入门:从零到垃圾邮件过滤实战
10-【机器学习】聚类算法全解析:K-Means、层次聚类、DBSCAN在市场细分的应用
11-【机器学习】降维与特征选择全攻略:PCA、LDA与特征选择方法详解
12-【机器学习】手把手教你构建神经网络:从零到手写数字识别实战
13-【机器学习】从零开始学习卷积神经网络(CNN):原理、架构与应用
14-【机器学习】RNN与LSTM全攻略:解锁序列数据的秘密
15-【机器学习】GAN从入门到实战:手把手教你实现生成对抗网络
16-【机器学习】强化学习入门:从零掌握 Agent 到 DQN 核心概念与 Gym 实战
17-【机器学习】AUC、F1分数不再迷茫:图解Scikit-Learn模型评估与选择核心技巧
18-【机器学习】Day 18: 告别盲猜!网格/随机/贝叶斯搜索带你精通超参数调优
19-【机器学习】从零精通特征工程:Kaggle金牌选手都在用的核心技术
20-【机器学习】模型性能差?90%是因为数据没洗干净!(缺失值/异常值/不平衡处理)
21-【机器学习】保姆级教程:7步带你从0到1完成泰坦尼克号生还预测项目
22-【机器学习】框架三巨头:Scikit-Learn vs TensorFlow/Keras vs PyTorch 全方位对比与实战
23-【机器学习】揭秘迁移学习:如何用 ResNet 和 BERT 加速你的 AI 项目?
24-【机器学习】NLP核心技术详解:用Scikit-learn、Gensim和Hugging Face玩转文本处理 (Day 24)
25-【机器学习】解密计算机视觉:CNN、目标检测与图像识别核心技术(Day 25)
26-【机器学习】万字长文:深入剖析推荐系统核心算法 (协同过滤/内容/SVD) 与Python实战
27-【机器学习】第27天:玩转时间序列预测,从 ARIMA 到 Prophet 实战指南
28-【机器学习】揭秘异常检测:轻松揪出数据中的“害群之马” (含Scikit-learn实战)
29-【机器学习】告别黑箱:深入理解LIME与SHAP,提升模型可解释性的两大核心技术
30-【机器学习】避开伦理陷阱:深入解析算法公平性、偏见来源与缓解技术 (AIF360实战前瞻)
31-【机器学习】模型安全告急!揭秘对抗攻击,让AI“指鹿为马”?
32-【机器学习】揭秘隐私保护机器学习:差分隐私与联邦学习如何守护你的数据?
33-【机器学习】解放双手!AutoML入门:从原理到Auto-sklearn实战,告别繁琐调参
文章目录
前言
大家好!欢迎来到我们机器学习系列之旅的第 33 天!在之前的学习中,我们探索了数据预处理、特征工程、多种机器学习模型、模型评估以及超参数调优等关键环节。你是否曾感觉,构建一个高效的机器学习模型,过程繁琐且充满挑战?特别是特征工程的创意、模型选择的纠结、超参数调优的耗时,往往需要大量的经验和反复试验。
不用担心,今天我们将介绍一个强大的“武器”——自动化机器学习(Automated Machine Learning, AutoML)。顾名思义,AutoML 的目标就是将机器学习流程中那些重复性、经验性强、耗时长的步骤自动化,让机器自己去探索最佳的解决方案。这不仅能极大地提高建模效率,还能降低机器学习的应用门槛,让非专家也能构建出性能优良的模型。
本文将带你深入了解 AutoML 的核心概念、工作原理、主流框架,并通过一个 Auto-sklearn 实战案例,直观感受 AutoML 的便捷与强大,并与传统的手动调优进行对比。准备好了吗?让我们一起解放双手,拥抱更智能的机器学习时代!
一、AutoML:让机器承担繁重任务
1.1 什么是 AutoML?
想象一下手动挡汽车和自动挡汽车。手动挡需要驾驶员根据车速和路况,凭经验和技巧进行换挡操作;而自动挡则能自动完成换挡,驾驶员只需专注于方向和油门刹车。
AutoML 就好比机器学习领域的“自动挡”。传统的机器学习流程,如同开手动挡,需要数据科学家或工程师手动进行数据预处理、特征工程、选择合适的模型、精细调整超参数等一系列复杂操作。而 AutoML 则致力于将这些步骤自动化,让算法根据数据和任务目标,自动地发现最优(或接近最优)的机器学习管道(Pipeline)。这个管道通常包含了一系列数据处理步骤和最终的模型。
简单来说,AutoML 的目标是:给定数据集和任务类型(如分类、回归),自动地搜索并构建出一个高性能的机器学习模型。
1.2 AutoML 的核心目标
AutoML 的出现并非要完全取代数据科学家,而是旨在解决以下痛点,提升整体效率和效果:
- 提高效率,缩短周期:自动化耗时的步骤(如特征工程、模型选择、超参数调优),大幅减少人工投入和项目时间。
- 降低门槛,普及应用:使缺乏深厚机器学习背景的开发者或业务分析师也能利用先进的机器学习技术解决实际问题。
- 优化性能,超越基准:通过系统性、大规模的搜索,AutoML 有可能发现比人工专家更优的模型配置。
- 避免偏见,确保稳健:减少因个人经验或偏好导致的选择偏差,提供更客观、可复现的建模过程。
1.3 AutoML 的主要能力
一个完整的 AutoML 系统通常会尝试自动化机器学习流水线中的多个关键环节:
1.3.1 自动化特征工程 (Automated Feature Engineering)
特征工程被誉为机器学习成功的关键,但也是最具挑战性和创造性的环节之一。AutoML 在这方面可以实现:
- 特征预处理:自动处理缺失值(填充策略)、异常值、数据类型转换等。
- 特征转换:自动进行数值特征的缩放(如标准化、归一化)、离散化;类别特征的编码(如 One-Hot Encoding、Label Encoding)等。
- 特征构建:自动生成交互特征(如特征交叉)、多项式特征等。
- 特征选择:自动从大量特征中筛选出对模型预测最有用的子集,去除冗余或无关特征。
1.3.2 自动化模型选择 (Automated Model Selection)
面对琳琅满目的机器学习算法(如逻辑回归、SVM、决策树、随机森林、梯度提升树、甚至神经网络),如何选择最适合当前数据的模型?AutoML 可以自动评估多种模型或模型变体,并挑选出表现最佳的那个。它甚至可以自动构建集成模型(Ensemble Models),融合多个模型的优势。
1.3.3 自动化超参数调优 (Automated Hyperparameter Optimization - HPO)
我们在第 18 天讨论过超参数调优。手动进行网格搜索或随机搜索既耗时又低效。AutoML 通常采用更智能的 HPO 技术,如:
- 贝叶斯优化 (Bayesian Optimization):根据先前的评估结果,智能地选择下一组最有潜力的超参数进行尝试。
- 基于模型的优化 (Model-based Optimization):例如使用 Tree-structured Parzen Estimator (TPE)。
- 进化算法 (Evolutionary Algorithms):模拟生物进化过程来搜索最优超参数。
AutoML 会将模型选择和超参数调优结合起来,在一个巨大的搜索空间中寻找最佳的“算法+超参数”组合。
二、AutoML 的工作原理浅析
AutoML 背后的技术支撑是多样且复杂的,这里我们简单介绍几个核心思想:
2.1 核心技术概览
AutoML 的实现通常依赖于以下一种或多种技术的组合:
- 超参数优化 (HPO):如前所述,是 AutoML 的基础能力之一。
- 神经架构搜索 (NAS):主要用于深度学习领域,自动设计神经网络的结构(层数、层类型、连接方式等)。
- 元学习 (Meta-Learning):让模型“学会学习”,利用在大量历史任务上学到的经验,来快速适应新的任务,指导搜索过程。
2.2 超参数优化 (HPO)
这是 AutoML 最成熟的部分。相比于网格搜索的暴力尝试和随机搜索的盲目性,AutoML 常用的贝叶斯优化会构建一个关于目标函数(例如,模型的交叉验证得分)的概率模型(通常是高斯过程)。每次评估完一组超参数后,它会更新这个概率模型,并利用一个“采集函数”(Acquisition Function)来平衡探索(尝试不确定性高的区域)和利用(尝试当前已知最优区域附近),从而更高效地找到全局最优解。
2.3 神经架构搜索 (NAS)
特别是在深度学习领域,网络结构的设计对性能至关重要。NAS 技术旨在自动化这一过程。常见的 NAS 方法包括:
- 基于强化学习 (Reinforcement Learning):将网络结构设计看作一个智能体(Agent)的决策过程,通过奖励信号(模型性能)来学习生成优秀架构的策略。
- 基于进化算法 (Evolutionary Algorithms):将网络结构编码为“基因”,通过选择、交叉、变异等操作来进化出更好的网络架构。
- 基于梯度的方法 (Gradient-based Methods):如 Differentiable Architecture Search (DARTS),将离散的架构选择松弛为连续可微的操作,使得可以使用梯度下降来优化架构。
NAS 通常计算成本极高,但其潜力巨大,尤其是在图像识别、自然语言处理等领域。
2.4 元学习 (Meta-Learning)
元学习的目标是让模型从多个相关任务中学习通用的“知识”或“学习策略”,以便在新任务上能够更快、更好地学习。在 AutoML 中,元学习可以:
- 预热启动 (Warm-starting):根据新数据集的元特征(如样本数、特征数、特征类型统计等),从历史经验中推荐一组有希望的初始模型和超参数,加速 HPO 过程。
- 指导搜索方向:基于相似任务的经验,预测哪些类型的模型或特征工程方法可能更有效。
- 跨任务知识迁移:将在一个任务上学到的模型结构或参数,迁移到另一个相关任务上。
三、主流 AutoML 框架巡礼
现在市面上有许多优秀的 AutoML 工具和平台,各有侧重。
3.1 开源框架
3.1.1 Auto-sklearn
- 特点:基于 Scikit-learn 构建,熟悉 Scikit-learn 的用户上手快。它结合了贝叶斯优化、元学习和自动集成学习。
- 优势:对表格数据效果好,能够自动处理数据预处理、模型选择和超参数调优。利用元学习从 OpenML 上的大量数据集中学习经验,实现冷启动优化。
- 劣势:对于非常大的数据集可能较慢,主要针对传统机器学习模型。
- 官网: https://automl.github.io/auto-sklearn/master/
3.1.2 TPOT (Tree-based Pipeline Optimization Tool)
- 特点:使用遗传编程(Genetic Programming)来优化机器学习管道。它将管道表示为树形结构,通过进化算法(交叉、变异)来寻找最优的管道配置。
- 优势:可以探索非常灵活和复杂的管道结构,往往能发现一些非传统的有效组合。生成的 Python 代码可读性较好。
- 劣势:搜索过程可能较慢,需要调整遗传编程的相关参数。
- 官网: http://epistasislab.github.io/tpot/
3.1.3 H2O AutoML
- 特点:由 H2O.ai 公司开发,提供易于使用的 AutoML 接口。支持多种算法(包括梯度提升机、深度学习等),并自动进行集成。
- 优势:性能优异,扩展性好(可与 Spark 集成),提供 Leaderboard 展示不同模型的性能,易于部署。有 R 和 Python 接口。
- 劣势:相比 Auto-sklearn 和 TPOT,对管道的探索可能不那么灵活。
- 官网: https://docs.h2o.ai/h2o/latest-stable/h2o-docs/automl.html
3.2 商业/云平台框架
3.2.1 Google Cloud AutoML
- 特点:Google Cloud Platform (GCP) 提供的全托管 AutoML 服务。支持表格数据(AutoML Tables)、图像(AutoML Vision)、视频(AutoML Video Intelligence)和自然语言(AutoML Natural Language)等多种任务。
- 优势:用户界面友好,无需编写太多代码,与 GCP 生态紧密集成,背后使用了 Google 先进的 NAS 和 HPO 技术。
- 劣势:商业服务,需要付费。模型的定制化程度相对较低(黑盒)。
3.2.2 其他
- AWS SageMaker Autopilot: 亚马逊 AWS 提供的 AutoML 服务。
- Azure Automated Machine Learning: 微软 Azure 提供的 AutoML 服务。
- DataRobot: 领先的企业级 AutoML 平台。
这些商业平台通常提供更完善的 MLOps 支持(模型部署、监控等)。
3.3 如何选择?
选择哪个框架取决于你的具体需求:
框架/平台 | 主要技术 | 易用性 | 灵活性 | 成本 | 适用场景 |
---|---|---|---|---|---|
Auto-sklearn | 贝叶斯优化, 元学习 | 中等 | 中等 | 开源免费 | 中小型表格数据, Scikit-learn 用户 |
TPOT | 遗传编程 | 中等 | 高 | 开源免费 | 需要探索复杂 Pipeline, 对代码可读性有要求 |
H2O AutoML | 多种模型+集成 | 高 | 中等 | 开源免费 | 性能要求高, 需要易部署, 支持多种语言接口 |
Google Cloud AutoML | NAS, HPO (黑盒) | 非常高 | 低 | 按使用量付费 | GCP 用户, 快速原型验证, 多模态任务 (视觉/NLP) |
(其他云平台) | 类似 Google | 高 | 中/低 | 按使用量付费 | 对应云平台用户, 企业级应用 |
选择建议:
- 初学者/Scikit-learn 用户:可以从 Auto-sklearn 或 TPOT 开始。
- 追求性能和易部署:可以尝试 H2O AutoML。
- 在云平台开发/多模态任务:考虑对应云厂商的 AutoML 服务。
- 企业级应用:商业 AutoML 平台或云服务通常更合适。
四、实战演练:AutoML vs 手动调优
接下来,我们使用 auto-sklearn
来演示 AutoML 的威力,并与传统的手动调优方法进行简单对比。我们将使用经典的威斯康星乳腺癌数据集(一个二分类任务)。
4.1 实验准备
首先,确保你安装了必要的库。auto-sklearn
的安装可能需要一些依赖,请参考官方文档。
pip install scikit-learn pandas numpy matplotlib
pip install auto-sklearn # 可能需要安装 build-essential swig 等依赖
4.2 使用 Auto-sklearn 进行 AutoML 实验
4.2.1 安装库
(已在 4.1 完成)
4.2.2 加载与准备数据
import sklearn.datasets
import sklearn.model_selection
import sklearn.metrics
import autosklearn.classification
import pandas as pd
import time
# 加载数据集
X, y = sklearn.datasets.load_breast_cancer(return_X_y=True, as_frame=True)
X_train, X_test, y_train, y_test = sklearn.model_selection.train_test_split(
X, y, random_state=42
)
print(f"训练集样本数: {
X_train.shape[0]}, 特征数: {
X_train.shape[1]}")
print(f"测试集样本数: {
X_test.shape[0]}")
print("数据集前5行:")
print(X_train.head())
4.2.3 配置并运行 AutoML
我们将给 auto-sklearn
设定一个运行时间限制(例如,120 秒),让它在此时间内自动搜索最佳模型。
# 配置 Auto-sklearn 分类器
# time_left_for_this_task: 总运行时间限制(秒)
# per_run_time_limit: 单个模型评估的时间限制(秒)
# n_jobs: 并行任务数 (-1 表示使用所有 CPU 核心)
automl = autosklearn.classification.AutoSklearnClassifier(
time_left_for_this_task=120, # 给 AutoML 2 分钟时间
per_run_time_limit=30, # 每次尝试最多 30 秒
n_jobs=-1,
seed=42 # 为了结果可复现
)
print("开始 AutoML 搜索...")
start_time = time.time()
# 训练 AutoML 模型 (这步会自动进行特征工程、模型选择、超参数调优)
automl.fit(X_train.copy(), y_train.copy()) # 使用 .copy() 避免原地修改警告
end_time = time.time()
automl_time = end_time - start_time
print(f"AutoML 搜索完成,耗时: {
automl_time:.2f} 秒")
# 在测试集上进行预测
y_pred_automl = automl.predict(X_test)
# 评估性能
accuracy_automl = sklearn.metrics.accuracy_score(y_test, y_pred_automl)
print(f"\nAutoML 在测试集上的准确率: {
accuracy_automl:.4f}")
4.2.4 查看结果与最佳模型
auto-sklearn
会找到一个最佳的集成模型(Ensemble)或者单个模型。我们可以查看它找到的模型细节。
# 显示找到的最佳模型(或集成模型)的细节
print("\nAutoML 找到的模型详情:")
print(automl.show_models())
# 查看 AutoML 运行的统计信息
print("\nAutoML 运行统计:")
# print(automl.sprint_statistics()) # 较新版本可能移除,通过 leaderboard() 获取
print(automl.leaderboard())
show_models()
或 leaderboard()
会告诉你 auto-sklearn
最终选择了哪些模型、它们的权重(如果是集成模型)以及对应的超参数。你会发现它可能包含了数据预处理步骤(如特征选择、缩放)和具体的分类器。
4.3 手动调优对比实验
现在,我们尝试手动选择一个常见的模型(例如 RandomForestClassifier
)并使用 GridSearchCV
进行简单的超参数调优,看看效果如何,以及花费多少精力。
4.3.1 选择基准模型并定义搜索空间
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline
# 定义一个简单的管道:先标准化,然后用随机森林
pipe_rf = Pipeline([
('scaler', StandardScaler()), # 手动添加标准化步骤
('rf', RandomForestClassifier(random_state=42))
])
# 定义要搜索的超参数网格
param_grid_rf = {
'rf__n_estimators': [50, 100, 200], # 树的数量
'rf__max_depth': [None, 10, 20], # 树的最大深度
'rf__min_samples_split': [2, 5, 10] # 节点分裂所需的最小样本数
}
4.3.2 进行简单的超参数搜索
# 使用 GridSearchCV 进行网格搜索,cv=5 表示 5 折交叉验证
grid_search_rf = GridSearchCV(pipe_rf, param_grid_rf, cv=5, n_jobs=-1, scoring='accuracy')
print("\n开始手动网格搜索...")
start_time_manual = time.time()
# 在训练集上进行搜索
grid_search_rf.fit(X_train, y_train)
end_time_manual = time.time()
manual_time = end_time_manual - start_time_manual
print(f"手动网格搜索完成,耗时: {
manual_time:.2f} 秒")
# 获取最佳参数和最佳分数
print(f"手动调优找到的最佳参数: {
grid_search_rf.best_params_}")
print(f"手动调优在交叉验证中的最佳准确率: {
grid_search_rf.best_score_:.4f}")
# 使用最佳模型在测试集上评估
best_rf_model = grid_search_rf.best_estimator_
y_pred_manual = best_rf_model.predict(X_test)
accuracy_manual = sklearn.metrics.accuracy_score(y_test, y_pred_manual)
print(f"手动调优模型在测试集上的准确率: {
accuracy_manual:.4f}")
4.4 结果分析与讨论
对比项 | AutoML (Auto-sklearn, 120s) | 手动调优 (RandomForest + GridSearchCV) |
---|---|---|
测试集准确率 | (运行后填写 AutoML 结果) | (运行后填写手动调优结果) |
搜索/训练时间 | 约 120 秒 (设定值) | (运行后填写手动搜索时间) |
人工配置复杂度 | 低 (只需设置时间限制等) | 中 (需选模型、定管道、设参数网格) |
发现的 Pipeline | 可能包含复杂预处理+集成模型 | StandardScaler + RandomForest |
讨论:
- 性能:通常情况下,在给定的时间内,AutoML 往往能达到甚至超过精心手动调优的基准模型性能。这得益于它更广泛的搜索空间和更智能的搜索策略。
- 效率:AutoML 极大地节省了人工选择模型、设计 Pipeline 和调整超参数的时间和精力。在我们的例子中,我们手动只尝试了 RandomForest,而 AutoML 可能尝试了几十种甚至上百种不同的 Pipeline 组合。
- 便捷性:对于不熟悉各种模型和调优技巧的用户,AutoML 提供了一个非常便捷的“一键式”解决方案。
- 洞察力:通过
show_models()
或leaderboard()
,我们可以看到 AutoML 认为哪些预处理步骤和模型组合是有效的,这有时也能给我们带来启发。
需要注意:这只是一个简单的对比。手动调优如果投入更多时间,尝试更多模型和更复杂的特征工程,也有可能获得更好的结果。但 AutoML 提供了一个强大的起点和自动化基准。
五、AutoML 的优势与局限性
5.1 优势
- 效率提升 (Efficiency):显著减少模型开发时间,加速从数据到模型的转化。
- 生产力提高 (Productivity):让数据科学家能专注于更复杂、更具创造性的任务,而不是重复性的调优工作。
- 性能优化 (Performance):通过广泛搜索,可能找到超越人类专家手动调优的模型。
- 民主化 (Democratization):降低机器学习的使用门槛,赋能更多人使用 AI。
- 基准建立 (Baseline Establishment):快速为特定任务建立一个强大的性能基准。
- 可复现性 (Reproducibility):相比随意的手动调优,AutoML 过程通常更容易复现。
5.2 局限性与挑战
- 计算成本 (Computational Cost):AutoML 需要探索巨大的搜索空间,可能需要大量的计算资源(时间、CPU/GPU)。
- “黑箱”问题 (Black Box Nature):有时 AutoML 找到的 Pipeline 可能非常复杂,难以解释其工作原理,降低了模型的可解释性。这在金融、医疗等需要高透明度的领域是个问题。
- 过拟合风险 (Overfitting Risk):AutoML 不仅可能过拟合训练数据,还可能“过拟合”验证集,即找到在特定验证集上表现极好但在新数据上泛化能力差的模型。需要谨慎设置评估策略。
- 不保证全局最优 (Not Guaranteed Global Optimum):虽然 AutoML 努力寻找最优解,但由于搜索空间的巨大和资源限制,找到的通常是近似最优解。
- 缺乏领域知识注入 (Lack of Domain Knowledge Injection):AutoML 主要基于数据驱动,很难像人类专家那样灵活地融入特定领域的先验知识或业务逻辑约束(尽管有些框架开始尝试支持)。
- 对数据质量敏感 (Sensitivity to Data Quality):和所有机器学习一样,AutoML 的效果很大程度上取决于输入数据的质量。“Garbage in, garbage out.” AutoML 不能完全替代数据理解和清洗的重要性。
- 灵活性限制 (Limited Flexibility):对于高度定制化的模型或非常规的任务,现有 AutoML 工具可能无法满足需求。
六、总结
自动化机器学习(AutoML)是机器学习领域一个令人兴奋且快速发展的方向。它旨在通过自动化繁琐的机器学习流程,提高效率、降低门槛并优化模型性能。本文我们重点探讨了:
- AutoML 的核心概念:将机器学习流程(特别是特征工程、模型选择、超参数调优)自动化的技术。
- AutoML 的工作原理:通常结合了超参数优化(HPO)、神经架构搜索(NAS)和元学习(Meta-Learning)等技术。
- 主流 AutoML 框架:介绍了 Auto-sklearn, TPOT, H2O AutoML 等开源工具以及 Google Cloud AutoML 等商业平台,并讨论了如何选择。
- AutoML 实战:通过 Auto-sklearn 在乳腺癌数据集上的实验,展示了 AutoML 的便捷性,并与手动调优进行了对比,突显了其在效率和性能上的潜力。
- AutoML 的优劣势:分析了 AutoML 在提升效率、普及应用等方面的优势,以及计算成本、可解释性、灵活性等方面的局限性。
AutoML 不是万能药,也不能完全取代数据科学家。但在许多场景下,它可以作为一个强大的助手,帮助我们快速构建高性能的基准模型,或者在资源有限的情况下获得不错的解决方案。理解 AutoML 的能力和局限,将其恰当地融入我们的工作流中,将使我们的机器学习之旅更加高效和智能。
希望今天的分享能帮助你更好地理解 AutoML!在接下来的学习中,我们将继续探索机器学习与其他领域的结合,敬请期待!