sklearn
sklearn 中文文档
安装 scikit-learn
1. 监督学习
1.0 监督学习
1.1. 广义线性模型
1.2. 线性和二次判别分析
1.3. 内核岭回归
1.4. 支持向量机
1.5. 随机梯度下降
1.6. 最近邻
1.7. 高斯过程
1.8. 交叉分解
1.9. 朴素贝叶斯
1.10. 决策树
1.11. 集成方法
1.12. 多类和多标签算法
1.13. 特征选择
1.14. 半监督学习
1.15. 等式回归
1.16. 概率校准
1.17. 神经网络模型(有监督)
2. 无监督学习
2.0 无监督学习
2.1. 高斯混合模型
2.2. 流形学习
2.3. 聚类
2.4. 双聚类
2.5. 分解成分中的信号(矩阵分解问题)
2.6. 协方差估计
2.7. 新奇和异常值检测
2.8. 密度估计
2.9. 神经网络模型(无监督)
3. 模型选择和评估
3.0 模型选择和评估
3.1. 交叉验证:评估估算器的表现
3.2. 调整估计器的超参数
3.3. 模型评估: 量化预测的质量
3.4. 模型持久化
3.5. 验证曲线: 绘制分数以评估模型
4. 检验
4.0 检验
4.1. 部分依赖图
5. 数据集转换
5.0 数据集转换
5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器
5.2. 特征提取
5.3 预处理数据
5.4 缺失值插补
5.5. 无监督降维
5.6. 随机投影
5.7. 内核近似
5.8. 成对的矩阵, 类别和核函数
5.9. 预测目标
6. 数据集加载工具
6.0 数据集加载工具
6.1. 通用数据集 API
6.2. 玩具数据集
6.3 真实世界中的数据集
6.4. 样本生成器
6.5. 加载其他数据集
7. 使用scikit-learn计算
7.0 使用scikit-learn计算
7.1. 大规模计算的策略: 更大量的数据
7.2. 计算性能
7.3. 并行性、资源管理和配置
教程
使用 scikit-learn 介绍机器学习
关于科学数据处理的统计学习教程
关于科学数据处理的统计学习教程
机器学习: scikit-learn 中的设置以及预估对象
监督学习:从高维观察预测输出变量
模型选择:选择估计量及其参数
无监督学习: 寻求数据表示
把它们放在一起
寻求帮助
处理文本数据
选择正确的评估器(estimator.md
外部资源,视频和谈话
API 参考
常见问题
时光轴
sklearn
Docs
»
2. 无监督学习 »
2.0 无监督学习
2. 无监督学习
2.1. 高斯混合模型
2.1.1. 高斯混合
2.1.2. 变分贝叶斯高斯混合
2.2. 流形学习
2.2.1. 介绍
2.2.2. Isomap
2.2.3. 局部线性嵌入
2.2.4. 改进型局部线性嵌入(MLLE)
2.2.5. 黑塞特征映射(HE)
2.2.6. 谱嵌入
2.2.7. 局部切空间对齐(LTSA)
2.2.8. 多维尺度分析(MDS)
2.2.9. t 分布随机邻域嵌入(t-SNE)
2.2.10. 实用技巧
2.3. 聚类
2.3.1. 聚类方法概述
2.3.2. K-means
2.3.3. Affinity Propagation
2.3.4. Mean Shift
2.3.5. Spectral clustering
2.3.6. 层次聚类
2.3.7. DBSCAN
2.3.8. OPTICS
2.3.9. Birch
2.3.10. 聚类性能度量
2.4. 双聚类
2.4.1. Spectral Co-Clustering
2.4.2. Spectral Biclustering
2.4.3. Biclustering 评价
2.5. 分解成分中的信号(矩阵分解问题)
2.5.1. 主成分分析(PCA)
2.5.2. 截断奇异值分解和隐语义分析
2.5.3. 词典学习
2.5.4. 因子分析
2.5.5. 独立成分分析(ICA)
2.5.6. 非负矩阵分解(NMF 或 NNMF)
2.5.7. 隐 Dirichlet 分配(LDA)
2.6. 协方差估计
2.6.1. 经验协方差
2.6.2. 收缩协方差
2.6.3. 稀疏逆协方差
2.6.4. 鲁棒协方差估计
2.7. 新奇点和离群点检测
2.7.1. 离群点检测方法一览
2.7.2. Novelty Detection(新奇点检测)
2.7.3. Outlier Detection(离群点检测)
2.7.4. 使用LOF进行新奇点检测
2.8. 密度估计
2.8.1. 密度估计: 直方图
2.8.2. 核密度估计
2.9. 神经网络模型(无监督)
2.9.1. 限制波尔兹曼机
« Previous
Next »