sklearn
  • sklearn 中文文档
  • 安装 scikit-learn

1. 监督学习

  • 1.0 监督学习
  • 1.1. 广义线性模型
  • 1.2. 线性和二次判别分析
  • 1.3. 内核岭回归
  • 1.4. 支持向量机
  • 1.5. 随机梯度下降
  • 1.6. 最近邻
  • 1.7. 高斯过程
  • 1.8. 交叉分解
  • 1.9. 朴素贝叶斯
  • 1.10. 决策树
  • 1.11. 集成方法
  • 1.12. 多类和多标签算法
  • 1.13. 特征选择
  • 1.14. 半监督学习
  • 1.15. 等式回归
  • 1.16. 概率校准
  • 1.17. 神经网络模型(有监督)

2. 无监督学习

  • 2.0 无监督学习
  • 2.1. 高斯混合模型
  • 2.2. 流形学习
  • 2.3. 聚类
  • 2.4. 双聚类
  • 2.5. 分解成分中的信号(矩阵分解问题)
  • 2.6. 协方差估计
  • 2.7. 新奇和异常值检测
  • 2.8. 密度估计
  • 2.9. 神经网络模型(无监督)

3. 模型选择和评估

  • 3.0 模型选择和评估
  • 3.1. 交叉验证:评估估算器的表现
  • 3.2. 调整估计器的超参数
  • 3.3. 模型评估: 量化预测的质量
  • 3.4. 模型持久化
  • 3.5. 验证曲线: 绘制分数以评估模型

4. 检验

  • 4.0 检验
  • 4.1. 部分依赖图

5. 数据集转换

  • 5.0 数据集转换
  • 5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器
  • 5.2. 特征提取
  • 5.3 预处理数据
  • 5.4 缺失值插补
  • 5.5. 无监督降维
  • 5.6. 随机投影
  • 5.7. 内核近似
  • 5.8. 成对的矩阵, 类别和核函数
  • 5.9. 预测目标

6. 数据集加载工具

  • 6.0 数据集加载工具
  • 6.1. 通用数据集 API
  • 6.2. 玩具数据集
  • 6.3 真实世界中的数据集
  • 6.4. 样本生成器
  • 6.5. 加载其他数据集

7. 使用scikit-learn计算

  • 7.0 使用scikit-learn计算
  • 7.1. 大规模计算的策略: 更大量的数据
  • 7.2. 计算性能
  • 7.3. 并行性、资源管理和配置
  • 教程
  • 使用 scikit-learn 介绍机器学习

关于科学数据处理的统计学习教程

  • 关于科学数据处理的统计学习教程
  • 机器学习: scikit-learn 中的设置以及预估对象
  • 监督学习:从高维观察预测输出变量
  • 模型选择:选择估计量及其参数
  • 无监督学习: 寻求数据表示
  • 把它们放在一起
  • 寻求帮助
  • 处理文本数据
  • 选择正确的评估器(estimator.md
  • 外部资源,视频和谈话
  • API 参考
  • 常见问题
  • 时光轴
sklearn
  • Docs »
  • 2. 无监督学习 »
  • 2.0 无监督学习

2. 无监督学习

  • 2.1. 高斯混合模型
    • 2.1.1. 高斯混合
    • 2.1.2. 变分贝叶斯高斯混合
  • 2.2. 流形学习
    • 2.2.1. 介绍
    • 2.2.2. Isomap
    • 2.2.3. 局部线性嵌入
    • 2.2.4. 改进型局部线性嵌入(MLLE)
    • 2.2.5. 黑塞特征映射(HE)
    • 2.2.6. 谱嵌入
    • 2.2.7. 局部切空间对齐(LTSA)
    • 2.2.8. 多维尺度分析(MDS)
    • 2.2.9. t 分布随机邻域嵌入(t-SNE)
    • 2.2.10. 实用技巧
  • 2.3. 聚类
    • 2.3.1. 聚类方法概述
    • 2.3.2. K-means
    • 2.3.3. Affinity Propagation
    • 2.3.4. Mean Shift
    • 2.3.5. Spectral clustering
    • 2.3.6. 层次聚类
    • 2.3.7. DBSCAN
    • 2.3.8. OPTICS
    • 2.3.9. Birch
    • 2.3.10. 聚类性能度量
  • 2.4. 双聚类
    • 2.4.1. Spectral Co-Clustering
    • 2.4.2. Spectral Biclustering
    • 2.4.3. Biclustering 评价
  • 2.5. 分解成分中的信号(矩阵分解问题)
    • 2.5.1. 主成分分析(PCA)
    • 2.5.2. 截断奇异值分解和隐语义分析
    • 2.5.3. 词典学习
    • 2.5.4. 因子分析
    • 2.5.5. 独立成分分析(ICA)
    • 2.5.6. 非负矩阵分解(NMF 或 NNMF)
    • 2.5.7. 隐 Dirichlet 分配(LDA)
  • 2.6. 协方差估计
    • 2.6.1. 经验协方差
    • 2.6.2. 收缩协方差
    • 2.6.3. 稀疏逆协方差
    • 2.6.4. 鲁棒协方差估计
  • 2.7. 新奇点和离群点检测
    • 2.7.1. 离群点检测方法一览
    • 2.7.2. Novelty Detection(新奇点检测)
    • 2.7.3. Outlier Detection(离群点检测)
    • 2.7.4. 使用LOF进行新奇点检测
  • 2.8. 密度估计
    • 2.8.1. 密度估计: 直方图
    • 2.8.2. 核密度估计
  • 2.9. 神经网络模型(无监督)
    • 2.9.1. 限制波尔兹曼机
Next Previous

sklearn PythonOK 协议:CC BY-NC-SA 4.0

Built with MkDocs using a theme provided by Read the Docs.
« Previous Next »