博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
PAC学习框架
阅读量:4690 次
发布时间:2019-06-09

本文共 957 字,大约阅读时间需要 3 分钟。

PAC学习框架是机器学习的基础。它主要用来回答以下几个问题:

  1. 什么问题是可以高效学习的?
  2. 什么问题本质上就难以学习?
  3. 需要多少实例才能完成学习?
  4. 是否存在一个通用的学习模型?

PAC=probably approximately correct,很可能接近正确的

---------------------

什么问题能得到“可能接近正确”的结果呢?原文说的比较抽象,我把他翻译下:

说一个问题是PAC可学习的,需要定义m个sample组成S空间,其中每个sample服从D分布,并且互相独立;

如果存在一个算法A,在m(sample个数)有限的情况下,找到假设h;

使得对于任意两个数x,y,概率P(h对S中sample预测错误次数大于x) < y;

xy对应 中两个奇怪的符号!注意上面说的是小于,截图中说的是相反事件的大于。其实是一回事。

那么该问题是PAC可学习的。

----

举个例子,在二维平面上去学习一个矩阵:

目标是找到R,R内部的点是蓝色的,外部的点是红色的。

为了证明上面的问题是PAC可学习的,我们需要找到一个算法A,并且证明只需要m个实例,就可以是的概率等式成立。

首先确定算法:

这个算法很简单,就是所有蓝色的点的最小矩形R。那么这个R能不能满足上面的概率等式呢?假设给定x和y。如果错误个数大于x的概率小于y,需要什么条件呢?

不好回答,因此我们需要做一个转换:

我们先沿着R的4条边,向内部扩展,画出4个小矩形:r1,2,3,4。每个r的概率x/4。

如果R’的错误个数大于x,那么R’必然与r1,2,3,4中的至少一个有交集。(否则错误个数必定小于x)

因此有不等式:

由于并集的概率小于各自概率的和:

由于S中的每个sample的独立分布的,并且落在r1中的概率为x/4,所以

由于我们要求错误个数大于x的概率小于y,所以可以定义如下的不等式。

推导出m的下限。

这就说明只需要有限个实例就能满足上面的概率不等式。

------------------------------------------------

这就说明了,上面这个平面图形中学习矩形的问题是PAC可学习的。

转载于:https://www.cnblogs.com/alphablox/p/5935826.html

你可能感兴趣的文章
bzoj3527 [Zjoi2014]力
查看>>
漫谈:机器学习中距离和相似性度量方法
查看>>
二重循环
查看>>
对于软件工程的期待
查看>>
C++初识
查看>>
xml读取
查看>>
Linux编程环境
查看>>
说说final关键字(好像有干货)
查看>>
ps 常用快捷键
查看>>
算术基本定理
查看>>
HDU 1629 迷宫城堡
查看>>
codeforces 390C Inna and Candy Boxes
查看>>
JNDI是什么
查看>>
Oracle用户被锁定解决方法
查看>>
jsoup Java HTML解析器:使用选择器语法来查找元素
查看>>
ThreadPoolExecutor源码解读
查看>>
thinkphp 中英文网站详解
查看>>
hdu_5963_朋友(找规律)
查看>>
时间戳与时间之间的相互转化
查看>>
Z.XML-Cocos2d-x开发笔记
查看>>