机器学习算法的随机数据生成
转机器学习算法的随机数据生成
在学习机器学习算法的过程中,我们经常需要数据来验证算法,调试参数。但是找到一组十分合适某种特定算法类型的数据样本却不那么容易。还好numpy,scikit-learn都提供了随机数据生成的功能,我们可以自己生成适合某一种模型的数据,用随机数据来做清洗,归一化,转换,然后选择模型与算法做拟合和预测。下面对scikit-learn和numpy生成数据样本的方法做一个总结。
1.numpy随机数据生成API
numpy比较适合用来生产一些简单的抽样数据。API都在random类中,常见的API有:
1)rand(d0,d1,...,dn)用来生成d0xd1x...dn维的数组。数组的值在[0,1]之间
例如:np.random.rand(3,2,2),输出如下3x2x2的数组
array([[[0.49042678,0.60643763],
[0.18370487,0.10836908]],
[[0.38269728,0.66130293],
[0.5775944,0.52354981]],
[[0.71705929,0.89453574],
[0.36245334,0.37545211]]])
2)randn((d0,d1,...,dn),也是用来生成d0xd1x...dn维的数组。不过数组的值服从N(0,1)的标准正态分布。
例如:np.random.randn(3,2),输出如下3x2的数组,这些值是N(0,1)的抽样数据。
array([[-0.5889483,-0.34054626],
[-2.03094528,-0.21205145],
[-0.20804811,-0.97289898]])
如果需要服从N(μ,σ2)的正态分布,只需要在randn上每个生成的值x上做变换σx+μ即可,例如:
例如:2*np.random.randn(3,2)+1,输出如下3x2的数组,这些值是N(1,4)的抽样数据。
array([[2.32910328,-0.677016],
[-0.09049511,1.04687598],
[2.13493001,3.30025852]])
3)randint(low[,high,size]),生成随机的大小为size的数据,size可以为整数,为矩阵维数,或者张量的维数。值位于半开区间[low,high)。
例如:np.random.randint(3,size=[2,3,4])返回维数维2x3x4的数据。取值范围为最大值为3的整数。
array([[[2,1,2,1],
[0,1,2,1],
[2,1,0,2]],
[[0,1,0,0],
[1,1,2,1],
[1,0,1,2]]])
再比如:np.random.randint(3,6,size=[2,3])返回维数为2x3的数据。取值范围为[3,6).
array([[4,5,3],
[3,4,5]])
4)random_integers(low[,high,size]),和上面的randint类似,区别在与取值范围是闭区间[low,high]。
5)random_sample([size]),返回随机的浮点数,在半开区间[0.0,1.0)。如果是其他区间[a,b),可以加以转换(b-a)*random_sample([size])+a
例如:(5-2)*np.random.random_sample(3)+2返回[2,5)之间的3个随机数。
array([2.87037573,4.33790491,2.1662832])
2.scikit-learn随机数据生成API介绍
scikit-learn生成随机数据的API都在datasets类之中,和numpy比起来,可以用来生成适合特定机器学习模型的数据。常用的API有:
1)用make_regression生成回归模型的数据
2)用make_hastie_10_2,make_classification或者make_multilabel_classification生成分类模型数据
3)用make_blobs生成聚类模型数据
4)用make_gaussian_quantiles生成分组多维正态分布的数据
3.scikit-learn随机数据生成实例
3.1回归模型随机数据
这里我们使用make_regression生成回归模型数据。几个关键参数有n_samples(生成样本数),n_features(样本特征数),noise(样本随机噪音)和coef(是否返回回归系数)。例子代码如下:
复制代码
importnumpyasnp
importmatplotlib.pyplotasplt
%matplotlibinline
fromsklearn.datasets.samples_generatorimportmake_regression
#X为样本特征,y为样本输出,coef为回归系数,共1000个样本,每个样本1个特征
X,y,coef=make_regression(n_samples=1000,n_features=1,noise=10,coef=True)
#画图
plt.scatter(X,y,color='black')
plt.plot(X,X*coef,color='blue',
linewidth=3)
plt.xticks(())
plt.yticks(())
plt.show()
复制代码
输出的图如下:
3.2分类模型随机数据
这里我们用make_classification生成三元分类模型数据。几个关键参数有n_samples(生成样本数),n_features(样本特征数),n_redundant(冗余特征数)和n_classes(输出的类别数),例子代码如下:
复制代码
importnumpyasnp
importmatplotlib.pyplotasplt
%matplotlibinline
fromsklearn.datasets.samples_generatorimportmake_classification
#X1为样本特征,Y1为样本类别输出,共400个样本,每个样本2个特征,输出有3个类别,没有冗余特征,每个类别一个簇
X1,Y1=make_classification(n_samples=400,n_features=2,n_redundant=0,
n_clusters_per_class=1,n_classes=3)
plt.scatter(X1[:,0],X1[:,1],marker='o',c=Y1)
plt.show()
复制代码
输出的图如下:
3.3聚类模型随机数据
这里我们用make_blobs生成聚类模型数据。几个关键参数有n_samples(生成样本数),n_features(样本特征数),centers(簇中心的个数或者自定义的簇中心)和cluster_std(簇数据方差,代表簇的聚合程度)。例子如下:
复制代码
importnumpyasnp
importmatplotlib.pyplotasplt
%matplotlibinline
fromsklearn.datasets.samples_generatorimportmake_blobs
#X为样本特征,Y为样本簇类别,共1000个样本,每个样本2个特征,共3个簇,簇中心在[-1,-1],[1,1],[2,2],簇方差分别为[0.4,0.5,0.2]
X,y=make_blobs(n_samples=1000,n_features=2,centers=[[-1,-1],[1,1],[2,2]],cluster_std=[0.4,0.5,0.2])
plt.scatter(X[:,0],X[:,1],marker='o',c=y)
plt.show()
复制代码
输出的图如下:
3.4分组正态分布混合数据
我们用make_gaussian_quantiles生成分组多维正态分布的数据。几个关键参数有n_samples(生成样本数),n_features(正态分布的维数),mean(特征均值),cov(样本协方差的系数),n_classes(数据在正态分布中按分位数分配的组数)。例子如下:
复制代码
importnumpyasnp
importmatplotlib.pyplotasplt
%matplotlibinline
fromsklearn.datasetsimportmake_gaussian_quantiles
#生成2维正态分布,生成的数据按分位数分成3组,1000个样本,2个样本特征均值为1和2,协方差系数为2
X1,Y1=make_gaussian_quantiles(n_samples=1000,n_features=2,n_classes=3,mean=[1,2],cov=2)
plt.scatter(X1[:,0],X1[:,1],marker='o',c=Y1)
复制代码
输出图如下