import matplotlib.pyplot as plt
from sklearn import datasets
X,z = datasets.make_moons(n_samples=80,noise=0.1)
plt.axes(aspect=1)
plt.scatter(X[:,0],X[:,1],c=z,edgecolor='k',cmap='autumn')
plt.show()
ความหมาย | ค่าตั้งต้น | |
---|---|---|
n_samples | จำนวนข้อมูลทั้งหมด | 100 |
shuffle | จะสุ่มการจัดเรียงแต่ละกลุ่มหรือไม่ | True |
noise | ส่วนเบี่ยงเบนมาตรฐานของคลื่นรบกวนแบบเกาส์ที่เพิ่มเข้าไป | None |
random_state | หมายเลขชุดของการสุ่ม | None |
X,z = datasets.make_moons(n_samples=80)
plt.axes(aspect=1).scatter(X[:,0],X[:,1],c=z,edgecolor='k',cmap='autumn')
plt.show()
X,z = datasets.make_moons(n_samples=80,noise=1)
plt.axes(aspect=1).scatter(X[:,0],X[:,1],c=z,edgecolor='k',cmap='autumn')
plt.show()
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.linear_model import LogisticRegression as Lori
from sklearn.neighbors import KNeighborsClassifier as Knn
from sklearn.tree import DecisionTreeClassifier as Ditri
from sklearn.ensemble import RandomForestClassifier as Rafo
model = [Lori(),Knn(),Ditri(),Rafo()]
chue = [u'การถดถอยโลจิสติก',u'เพื่อนบ้านใกล้สุด k ตัว',u'ต้นไม้ตัดสินใจ',u'ป่าสุ่ม']
X,z = datasets.make_moons(n_samples=80,noise=0.12,random_state=1)
nmesh = 200
mx,my = np.meshgrid(np.linspace(X[:,0].min(),X[:,0].max(),nmesh),np.linspace(X[:,1].min(),X[:,1].max(),nmesh))
mX = np.stack([mx.ravel(),my.ravel()],1)
plt.figure(figsize=[10,6])
for i,m in enumerate(model):
m.fit(X,z)
mz = m.predict(mX).reshape(nmesh,nmesh)
plt.subplot(221+i,xlim=[X[:,0].min(),X[:,0].max()],ylim=[X[:,1].min(),X[:,1].max()],aspect=1)
plt.scatter(X[:,0],X[:,1],c=z,edgecolor='k',cmap='autumn')
plt.contourf(mx,my,mz,alpha=0.1,cmap='autumn')
plt.title(chue[i],family='Tahoma')
plt.show()
ติดตามอัปเดตของบล็อกได้ที่แฟนเพจ