-
#liner from numpy.linalg import * print(np.eye(3)) lst=np.array([[1,2], [3,4]]) print("Inv:",inv(lst)) print("T:",lst.transpose()) print("Det:",det(lst)) print("Eig:",eig(lst)) y=np.array([[5],[7]]) print("Slove:",solve(lst,y)) #others print("Poly:",np.poly1d([2,1,3]))查看全部
-
lst=np.array([[[1,2,3,4], [4,5,6,7]], [[7,8,9,10], [10,11,12,13]], [[14,15,16,17], [18,19,20,21]] ]) print(lst.sum(axis=2))#根據axis,在不同維度進行求和 print("Min:",lst.min(axis=0)) list1=np.array([10,20,30,40]) list2=np.array([4,3,2,1]) print("Dot:",np.dot(list1.reshape([2,2]),list2.reshape([2,2]))) print(np.dot(list1,list2))#不同數組進行點乘 print(list1.reshape([2,2 ]))#數組重組 print (np.vstack((list1,list2)))#縫合兩個數組 print(np.hstack((list1,list2))) print (np.split(list1,4))#分離數組 print(np.copy(list1)) if __name__ == '__main__': main()查看全部
-
import numpy as np def main(): lst=[[1,3,5],[2,4,6]] print (type(lst)) np_lst=np.array(lst) print (type(np_lst)) np_lst=np.array(lst,dtype=np.float) print (np_lst.shape) print (np_lst.ndim) print(np_lst.itemsize) print(np_lst.dtype) print(np_lst.size) #some Arrays print(np.zeros([2,4])) print(np.ones([3,5])) print ("Rand:",np.random.rand(2,4)) print (np.random.rand()) print("RandInt:",np.random.randint(1,10,3)) print("Randn:",np.random.randn(2,4)) print("Choice:",np.random.choice([10,20,30,40,50,60,70,80,90,100])) print("Distribute:",np.random.beta(1,2,10)) print (np.exp(np.arange(1,11).reshape([2,5]))) print (np.exp(1),np.exp(2),np.exp(3)) print(np.cos(0)) print(np.log(1))查看全部
-
np_list=np.array(list,dtype=float) np_list.shape np_list.ndim#dim->dimnation(維度) np_list.itemsize#數組元素的字節 np_list.size#數組元素的大小查看全部
-
好查看全部
-
yes查看全部
-
總結性的圖查看全部
-
numpy:數據結構基礎;scipy:科學計算方法(矩陣分析、信號分析、數理分析);matplotlib:可視化套件查看全部
-
切片操作查看全部
-
from keras.models import Sequential #sequential神經網絡各個層的容器 from keras.layers import Dense, Activation #dense是加權求和的層,后者是激活函數 from keras.optimizers import SGD from sklearn.datasets import load_iris from sklearn.cross_validation import train_test_split from sklearn.preprocessing import LabelBinarizer def main(): iris = load_iris() train_data, test_data, train_target, test_target = train_test_split(iris.data, iris.target, test_size=0.2, random_state=1) labels_train = LabelBinarizer().fit_transform(train_target) model = Sequential( [ Dense(5, input_dim=4), Activation("relu"), Dense(3), # label 0 1 2 Activation("sigmoid") ] ) sgd=SGD(lr=0.01, decay=1e-6, momentum=0.9) model.compile(optimizer=sgd, loss="categorical_crossentropy") model.fit(train_data, labels_train, nb_epoch=200, batch_size=40) print(model.predict_classes(test_data)) print(test_target) if __name__=="__main__" : main()查看全部
-
keras 的安裝 1.Anaconda CMD 2.conda install mingw libpython 3.pip install keras查看全部
-
引入積分模塊 from scipy.integrate import quad,dbquad,nquad #dbquad 是二元積分,nquad是n維積分 print(quad(lambda x:np.exp(-x),0,np.inf) e{exp(-x)} 在 0-正無窮 的積分 print(quad(lambda t,x:np.exp(-x*t)/t**3,0,np.inf,lambda x:1,lambda x:np.inf) #先定義 t 的范圍再定義 x 的范圍,他實際上是 t 的函數查看全部
-
scipy 庫是 numpy 基礎上增加的眾多數學,科學以及工程計算常用的的庫函數,例如線性代數,常微分方程,信號處理,圖像處理,稀疏矩陣 等查看全部
-
import matplotlib.pyplot as plt import numpy as np %matplotlib inline x=np.linspace(-np.pi,np.pi,256,endpoint=True) c,s=np.cos(x),np.sin(x) plt.figure(1) plt.plot(x,c,color="blue",linewidth=1.0,linesyle="-",lable="COS",alpha=0.5)#plot 中指定自變量,因變量,alpha 定義透明度。 plt.plot(x,s,"r*",lable="SIN")#r代表red,*代表線型 plt.title("cos&sin") ax=plt.gca() #軸的編輯器 ax.spines["right"].set_color("none") #spines 是四周的邊線,none代表隱藏 ax.spines["top"].set_color("none") ax.spines["left"].set_position(("data",0)) #位置設置到數據域的 0 位置 ax.spines["buttom"].set_position(("data",0)) plt.show()查看全部
-
matplotlib 官網 http://matplotlib.org/ 點擊 docs 查閱參考文檔行和 API查看全部
舉報
0/150
提交
取消