測試的是我開發的一個API網關。現在部署在一個阿里云上的linux 單核 1g運存的服務器上。用的Nodejs開發服務器上運行了 4個node服務 (一個管理平臺,一個對外平臺,一個api服務,一個網關本身) 1個postgresql 網關依賴的數據庫目標api兩個接口,一個post登錄,一個get請求數據,get是文件讀取操作。網關本身每個請求一個數據庫插入操作。并發在100cpu滿了,響應時間變長,120內存滿了,應用worker開始崩潰(有兩個worker)主進程不斷重啟還能跑,還可以請求,這時候一個請求響應速度在2秒左右一直維持到250并發,沒死掉但是有10%的事務丟失。之前跑過一個100并發的 tps在285
大佬看看我這個wetes API服務器測試,大概是什么水平,可用性怎么樣
ibeautiful
2018-08-07 07:10:46