我需要加快下載大文件的速度,為此我使用了多個連接。我正在使用一個可以訪問磁盤的 goroutine,它使用一個通道從多個 goroutine 接收數據,正如我在這里被建議的那樣。 file, _ := os.Create(filename)
down.destination = file
for info := range down.copyInfo {
down.destination.Seek(info.start, 0)
io.CopyN(down.destination, info.from, info.length)
}
}問題是,在大文件上重復使用時,搜索似乎會使操作變慢。當info.length更大時,它必須尋求更少的次數,并且它似乎可以更快地完成工作。但我需要做得info.length更小。有沒有辦法讓搜索更快?還是我應該只下載每個部分以分隔臨時文件并最后將它們連接起來?
1 回答

智慧大石
TA貢獻1946條經驗 獲得超3個贊
查找本身不執行任何 I/O,而只是設置文件中的位置以供下一次讀取或寫入。因此,自行搜索的次數可能并不重要。這也可以通過添加虛擬搜索來輕松測試,而無需任何后續讀取或寫入操作。
問題可能不是查找次數,而是寫操作的次數。與使用幾個大片段相比,使用許多小片段將需要更多的 I/O 操作來寫入數據。而且這些 I/O 操作中的每一個都有很大的開銷。有系統調用本身的開銷。如果片段未在底層存儲的塊邊界對齊,則可能會產生開銷。旋轉磁盤以定位到實際扇區可能會產生開銷。
- 1 回答
- 0 關注
- 142 瀏覽
添加回答
舉報
0/150
提交
取消