IO 多路複用

IO 多路複用

要弄清問題 先要知道問題的出現原因
原因:
由於進程的執行過程是線性的(也就是順序執行),當我們調用低速系統I/O(read,write,accept等等),進程可能阻塞,此時進程就阻塞在這個調用上,不能執行其他操作.阻塞很正常.

接下來考慮這麼一個問題:一個服務器進程和一個客戶端進程通信,服務器端read(sockfd1,bud,bufsize),此時客戶端進程沒有發送數據,那麼read(阻塞調用)將阻塞直到客戶端調用write(sockfd,but,size)發來數據.

在一個客戶和服務器通信時這沒什麼問題,當多個客戶與服務器通信時,若服務器阻塞於其中一個客戶sockfd1,當另一個客戶的數據到達套接字sockfd2時,服務器不能處理,仍然阻塞在read(sockfd1,...)上;此時問題就出現了,

不能及時處理另一個客戶的服務,咋麼辦?I/O多路複用來解決!I/O多路複用:繼續上面的問題,有多個客戶連接,sockfd1,sockfd2,sockfd3..sockfdn同時監聽這n個客戶,當其中有一個發來消息時就從select的阻塞中返回,

然後就調用read讀取收到消息的sockfd,然後又循環回select阻塞;這樣就不會因爲阻塞在其中一個上而不能處理另一個客戶的消息

Q:
那這樣子,在讀取socket1的數據時,如果其它socket有數據來,那麼也要等到socket1讀取完了才能繼續讀取其它socket的數據吧。那不是也阻塞住了嗎?而且讀取到的數據也要開啓線程處理吧,那這和多線程IO有什麼區別呢?

A:
1.CPU本來就是線性的 不論什麼都需要順序處理 並行只能是多核CPU
http://2.io多路複用本來就是用來解決對多個I/O監聽時,一個I/O阻塞影響其他I/O的問題,跟多線程沒關係.
3.跟多線程相比較,線程切換需要切換到內核進行線程切換,需要消耗時間和資源. 而I/O多路複用不需要切換線/進程,效率相對較高,特別是對高併發的應用nginx就是用I/O多路複用,故而性能極佳.但多線程編程邏輯和處理上比I/O多路複用簡單.而I/O多路複用處理起來較爲複雜.
 

===============================================================================================================

這個還是很好說清楚的。

假設你是一個機場的空管, 你需要管理到你機場的所有的航線, 包括進港,出港, 有些航班需要放到停機坪等待,有些航班需要去登機口接乘客。

你會怎麼做?

最簡單的做法,就是你去招一大批空管員,然後每人盯一架飛機, 從進港,接客,排位,出港,航線監控,直至交接給下一個空港,全程監控。

那麼問題就來了:
  • 很快你就發現空管塔裏面聚集起來一大票的空管員,交通稍微繁忙一點,新的空管員就已經擠不進來了。
  • 空管員之間需要協調,屋子裏面就1, 2個人的時候還好,幾十號人以後 ,基本上就成菜市場了。
  • 空管員經常需要更新一些公用的東西,比如起飛顯示屏,比如下一個小時後的出港排期,最後你會很驚奇的發現,每個人的時間最後都花在了搶這些資源上。

現實上我們的空管同時管幾十架飛機稀鬆平常的事情, 他們怎麼做的呢?
他們用這個東西

583d5ba3cee12e78befa8e2b749f4269_b.jpg 這個東西叫flight progress strip. 每一個塊代表一個航班,不同的槽代表不同的狀態,然後一個空管員可以管理一組這樣的塊(一組航班),而他的工作,就是在航班信息有新的更新的時候,把對應的塊放到不同的槽子裏面。

 

這個東西現在還沒有淘汰哦,只是變成電子的了而已。。

是不是覺得一下子效率高了很多,一個空管塔裏可以調度的航線可以是前一種方法的幾倍到幾十倍。

如果你把每一個航線當成一個Sock(I/O 流), 空管當成你的服務端Sock管理代碼的話.

第一種方法就是最傳統的多進程併發模型 (每進來一個新的I/O流會分配一個新的進程管理。)
第二種方法就是I/O多路複用 (單個線程,通過記錄跟蹤每個I/O流(sock)的狀態,來同時管理多個I/O流 。)

其實「I/O多路複用」這個坑爹翻譯可能是這個概念在中文裏面如此難理解的原因。所謂的I/O多路複用在英文中其實叫 I/O multiplexing. 如果你搜索multiplexing啥意思,基本上都會出這個圖:

5d8e39d83e931da6ba3b6bc496302e5c_b.png 於是大部分人都直接聯想到"一根網線,多個sock複用" 這個概念,包括上面的幾個回答, 其實不管你用多進程還是I/O多路複用, 網線都只有一根好伐。多個Sock複用一根網線這個功能是在內核+驅動層實現的

重要的事情再說一遍: I/O multiplexing 這裏面的 multiplexing 指的其實是在單個線程通過記錄跟蹤每一個Sock(I/O流)的狀態(對應空管塔裏面的Fight progress strip槽)來同時管理多個I/O流. 發明它的原因,是儘量多的提高服務器的吞吐能力。

 

是不是聽起來好拗口,看個圖就懂了.

 

18d8525aceddb840ea4c131002716221_b.jpg
在同一個線程裏面, 通過撥開關的方式,來同時傳輸多個I/O流, (學過EE的人現在可以站出來義正嚴辭說這個叫「時分複用」了)。

 

什麼,你還沒有搞懂「一個請求到來了,nginx使用epoll接收請求的過程是怎樣的」, 多看看這個圖就瞭解了。提醒下,ngnix會有很多鏈接進來, epoll會把他們都監視起來,然後像撥開關一樣,誰有數據就撥向誰,然後調用相應的代碼處理。

------------------------------------------
瞭解這個基本的概念以後,其他的就很好解釋了。

select, poll, epoll 都是I/O多路複用的具體的實現,之所以有這三個鬼存在,其實是他們出現是有先後順序的。

I/O多路複用這個概念被提出來以後, select是第一個實現 (1983 左右在BSD裏面實現的)。

select 被實現以後,很快就暴露出了很多問題。
  • select 會修改傳入的參數數組,這個對於一個需要調用很多次的函數,是非常不友好的。
  • select 如果任何一個sock(I/O stream)出現了數據,select 僅僅會返回,但是並不會告訴你是那個sock上有數據,於是你只能自己一個一個的找,10幾個sock可能還好,要是幾萬的sock每次都找一遍,這個無謂的開銷就頗有海天盛筵的豪氣了。
  • select 只能監視1024個鏈接, 這個跟草榴沒啥關係哦,linux 定義在頭文件中的,參見FD_SETSIZE。
  • select 不是線程安全的,如果你把一個sock加入到select, 然後突然另外一個線程發現,尼瑪,這個sock不用,要收回。對不起,這個select 不支持的,如果你喪心病狂的竟然關掉這個sock, select的標準行爲是。。呃。。不可預測的, 這個可是寫在文檔中的哦.

「If a file descriptor being monitored by select() is closed in another thread, the result is unspecified」
霸不霸氣

於是14年以後(1997年)一幫人又實現了poll, poll 修復了select的很多問題,比如
  • poll 去掉了1024個鏈接的限制,於是要多少鏈接呢, 主人你開心就好。
  • poll 從設計上來說,不再修改傳入數組,不過這個要看你的平臺了,所以行走江湖,還是小心爲妙。

其實拖14年那麼久也不是效率問題, 而是那個時代的硬件實在太弱,一臺服務器處理1千多個鏈接簡直就是神一樣的存在了,select很長段時間已經滿足需求。

但是poll仍然不是線程安全的, 這就意味着,不管服務器有多強悍,你也只能在一個線程裏面處理一組I/O流。你當然可以那多進程來配合了,不過然後你就有了多進程的各種問題。

於是5年以後, 在2002, 大神 Davide Libenzi 實現了epoll.

epoll 可以說是I/O 多路複用最新的一個實現,epoll 修復了poll 和select絕大部分問題, 比如:
  • epoll 現在是線程安全的。
  • epoll 現在不僅告訴你sock組裏面數據,還會告訴你具體哪個sock有數據,你不用自己去找了。

epoll 當年的patch,現在還在,下面鏈接可以看得到:
/dev/epoll Home Page

貼一張霸氣的圖,看看當年神一樣的性能(測試代碼都是死鏈了, 如果有人可以刨墳找出來,可以研究下細節怎麼測的).

5a56c4677da1c10153ed22a3f6dfeab4_b.png
橫軸Dead connections 就是鏈接數的意思,叫這個名字只是它的測試工具叫deadcon. 縱軸是每秒處理請求的數量,你可以看到,epoll每秒處理請求的數量基本不會隨着鏈接變多而下降的。poll 和/dev/poll 就很慘了。

 

可是epoll 有個致命的缺點。。只有linux支持。比如BSD上面對應的實現是kqueue。

其實有些國內知名廠商把epoll從安卓裏面裁掉這種腦殘的事情我會主動告訴你嘛。什麼,你說沒人用安卓做服務器,尼瑪你是看不起p2p軟件了啦。

而ngnix 的設計原則裏面, 它會使用目標平臺上面最高效的I/O多路複用模型咯,所以纔會有這個設置。一般情況下,如果可能的話,儘量都用epoll/kqueue吧。

詳細的在這裏:
Connection processing methods

PS: 上面所有這些比較分析,都建立在大併發下面,如果你的併發數太少,用哪個,其實都沒有區別。 如果像是在歐朋數據中心裏面的轉碼服務器那種動不動就是幾萬幾十萬的併發,不用epoll我可以直接去撞牆了
posted @ 2018-10-22 16:36 史D芬周 閱讀( ...) 評論( ...) 編輯 收藏