对在线真实系统进行性能监控,发现K/V存储操作并对服务器进行锁操作。(依旧是限制服务器延迟和吞吐量的主要原因) 服务器I/O 性能仍然很重要。没有一个高性能的I/O子系统是不可能有好的系统性能的。 奇怪的是, 虽然在过去10年已经看到显著改善硬件的I / O性能, 但是我们没有系统I/O性能的飞跃。 所以值得怀疑: 难道依靠标准的商业化操作系统能改善了I/O性能?
可能我从这篇论文中得到的针对上面那个问题(标准商用操作系统到底有没有装备这些I/O的改进?)的最有意思的答案是no:今天,主要的I/O延时障碍在操作系统内核本身。 在一项显著的实验中,他们采用商用Linux并尝试降低对商用硬件上的Redis进行简单读写的延时。
(注意, 这里的“延时”部分很重要 — 我会很快提到。通过多线程改进吞吐量是可行的,问题在于针对特殊请求的延时仍有进步空间, 尤其在数据中心的层面, 延时价值不菲。) •他们从缆线上接收 1KB 的包。 •他们对 Redis 进行读或写(取决于测试)。 •他们重复 1000 次,取平均耗时 (读写一轮算一次)。 •他们在商用 Linux 和商用服务器上运行。 •例如,价值1200美元的装备: Dell PowerEdge R520 has Intel x520 10G NIC and Intel RS3 RAID 1GB flash-backed cache, Sandy bridge CPU, 6 cores, 2.2 GHz. •他们用 单线程 处理所有数据。 结果很明显: 读 (在内存中):
写 (持久化数据结构):
需要指出的是在每个测试用例中大约70%的内核时间消耗在了网络栈(networking stack)中。在更大的有效负载下 , 这也是几乎固定的开销, 因为网络栈必须为每个包重新调用。这就是说, 如果应用比只向内存写更加复杂, 应用耗时可能激增。但是网络耗时将保持不变。 注意,有了单线程延时,内核的花费显而易见。但是如果有吞吐量和多线程的话,可能会忘记内核的存在 — 我们可能很容易仅仅为了测量每秒请求数的增加,完全丢掉每次请求在内核中花费了 84% 的时间的事实。
这种意义明确的方法很重要:你难以优化未度量的部分。
迈向更少I/O的操作系统并超越 在这一点上,我们对抗延时的主要武器已经是类似管道和多线程的东西了。尽管如此,如果延迟不再是一个问题,考虑一下可能会发生的依然是很有趣的。 比如,我 (一个网络菜鸟)会考虑是否像 SPDY中的管道栈的东西会更简单。 论文的其他部分探讨了我们可以如何降低那些延时,通过使用这个实验作为一项叫做Arrakis的操作系统研发的动机。
就我所知的Arrakis核心观点是,很多内核提供的I/O实际上可以通过商用硬件来提供——比如保护、复用和调度。 换句话说,Arrakis 要把 I/O 从 “控制平台”中拖出来 (例如,尽可能从内核中拖出来),放到用户空间 “数据平台” (例如,硬件上直接发生的复用,但从来不在内核中发生)。 结果比较理想 — 作者声称降低了81%的写延时和 65%的读延时。 兴奋之余,似乎还有进步空间。比如,要手动配置特定硬件的操作系统,尤其在数据中心层面并不现实。大量的服务断供都是由配置错误导致,让他们更加不透明无济于事。
我认为时间会证明这种忧虑是否在现实中有立足之地----我不过是个彻头彻尾的操作系统菜鸟。 |