当前位置:  技术问答>linux和unix

海量小文件如何快速读到内存?

    来源: 互联网  发布时间:2017-03-12

    本文导语:  各位来讨论下: linux下如何快速将1k-100k左右的海量文件读入到内存? 目前我这边用的方式是紧凑型缓存,将文件打包到一个文件(不压缩),然后读入到内存. 此方法相比单个读入有30%以上的速度提升. 不知道其他朋友有...

各位来讨论下: linux下如何快速将1k-100k左右的海量文件读入到内存?

目前我这边用的方式是紧凑型缓存,将文件打包到一个文件(不压缩),然后读入到内存.

此方法相比单个读入有30%以上的速度提升.

不知道其他朋友有没更好的方式?

|
小文件的快速处理是不是可以参考taobao的文件系统处理

|
海量能读入内存?

|
先对文件进行合并处理吧

|
如果单纯考虑读入和读出的话,没有什么更快的方法了……
再有就是换SSD硬盘……
不过,如果要是在读入的命中率上下工夫,就有很多可做的事情了……
毕竟你不可能把硬盘上的数据全部读到内存里来,所以提升命中率才是提升整体速度的关键……

|
建立缓存机制
加大虚拟内存

    
 
 
 
本站(WWW.)旨在分享和传播互联网科技相关的资讯和技术,将尽最大努力为读者提供更好的信息聚合和浏览方式。
本站(WWW.)站内文章除注明原创外,均为转载、整理或搜集自网络。欢迎任何形式的转载,转载请注明出处。












  • 相关文章推荐
  • PB级海量数据处理系统 Maxtable
  • IP地址数字互转 iis7站长之家
  • [高手进]海量数据网络通讯,当访问请求达3万以上时,出现coredump错误。一般是什么原因?
  • SQL Server 海量数据导入的最快方法
  • 在 SQLSERVER 中快速有条件删除海量数据
  • 如何在 SQL SERVER 中快速有条件删除海量数据
  • 如何在SQLSERVER中快速有条件删除海量数据
  • 公告:CSDN AIX论坛有奖话题讨论活动(七)——本期话题:在海量运算方面,和Linux系统相比,AIX系统有优势吗?
  • C++算法之海量数据处理方法的总结分析
  • 海量数据引擎 SF1R
  • 海量数据处理系列之:用C++实现Bitmap算法
  • 解析bitmap处理海量数据及其实现方法分析
  • mysql 海量数据的存储和访问解决方案
  • 海量数据库的查询优化及分页算法方案
  • 海量数据库查询语句


  • 站内导航:


    特别声明:169IT网站部分信息来自互联网,如果侵犯您的权利,请及时告知,本站将立即删除!

    ©2012-2021,,E-mail:www_#163.com(请将#改为@)

    浙ICP备11055608号-3