Mongodb与GridFS
一、概述
GridFS是基于mongodb存储引擎是实现的“分布式文件系统”,底层基于mongodb存储机制,和其他本地文件系统相比,它具备大数据存储的多个优点。GridFS适合存储超过16MB的大型文件,不过16M数据在当今互联网时代,已经不足为奇。我们可以使用GridFS构建大规模的“图片服务器”、“文档服务器”、“视频、音频”文件服务器,GridFS对于web应用,可以结合nginx插件“ningx-gridfs”能够简单的实现负载均衡等特性,非常便捷;可以简单认为GridFS是为web应用而生。个人认为,目前架构比较简单的NoSQL文件系统中GridFS是最优秀的。
GridFS并不是将单个文件直接存储为一个document,而是将文件分成多个parts或者说chunks,然后将每个chunk作为作为一个单独的document存储,然后将chunks有序保存。默认情况下,GridFS的chunk大小位255k。GridFS使用2个collections来存储这些文件,一个collection存储文件的chunks(实际文件数据),另一个则存储文件的metadata(用户自定义的属性,filename,content-type等)。
当用户查询GridFS中的文件时,客户端或者driver将会重新按序组装这些chunks。用户可以range查询文件,也可以获取文件的任意部分的信息,比如:跳过(skip)视频或者音频(任何文件)的中间部,实现“range access of single file”。
对于mongodb而言,每个document最大尺寸为16M,如果想存储一条数据(比如一个文件)超过16M,那么只能使用GridFS支持;GridFS可以支持单个文件尺寸达到数G,读取文件时可以分段读取。此外,GridFS可以从Mongodb的高性能、高可用特性中获益,比如我们可以在“replica set”或者“sharding”架构模式下使用GridFS。
二、使用场景
document的大小超过16M是使用GridFS的条件之一,因为mongodb普通的collection无法支持16M以上的document,我们不得不选择其他方案;在一些情况下,将这些大文件存储在GridFS中,比直接存储在本地文件系统中更加适合:
1)如果你的文件系统对每个目录下文件的个数有限制(或者太多,将会影响文件的打开速度等)。
2)如果你的文件数据,有分数据中心镜像保存(大数据情况,可用性保证)。
3)如果你希望访问一个超大的文件,而不希望将它全部加入内存,而是有“range access”的情况,即分段读取,那么GridFS天生就具备这种能力,你可以随意访问任意片段。
对于一个大文件,如果你希望原子性的更新它的全部内容,那么GridFS将不适合;比如同时更新一个文件的多个chunk,因为mongodb本身没有事务机制。
对于小于16M的文件,比如一些图片、CSS、js文件等,应该将它们直接存储在普通的collection中而非GridFS(bindata,参见org.bson.types.Binary),因为它们通常较小,GridFS无法发挥其优势。当然,你为了统一application的“文件系统”存储方式,也可以将这些小文件保存在GridFS中,性能也不会差的太多,为了提升性能,对这些小文件,可以在存储时手动设置它的chunkSize,避免文件被切分成多个chunks来提高性能。
三、GridFS内部存储结构简析(JAVA代码示例)
比如我们创建了一个GridFS数据库,可以可以通过mongo shell指令看到:
> ./mongo --host 127.0.0.1 --port 27017 > use common-fs > show collections; fs.chunks fs.files system.indexes
我们可以看到“common-fs”数据库下有2个collection:“fs.chunks”和“fs.files”;其中前缀“fs”为bucket名称。
1)fs.chunks:存储二进制数据,如上文所述,保存在GridFS中的每个文件都会根据“chunkSize”拆分成多个chunks并依次保存在“fs.chunks”中,每个chunk都持有“files_id”即为“文件id”,“n”为chunk的序列;比如一个文件被拆分成3个chunks,那么“fs.chunks”中将会有3个document,它们持有相同的files_id,“n”分别为0、1、2。
{ "_id" : <ObjectId>, //chunk ID,全局唯一 "files_id" : <ObjectId>, //file collection表的"_id"值 "n" : <num>, //chunk的序列号,第一个chunk位0。 "data" : <binary> //二进制数据 }
> db.fs.chunks.getIndexes(); [ ... { "v" : 1, "unique" : true, "key" : { "files_id" : 1, "n" : 1 }, "name" : "files_id_1_n_1", "ns" : "common-fs.fs.chunks" } ]
chunks默认情况下已经对“files_id”和“n”建立了唯一索引。
2)fs.files:存储文件的metadata,GridFS每保存一个文件,都会在此collection中插入一条document,结构如下所示。其中“metadata”字段用于保存用户自定义的K-V数据(比如保存文件的format),其他字段是GridFS内置的,开发者不能修改(除file_name外),每个文档都有一个md5字段,所以开发者不需要自己再去计算md5值。其中filename为开发者指定的“文件名称”。
{ "_id" : <ObjectId>, // "length" : <num>, //文件的长度 "chunkSize" : <num>, //chunkSize "uploadDate" : <timestamp>, //文件生成的时间戳 "md5" : <hash>, //HASH值 "filename" : <string>, //文件名,用户指定 "contentType" : <string>, // "aliases" : <string array>, //别名 "metadata" : <dataObject>, //用户自定的metadata }
> db.fs.files.getIndexes(); [ ... { "v" : 1, "key" : { "filename" : 1, "uploadDate" : 1 }, "name" : "filename_1_uploadDate_1", "ns" : "common-fs.fs.files" } ]
其中“filename”和“updateDate”默认已经建立了组合索引,但不是unique,所以GridFS中filename是可以重复的;建议使用_id来获取文档,比如如果你使用GridFS构建一个图片服务器,可以使用_id的值作为图片的名称。
其中有一个比较重要的参数“chunkSize”,这个值默认为“261120”(即255k),对于web应用此值基本不需要调整;如果你的应用是文件的“上传”、“下载”等,可以考虑将此值扩大,比如64M等。还有一种特例,比如你的文件通常较小,比如只有1M左右,而且通常不会涉及到“range access”,那么可以将每个file的chunkSize设置为文档的大小,这样可以在存储时只有一个chunk。
客户端查询文件时首先会查询“fs.files”获取metadata并获得files_id值(即_id),然后再根据files_id查询“fs.chunks”获取chunks列表(根据n排序),当客户端需要读取某个chunk数据时才会触发实际数据传输。
四、Sharding架构
随着GridFS中文件数量的增加,最终有可能存储空间会达到单机磁盘上限,或者由于Read操作较多单机无法承载压力,此时就需要考虑分布式部署;解决此文件的方案为sharding,即将GridFS的数据分布存储在多个mongod节点中。
sharding基本原理和mongodb一样,此处不再赘言;因为一个GridFS数据库,由“fs.files”和“fs.chunks”两个collections构成,一个文件将不同的信息保存在两个collections中,那么究竟该如何设计sharding呢?首先表明无论两个collection同时sharding还是只有其中一个sharding,都不需要客户端修改代码,也不会影响数据访问,因为无论是“通过filename查询fs.files”还是“通过files_id查询fs.chunks”中间都会经过mongos实例路由。
因为fs.files文件中只保存metadata,通常都比较小,因此在可以不sharding。如果sharding,则根据应用需要选择合适的“shard key”,比如你通常使用_id来查询文件,那么可以将_id作为“shard key”的一部分(比如shard key为{_id : 1,filename:1}),如果你的应用通常使用filename查询文件,那么可以将filename作为shard key(或者前缀);我们最终的目的,就是确保查询方式与数据sharding保持一致,提供高效的查询,同时还需要尽可能保证数据的均匀分布。
对于fs.chunks文件,这个是优先被sharding的,因为它的数据量通常为fs.files的数倍;不过这个collection的shard key只能为{"files_id" : 1, n : 1},因为这个collection只有这种查询方式,且只有这样才会保证同一个file_id的多个chunk尽可能的保存在同一个shard-chunk中。
具体如何sharding请参见相关文档。
五、GridFS代码样例(JAVA)
1、构建GridFS实例
MongoClient mongoClient = new MongoClient("127.0.0.1",30017);//单例 DB db = mongoClient.getDB("common-fs"); //单例即可,创建多个实例并无影响,内部间接使用了mongoClient作为通讯支撑 GridFS gridFS = new GridFS(db);//可以指定bucket名字,默认值为“fs”
2、创建文件
FileInputStream inputStream = new FileInputStream(new File("/data/logs/support-web/web-all.log")); GridFSInputFile inputFile = gridFS.createFile(inputStream); inputFile.setFilename("web-all.log"); inputFile.setContentType("text/plain"); inputFile.save(); ObjectId fileId = (ObjectId)inputFile.getId();//此ID,在客户端生成 System.out.println(fileId.toHexString());//此字符串ID,可供application使用
3、读取文件
GridFSDBFile file = gridFS.find(new ObjectId("56457faf6dca030a4b3e46cd")); file.writeTo(new File("/data/logs/test-1.log")); //此外还可以使用inputstream方式 BufferedInputStream inputStream = new BufferedInputStream(file.getInputStream(),1024); OutputStream outputStream = new FileOutputStream(new File("/data/logs/test-2.log")); byte[] bytes = new byte[1024]; while (true) { int count = inputStream.read(bytes); if(count < 1024) { break; } outputStream.write(bytes,0,count); } inputStream.close(); outputStream.close();
参考文档:
1)GridFS:【官方文档】
3)Nginx插件:https://github.com/mdirolf/nginx-gridfs,不过此插件已经停止维护了,可能随着mongodb版本的升级将有可能不兼容;此后大只能在tomcat中访问gridfs了(或者NodeJS)。