分布式文件管理系统_FastDFS集群
简单介绍
1,client storage tracker的关系
先用一幅图来解释用户如何访问一个通过DFS管理的文件

一般来说,一台服务器只有一个storage server,多个storage server可以组成一个group,同一group间storage server的数据自动同步(备份与恢复)。
不同group数据互相隔离,一个tracker可以管理多个group,也可以多对多。
client用于管理 tracker server 和storage server。
FAST_DFS安装
下载并解压DFS压缩包,可以看到附带的 INSTALL 文本文件,以下安装步骤基于此。
#step . 从下面的链接下载libfastcommon压缩包,并按默认配置安装
https://github.com/happyfish100/libfastcommon.git
#step . 下载好DFS压缩包并解压,
tar xzf FastDFS_v5.x.tar.gz
#for example:
tar xzf FastDFS_v5..tar.gz
#step . 进入FastDFS文件夹
cd FastDFS
#step . 执行命令:
./make.sh
#step . 执行安装命令:
./make.sh install
tip:在没有指定安装路径的默认情况下,安装完成后启动脚本在目录/usr/bin/下,相关的配置文件在/etc/fdfs/下。
#step . edit/modify the config file of tracker and storage(修改配置文件,暂时可以跳过)
#step . 启动DFS服务
#首先 start the tracker server:
/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf restart
#然后start the storage server:
/usr/bin/fdfs_storaged /etc/fdfs/storage.conf restart
#step . 用测试程序测试服务可用性。
#for example, upload a file:
/usr/bin/fdfs_test /etc/fdfs/client.conf.sample upload /etc/fdfs/client.conf.sample
打印如下信息即认为测试通过
This is FastDFS client test program v5.08
Copyright (C) 2008, Happy Fish / YuQing
FastDFS may be copied only under the terms of the GNU General
Public License V3, which may be found in the FastDFS source kit.
Please visit the FastDFS Home Page http://www.csource.org/
for more detail.
[2017-03-21 21:03:35] DEBUG - base_path=/home/yuqing/fastdfs, connect_timeout=30, network_timeout=60, tracker_server_count=1, anti_steal_token=0, anti_steal_secret_key length=0, use_connection_pool=0, g_connection_pool_max_idle_time=3600s, use_storage_id=0, storage server id count: 0
tracker_query_storage_store_list_without_group:
server 1. group_name=, ip_addr=YOUR_TRACKER_IP, port=23000
group_name=group1, ip_addr=YOUR_TRACKER_IP, port=23000
storage_upload_by_filename
group_name=group1, remote_filename=M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U.sample
source ip address: YOUR_TRACKER_IP
file timestamp=2017-03-21 21:03:35
file size=1460
file crc32=2429950965
example file url: http://YOUR_TRACKER_IP/group1/M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U.sample
storage_upload_slave_by_filename
group_name=group1, remote_filename=M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U_big.sample
source ip address: YOUR_TRACKER_IP
file timestamp=2017-03-21 21:03:35
file size=1460
file crc32=2429950965
example file url: http://YOUR_TRACKER_IP/group1/M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U_big.sample
#step . 通过控制台查看服务运行的详细信息
/usr/bin/fdfs_monitor <client_conf_filename>
集成Nginx以支持外部网络访问
Nginx的安装不在此赘述。
安装好Nginx后修改配置文件部分内容:
server {
listen ;
server_name YOUR_HOST_NAME;
location /M00 {
#设置主机头和客户端真实地址,以便服务器获取客户端真实IP
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_buffering off;
root /home/yuqing/fastdfs/data;
}
}
root路径为storage.conf中指定的base_path
成功启动Nginx后,尝试使用 URL:YOUR_IP/M00/00/00/rBFUJljRLMmAI7ZOAAAFtJDWG_U_big.sample 从外网访问已经成功上传的测试文本,发现RESPONSE 404,无法访问。
查看Nginx日志error.log
// :: [error] #: * open() "/home/yuqing/fastdfs/data/M00/00/00/rBFUJljRLMmAI7ZOAAAFtJDWG_U_big.sample" failed (2: No such file or directory), client: ......
分析原因:
通过URL打开的文件目录是/home/yuqing/fastdfs/data/M00/00/00,而实际的存放目录是/home/yuqing/fastdfs/data/00/00。
发现多了一层不存在的目录M00:FastDFS支持多个磁盘(base path),所以要通过Mxx来区分,其中xx为磁盘的序号,基于0。
解决办法为/home/yuqing/fastdfs/data/M00/00/00创建软连接
ln -s /home/yuqing/fastdfs/data /home/yuqing/fastdfs/data/M00
storage节点增加硬盘
目的有两个扩容和提升部分性能。
修改storage.conf部分属性 #存储路径的数量 count(store_path) store_path_count= #指定存储路径 store_path0=/home/yuqing/fastdfs #增加的另一块硬盘路径 store_path1=/usr/local/dfsdata 修改tracker.conf部分属性 #选择storage server储存路径的方式 #:轮询 #:负载均衡 store_path=
重启两个服务
./fdfs_trackerd /etc/fdfs/tracker.conf restart ./fdfs_storaged /etc/fdfs/storage.conf restart
略微延迟后,可以在store_path1目录下看到有生成文件的存放目录。
再次使用相同的测试方法上传文件,会生成以M01开头的文件路径。
/M01/00/04/rBFUJljR4zOAaxHOAAAAVJyyfIA543.txt
验证发现这是保存在store_path1路径下的,正好和前面解释M00的含义呼应。
为支持新磁盘外网访问
方式一
修改nginx.conf 部分属性。
location /M01 {
#设置主机头和客户端真实地址,以便服务器获取客户端真实IP
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#禁用缓存
proxy_buffering off;
root store_path1/data;
}
添加软连接
ln -s /usr/local/dfsdata/data /usr/local/dfsdata/data/M01
重启Nginx服务
推荐-方式二
给Nginx安装fastdfs-nginx-module插件
解压后按附带的INTALL文件安装。
注意:需要把FastDFS安装包内的配置文件http.conf mime.types和fastdfs-nginx-module压缩包内的mod_fastdfs.conf复制一份到/etc/fdfs/目录下。
修改nginx.conf 部分属性:
删除匹配 /M00和/M01
增加后缀名匹配(按需增加)
location ~* .(gif|jpg|jpeg|txt)$ {
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#禁用缓存
proxy_buffering off;
ngx_fastdfs_module;
}
修改mod_fastdfs.conf部分属性:
store_path_count=
store_path0=/home/yuqing/fastdfs
store_path1=/usr/local/dfsdata
以上值必须和storage.conf配置对应值保持一致。
重启Nginx服务
同一个group之间storage server数据同步
当 storage server 定义有相同的group_name时,认为它们是同一group,同一个group之间文件相互更新同步。所以常用做备份数据,提高系统的可靠性。
(测试时注意,在同一台服务器上通过修改端口的方式运行多个storage server是不可行的,会导致其中一个server无法正常使用。)
为group增加storage节点不用修改tracker server配置,是独立进行的。
增加节点时,系统会立即进行数据同步,所以会增加系统负荷,推荐在系统运行空闲时再操作。
增加节点时修改group_name为storage server指定group。
增加的节点配置储存路径数量需要和同一个group的其它节点数量保持一致。即store_path_count参数值相等。具体的路径可以不同。
否则tracker server有如下报错信息:
[-- ::] ERROR - file: tracker_mem.c, line: , client ip: less than that of the group "group1", the group store_path_count is 2
启动storage server 2
查看日志(省略部分信息)
data path: /home/yuqing/fastdfs2/data, mkdir sub dir done. [-- ::] DEBUG - file: tracker_client_thread.c, line: , report thread to tracker server *: started [-- ::] INFO - file: tracker_client_thread.c, line: , successfully connect to tracker server *:, as a tracker client, my ip is * [-- ::] INFO - file: tracker_client_thread.c, line: , tracker server *:, set tracker leader: [-- ::] DEBUG - file: storage_sync.c, line: , sync thread to storage server *: started [-- ::] INFO - file: storage_sync.c, line: , successfully connect to storage server *: [-- ::] DEBUG - file: storage_service.c, line: , client ip: 172.17.84.38, storage server id: *
可以读出,当组内增加新节点时,它们的工作流程大致是:
INIT
!--1 在指定的store_path生成存放目录
!--2 开启tracker_client_thread通知tracker server :有新的节点加入。
!--3 成功与tracker server连接
SYCNING
!-------1 开启sync thread,准备数据同步
!-------2 进行数据同步(耗时)
!-------3 所有数据同步成功
ACTIVE
!----------1 成为组内一员
测试可靠性
!--s 1
组内其中一台storage server被执行rm命令或者磁盘坏道导致数据丢失时,组内其它storage server不会执行同步命令。
storage server重启后,会从组内选择一个数据完整的storage server进行增量更新。
!--s 2
组内其中一台storage server down掉,系统仍然正常运行。(每一台storage server都需要安装fastdfs-nginx-module插件并正确配置)
查看Nginx日志:
/Mar/::: +] "GET /M01/00/00/rBFUJ1jSOaCAMPUNAAAAVJyyfIA114.txt?redirect=1 HTTP/1.0" 200 84 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2372.400 QQBrowser/9.5.10548.400"
通过控制台查看集群运行情况
#运行命令
./fdfs_monitor /etc/fdfs/client.conf.sample
#查看信息(省略部分信息)
tracker server
group count:
Group :
group name = group1
storage server count =
active server count =
disk total space = MB
disk free space = MB
Storage :
ip_addr = 172.17.84.38 ACTIVE
join time = -- ::
up time = -- ::
last_heart_beat_time = -- ::
last_source_update = -- ::
last_sync_update = -- ::
last_synced_timestamp = -- :: (never synced)
Storage :
ip_addr = 172.17.84.39 ACTIVE
join time = -- ::
up time = -- ::
last_heart_beat_time = -- ::
last_source_update = -- ::
last_sync_update = -- ::
last_synced_timestamp = -- :: (0s delay)
分布式文件管理系统_FastDFS集群的更多相关文章
- JDFS:一款分布式文件管理系统,第四篇(流式云存储续篇)
一 前言 本篇博客是JDFS系列博客的第四篇,从最初简单的上传.下载,到后来加入分布式功能,背后经历了大量的调试,尤其当实验的虚拟计算结点数目增加后,一些潜在的隐藏很深的bug就陆续爆发.在此之前笔者 ...
- JDFS:一款分布式文件管理系统,第五篇(整体架构描述)
一 前言 截止到目前为止,虽然并不完美,但是JDFS已经初步具备了完整的分布式文件管理功能了,包括:文件的冗余存储.文件元信息的查询.文件的下载.文件的删除等.本文将对JDFS做一个总体的介绍,主要是 ...
- 分布式文件管理系统HDFS
Hadoop 分布式文件管理系统HDFS可以部署在廉价硬件之上,能够高容错. 可靠地存储海量数据(可以达到TB甚至PB级),它还可以和Yam中的MapReduce 编程模型很好地结合,为应用程序提供高 ...
- 手把手教你用 FastDFS 构建分布式文件管理系统
说起分布式文件管理系统,大家可能很容易想到 HDFS.GFS 等系统,前者是 Hadoop 的一部分,后者则是 Google 提供的分布式文件管理系统.除了这些之外,国内淘宝和腾讯也有自己的分布式文件 ...
- 分布式搜索ElasticSearch构建集群与简单搜索实例应用
分布式搜索ElasticSearch构建集群与简单搜索实例应用 关于ElasticSearch不介绍了,直接说应用. 分布式ElasticSearch集群构建的方法. 1.通过在程序中创建一个嵌入es ...
- 分布式协调服务Zookeeper集群之ACL篇
分布式协调服务Zookeeper集群之ACL篇 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.zookeeper ACL相关知识概览 1>.zookeeper官方文档(h ...
- 分布式协调服务Zookeeper集群监控JMX和ZkWeb应用对比
分布式协调服务Zookeeper集群监控JMX和ZkWeb应用对比 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. JMX是用来远程监控Java应用的框架,这个也可以用来监控其他的J ...
- 分布式协调服务Zookeeper集群搭建
分布式协调服务Zookeeper集群搭建 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.安装jdk环境 1>.操作环境 [root@node101.yinzhengjie ...
- 分布式存储系统之Ceph集群RBD基础使用
前文我们了解了Ceph集群cephx认证和授权相关话题,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16748149.html:今天我们来聊一聊ceph集群的 ...
随机推荐
- SUI Mobile
<header class="bar bar-nav"> <h1 class='title'>只有图标的表单</h1> </header& ...
- 传输控制协议TCP
TCP主要特点: (1)面向连接 (2)只能是点到点 (3)可靠的传输协议 (4)全双工通信,各自各自的读写缓冲区,应用层吧数据交给发送缓冲区,tcp合适就发送了,接受的时候tcp写入接受缓冲区,应用 ...
- JavaScript中国象棋程序(6) - 克服水平线效应、检查重复局面
"JavaScript中国象棋程序" 这一系列教程将带你从头使用JavaScript编写一个中国象棋程序.这是教程的第6节. 这一系列共有9个部分: 0.JavaScript中国象 ...
- Sublime Text3安装、注册、插件安装教程
在前端开发中,有很多软件供我们使用:大名鼎鼎的WebStorm,老而弥坚的Dreamweaver,后起之秀Hbuilder,还有小清新Sublime Text.......等等.作为新手, ...
- Loadrunner之脚本编写
先打开loadrunner的服务器(打开成功之后会出现一个绿色的X) 以订票系统为例(http://127.0.0.1:1080/WebTours/) 录制一个登陆的脚本. 利用C语言编写一个简单的脚 ...
- Redis实战与 Session缓存
C#操作Redis的库有很多,比如C# Redis Client就很好用, 在NuGet上搜索 ServiceStack.Redis 安装到项目中,将会添加以下引用 ServiceStack.Red ...
- 使用LVS+keepalived实现mysql负载均衡的实践和总结
前言 经过一段时间的积累,数据库的架构就需要根据项目不断的进行变化. 从单台数据库,到了两台数据库的主从,再到读写分离,再到双主,现在进一步需要更多的数据库服务器去支撑更加可怕的访问量. 那么经过那么 ...
- ReactiveSwift日常运用<一>
上一篇中,我已经很详细的介绍了ReactiveSwift,接下来我就举几个简单的例子供大家参考.1.键盘的监听这在我们开发中很常用,因为很多App都需要对登录注册进行判断,这样可以避免服务器存储很多废 ...
- css样式表1 2017-03-11
样式表 DIV + CSS 一. 样式表的分类 以下均以div标签为例,可以换成其他标签 1. 内联样式表 格式: style="属性1:属性值1:属性2:属性值2:属性3: ...
- 1774: [Usaco2009 Dec]Toll 过路费
1774: [Usaco2009 Dec]Toll 过路费 Time Limit: 10 Sec Memory Limit: 64 MBSubmit: 263 Solved: 154[Submit ...