Fastdfs文件系统介绍

概念

这里所说的文件系统,不是磁盘文件系统NTFS、fat那些,而是管理文件的软件,比如管理上传文件、图片等。

fastdfs主要由tracker(跟踪器)和storage(存储器)组成,tracker和storage都可以做集群,其中storage做集群时每个节点是一个组,节点间是横向扩容关系,而每个组里的多台服务器之间是主备关系。

源码地址:https://github.com/happyfish100/

下载地址:http://sourceforge.net/projects/fastdfs/files/

官方论坛:http://bbs.chinaunix.net/forum-240-1.html

安装

这里用2台服务器安装:

192.168.128.130安装tracker,192.168.128.131安装storage

都用root账号

一、跟踪器服务器tracker和存储服务器storage都安装的

1、安装依赖包

yum -y install make cmake gcc gcc-c++

2、安装libfastcommon

libfastcommon-master.zip分别到2台服务器的/usr/local/src目录

解压:

cd /usr/local/src/

unzip libfastcommon-master.zip

 

安装:

cd libfastcommon-master

./make.sh

./make.sh install

 

(安装到了/usr/lib64/libfastcommon.so和/usr/lib64/libfdfsclient.so)

 

创建软连接

ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so

ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so

ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so

ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so

 

因为 FastDFS 主程序设置的 lib 目录是/usr/local/lib,所以需要创建软链接

3、安装 FastDFS

FastDFS_v5.05.tar.gz放到/usr/local/src

解压:

cd /usr/local/src/

tar -zxvf FastDFS_v5.05.tar.gz

cd FastDFS

./make.sh

./make.sh install

 

修改配置:

vim /etc/init.d/fdfs_trackerd

使用查找替换命令进统一修改

:%s+/usr/local/bin+/usr/bin

 

vim /etc/init.d/fdfs_storaged

使用查找替换命令进统一修改:%s+/usr/local/bin+/usr/bin

:%s+/usr/local/bin+/usr/bin

二、配置 FastDFS 跟踪器(192.168.128.130)

1、编辑跟踪器配置文件

cd /etc/fdfs/

cp tracker.conf.sample tracker.conf

vim /etc/fdfs/tracker.conf

修改的内容如下:

disabled=false

port=22122

base_path=/fastdfs/tracker

2、创建基础数据目录(参考基础目录 base_path 配置):

mkdir -p /fastdfs/tracker

 

3、 防火墙中打开跟踪器端口(默认为 22122):

vim /etc/sysconfig/iptables

添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT

重启防火墙:

service iptables restart

4、启动:

/etc/init.d/fdfs_trackerd start

初次成功启动,会在/fastdfs/tracker 目录下创建 data、logs 两个目录

查看 FastDFS Tracker 是否已成功启动:

ps -ef | grep fdfs

5、设置 FastDFS 跟踪器开机启动:

vim /etc/rc.d/rc.local

添加以下内容:

## FastDFS Tracker

/etc/init.d/fdfs_trackerd start

 

三、配置 FastDFS 存储(192.168.128.131)

1、复制 FastDFS 存储器样例配置文件,并重命名,编辑存储器样例配置文件

cd /etc/fdfs/

cp storage.conf.sample storage.conf

 

vim /etc/fdfs/storage.conf

修改的内容如下:

disabled=false

port=23000

base_path=/fastdfs/storage

store_path0=/fastdfs/storage

tracker_server=192.168.128.130:22122

http.server_port=8888

(其它参数保留默认配置,具体配置解释请参考官方文档说明:)

 

2、创建基础数据目录(参考基础目录 base_path 配置):

mkdir -p /fastdfs/storage

 

 

3、防火墙中打开存储器端口(默认为 23000):

# vi /etc/sysconfig/iptables

添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT

重启防火墙:

# service iptables restart

4、启动

/etc/init.d/fdfs_storaged start

初次成功启动,会在/fastdfs/storage 目录下创建 data、logs 两个目录

 

5、设置 FastDFS 存储器开机启动:

# vi /etc/rc.d/rc.local

添加:

## FastDFS Storage

/etc/init.d/fdfs_storaged start

四、文件上传测试(192.168.128.130)

1、修改 Tracker 服务器中的客户端配置文件:

cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf

vim /etc/fdfs/client.conf

base_path=/fastdfs/tracker

tracker_server=192.168.128.130:22122

2、执行如下文件上传命令:

/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/FastDFS_v5.05.tar.gz

返回 ID 号:

 

(能返回以上文件 ID,说明文件上传成功)

 

上传以后在storage上可以看到有文件

 

五、存储节点上安装nginx

引用:

FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 192.168.128.131,上传成功后文件 ID 已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.128.132,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.128.132 上取文件,就会出现文件无法访问的 错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)

 

1、解压fastdfs-nginx-module_v1.16.tar.gz,修改config配置

fastdfs-nginx-module_v1.16.tar.gz 放到/usr/local/src

cd /usr/local/src/

tar -zxvf fastdfs-nginx-module_v1.16.tar.gz

 

cd fastdfs-nginx-module/src

vim config

CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"

修改为:

CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

(注意:这个路径修改是很重要的,不然在 nginx 编译的时候会报错的)

 

2、安装编译 Nginx 所需的依赖包

yum -y install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel

 

3、编译安装 Nginx(添加 fastdfs-nginx-module 模块)

nginx-1.6.2.tar.gz放到/usr/local/src

cd /usr/local/src/

tar -zxvf nginx-1.6.2.tar.gz

cd nginx-1.6.2

./configure --add-module=/usr/local/src/fastdfs-nginx-module/src

make && make install

 

4、修改fastdfs-nginx-module配置文件

复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/

vim /etc/fdfs/mod_fastdfs.conf

 

修改以下配置:

connect_timeout=10

base_path=/tmp

tracker_server=192.168.128.130:22122

storage_server_port=23000

group_name=group1

url_have_group_name = true

store_path0=/fastdfs/storage

 

5、复制 FastDFS 的部分配置文件到/etc/fdfs 目录

cd /usr/local/src/FastDFS/conf

cp http.conf mime.types /etc/fdfs/

 

6、在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录

ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00

 

7、修改nginx配置

vim /usr/local/nginx/conf/nginx.conf

user root;

worker_processes 1;

 

events {

worker_connections 1024;

}

 

 

http {

include mime.types;

default_type application/octet-stream;

 

sendfile on;

keepalive_timeout 65;

 

server {

listen 8888;

server_name localhost;

location ~/group([0-9])/M00 {

alias /fastdfs/storage/data;

ngx_fastdfs_module;

}

 

 

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

}

}

8、防火墙中打开 Nginx 的 8888 端口

vim /etc/sysconfig/iptables

添加:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT

service iptables restart

 

9、启动 Nginx

/usr/local/nginx/sbin/nginx

(重启 Nginx 的命令为:/usr/local/nginx/sbin/nginx -s reload)

 

10、浏览器访问(将文件名替换为上传时返回的)

http://192.168.128.131:8888/group1/M00/00/00/wKiAg1hG4cqAAE1yAAVFOL7FJU4.tar.gz

即可下载文件

六、注意

1、启动要先启跟踪器,再启存储,否则存储启不来。

2、配置详解:http://bbs.chinaunix.net/thread-1941456-1-1.html

3、采用默认安装FastDFS的方式安装,安装后的相应文件与目录:

A、服务脚本在:

/etc/init.d/fdfs_storaged

/etc/init.d/fdfs_tracker

B、配置文件在(样例配置文件):

/etc/fdfs/client.conf.sample

/etc/fdfs/storage.conf.sample

/etc/fdfs/tracker.conf.sample

C、命令工具在/usr/bin/目录下的:

fdfs_appender_test

fdfs_appender_test1

fdfs_append_file

fdfs_crc32

fdfs_delete_file

fdfs_download_file

fdfs_file_info

fdfs_monitor

fdfs_storaged

fdfs_test

fdfs_test1

fdfs_trackerd

fdfs_upload_appender

fdfs_upload_file

stop.sh

restart.sh

4、FastDFS的跟踪器和存储的安装都是一样的,只是配置有差别。

5、千万不要使用 kill -9 命令强杀 FastDFS 进程,否则可能会导致 binlog 数据丢失

七、java客户端操作

官方的客户端在:

https://sourceforge.net/projects/fastdfs/

 

具体使用见fdfs-java-client-demo,maven引入,然后修改fdfs_client.conf的跟踪服务器地址配置。

执行FastDFSTest的main即可上传、下载、删除文件。

 

服务器做集群首先需要解决session共享和文件共享的问题,fastdfs就是解决文件共享的。

 

集群

最下层的storage上安装nginx是为了解决资源同步延迟的问题

tracker上的nginx是为了实现storage节点的负载均衡,请求到tracker节点,然后根据请求路径中的group名字找到组,再根据一个组中所有storage的负载情况选择目标服务器。

 

最上层VIP是Keepalived+Nginx的虚拟IP,目的是对外提供一个统一的访问路径。

 

服务器规划:

这里用

192.168.128.130、192.168.128.131做tracker,

 

192.168.128.132、192.168.128.133、192.168.128.134、192.168.128.135做storage

其中132、133在group1,

134、135在group2

136、137做keepalived代理服务器

 

storage节点的集群配置

安装

6台服务器安装依赖包、libfastcommon等,同第一个步骤一样

tracker配置

2台跟踪器配置同第二个步骤一样。

storage配置

4台存储器配置类似第三个步骤,

 

配置文件:

vim /etc/fdfs/storage.conf

修改的内容如下:

disabled=false #启用配置文件

group_name=group1 #组名(第一组为 group1,第二组为 group2)

port=23000 #storage 的端口号,同一个组的 storage 端口号必须相同

base_path=/fastdfs/storage #设置 storage 的日志目录

store_path0=/fastdfs/storage #存储路径

store_path_count=1 #存储路径个数,需要和 store_path 个数匹配

tracker_server=192.168.128.130:22122 #tracker 服务器的 IP 地址和端口

tracker_server=192.168.128.131:22122 #多个 tracker 直接添加多条配置

http.server_port=8888 #设置 http 端口号

 

区别只是多配了一个tracker_server

启动

启动方式完全一样,先启动tracker,后启动storage

启动完成后在任一storage节点上执行

/usr/bin/fdfs_monitor /etc/fdfs/storage.conf

可查看存储集群节点状态,ACTIVE表示启用的。

上传文件测试

同上面第四步,只是配置两个tracker

vim /etc/fdfs/client.conf

 

base_path=/fastdfs/tracker

tracker_server=192.168.128.130:22122

tracker_server=192.168.128.131:22122

 

执行

/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/FastDFS_v5.05.tar.gz

即可上传文件,得到返回文件路径

group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

 

存储节点上安装nginx

同上面第五步骤,只是5.4配置有差异:

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/

vim /etc/fdfs/mod_fastdfs.conf

 

connect_timeout=10

base_path=/tmp

tracker_server=192.168.128.130:22122

tracker_server=192.168.128.131:22122

storage_server_port=23000

group_name=group1 #第二组配group2

url_have_group_name = true

store_path0=/fastdfs/storage

group_count = 2

[group1]

group_name=group1

storage_server_port=23000

store_path_count=1

store_path0=/fastdfs/storage

[group2]

group_name=group2

storage_server_port=23000

store_path_count=1

store_path0=/fastdfs/storage

 

 

 

group1和group2的storage服务器配置只有group_name不一样

 

 

 

nginx配置:

vim /usr/local/nginx/conf/nginx.conf

user root;

worker_processes 1;

events {

worker_connections 1024;

}

http {

include mime.types;

default_type application/octet-stream;

sendfile on;

keepalive_timeout 65;

server {

listen 8888;

server_name localhost;

location ~/group([0-9])/M00 {

#alias /fastdfs/storage/data;

ngx_fastdfs_module;

}

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

}

}

注意、说明:

A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应,

因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。

B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如/group1/M00/00/00/xxx,

对应的 Nginx 配置为:

location ~/group([0-9])/M00 {

ngx_fastdfs_module;

}

C、如查下载时如发现老报 404,将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。

浏览器访问(将文件名替换为上传时返回的)

http://192.168.128.134:8888/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

或者

http://192.168.128.135:8888/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

tracker节点的集群配置

1、2台跟踪节点安装nginx

yum -y install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel

 

2、ngx_cache_purge-2.3.tar.gz放到/usr/local/src,解压

cd /usr/local/src/

tar -zxvf ngx_cache_purge-2.3.tar.gz

 

3、nginx-1.6.2.tar.gz放到/usr/local/src,编译安装

cd /usr/local/src/

tar -zxvf nginx-1.6.2.tar.gz

cd nginx-1.6.2

./configure --prefix=/usr/local/nginx --add-module=/usr/local/src/ngx_cache_purge-2.3

make && make install

 

 

4、配置nginx

vim /usr/local/nginx/conf/nginx.conf

 

user root;

worker_processes 1;

#error_log logs/error.log;

#error_log logs/error.log notice;

#error_log logs/error.log info;

#pid logs/nginx.pid;

events {

worker_connections 1024;

use epoll;

}

http {

include mime.types;

default_type application/octet-stream;

#log_format main '$remote_addr - $remote_user [$time_local] "$request" '

# '$status $body_bytes_sent "$http_referer" '

# '"$http_user_agent" "$http_x_forwarded_for"';

#access_log logs/access.log main;

sendfile on;

tcp_nopush on;

#keepalive_timeout 0;

keepalive_timeout 65;

#gzip on;

#设置缓存

server_names_hash_bucket_size 128;

client_header_buffer_size 32k;

large_client_header_buffers 4 32k;

client_max_body_size 300m;

proxy_redirect off;

proxy_set_header Host $http_host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_connect_timeout 90;

proxy_send_timeout 90;

proxy_read_timeout 90;

proxy_buffer_size 16k;

proxy_buffers 4 64k;

proxy_busy_buffers_size 128k;

proxy_temp_file_write_size 128k;

#设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限

proxy_cache_path /fastdfs/cache/nginx/proxy_cache levels=1:2

keys_zone=http-cache:200m max_size=1g inactive=30d;

proxy_temp_path /fastdfs/cache/nginx/proxy_cache/tmp;

#设置 group1 的服务器

upstream fdfs_group1 {

server 192.168.128.132:8888 weight=1 max_fails=2 fail_timeout=30s;

server 192.168.128.133:8888 weight=1 max_fails=2 fail_timeout=30s;

}

#设置 group2 的服务器

upstream fdfs_group2 {

server 192.168.128.134:8888 weight=1 max_fails=2 fail_timeout=30s;

server 192.168.128.135:8888 weight=1 max_fails=2 fail_timeout=30s;

}

server {

listen 8000;

server_name localhost;

#charset koi8-r;

#access_log logs/host.access.log main;

#设置 group 的负载均衡参数

location /group1/M00 {

proxy_next_upstream http_502 http_504 error timeout invalid_header;

proxy_cache http-cache;

proxy_cache_valid 200 304 12h;

proxy_cache_key $uri$is_args$args;

proxy_pass http://fdfs_group1;

expires 30d;

}

location /group2/M00 {

proxy_next_upstream http_502 http_504 error timeout invalid_header;

proxy_cache http-cache;

proxy_cache_valid 200 304 12h;

proxy_cache_key $uri$is_args$args;

proxy_pass http://fdfs_group2;

expires 30d;

}

#设置清除缓存的访问权限

location ~/purge(/.*) {

allow 127.0.0.1;

allow 192.168.1.0/24;

deny all;

proxy_cache_purge http-cache $1$is_args$args;

}

#error_page 404 /404.html;

# redirect server error pages to the static page /50x.html

#

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

}

}

 

5、创建对应缓存目录

mkdir -p /fastdfs/cache/nginx/proxy_cache

mkdir -p /fastdfs/cache/nginx/proxy_cache/tmp

 

6、防火墙开端口

vi /etc/sysconfig/iptables

## Nginx

-A INPUT -m state --state NEW -m tcp -p tcp --dport 8000 -j ACCEPT

service iptables restart

 

7、启动nginx

/usr/local/nginx/sbin/nginx

 

8、测试访问

以前通过存储节点访问的文件,如:

http://192.168.128.134:8888/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

现在可以通过tracker节点访问:

http://192.168.128.130:8000/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

或者

http://192.168.128.131:8000/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

并且tracker会根据负载情况自动选择134或者135,实现负载均衡。

keepalived代理服务器集群配置

1、按照《Keepalived+Nginx实现负载均衡.rtf》配置方式在136、137上配置,并测试通过。

2、修改136和137的nginx配置,将代理服务器上的请求映射到tracker节点上,并实现tracker节点的负载均衡。

vim /usr/local/nginx/conf/nginx.conf

 

user root;

worker_processes 1;

#error_log logs/error.log;

#error_log logs/error.log notice;

#error_log logs/error.log info;

#pid logs/nginx.pid;

events {

worker_connections 1024;

}

http {

include mime.types;

default_type application/octet-stream;

#log_format main '$remote_addr - $remote_user [$time_local] "$request" '

# '$status $body_bytes_sent "$http_referer" '

# '"$http_user_agent" "$http_x_forwarded_for"';

#access_log logs/access.log main;

sendfile on;

#tcp_nopush on;

#keepalive_timeout 0;

keepalive_timeout 65;

#gzip on;

## FastDFS Tracker Proxy

upstream fastdfs_tracker {

server 192.168.128.130:8000 weight=1 max_fails=2 fail_timeout=30s;

server 192.168.128.131:8000 weight=1 max_fails=2 fail_timeout=30s;

}

server {

listen 88;

server_name localhost;

#charset koi8-r;

#access_log logs/host.access.log main;

location / {

root html;

index index.html index.htm;

}

#error_page 404 /404.html;

# redirect server error pages to the static page /50x.html

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

## FastDFS Proxy

location /dfs {

root html;

index index.html index.htm;

proxy_pass http://fastdfs_tracker/;

proxy_set_header Host $http_host;

proxy_set_header Cookie $http_cookie;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_set_header X-Forwarded-Proto $scheme;

client_max_body_size 300m;

}

}

}

 

3、重启代理服务器的nginx

/usr/local/nginx/sbin/nginx -s reload

 

4、测试访问文件(对外统一了地址)

http://192.168.128.199:88/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

 

测试直接使用代理服务器的ip也可以访问

http://192.168.128.136:88/dfs/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

http://192.168.128.137:88/dfs/group2/M00/00/00/wKiAh1hZ9tuAcC5iAAVFOL7FJU4.tar.gz

 

posted @ 2020-12-16 10:11  吴克兢  阅读(322)  评论(0)    收藏  举报