本篇文章是我上级老大所写。 留在这里为了不弄丢。





FastDFS是一款开源的轻量级分布式文件系统

纯C实现,支持Linux, FreeBSD等UNIX系统

类google FS, 不是通用的文件系统,仅仅可以通过专有API訪问,眼下提供了C,Java和PHP API

为互联网应用量身定做,解决大容量文件存储问题,追求高性能和高扩展性

FastDFS能够看做是基于文件的key-value存储系统,称为分布式文件存储服务更为合适





FastDFS提供的功能

upload 上传文件

download 下载文件

delete 删除文件

心得:一个合适的(不须要选择最复杂的,而是最满足自己的需求。复杂的自己由于理解问题,导致无法掌控。当在出现一些突发性问题时,由于无法及时解决导致灾难性的后果)文件系统须要符合什么样的哲学,或者说应该使用什么样的设计理念?





一个好的分布式文件系统最好提供Nginx的模块,由于对于互联网应用来说,象文件这样的静态资源,通常是通过HTTP的下载,此时通过easy扩展的Nginx来訪问Fastdfs,可以让文件的上传和下载变得特别简单。另外,站点型应用在互联网领域中的比例是很高,因此PHP这样的语言作为很成熟,性能也全然可以让人惬意的站点开发语言,提供对应的扩展,也是很重要的。所以在应用领域上,Fastdfs是很合适的。





文件系统天生是静态资源,因此象可改动或者可追加的文件看起来就没有太大的意义了。文件属性也最好不要支持,由于能够通过文件扩展名和尺寸等属性,通过附加在文件名上,来避免出现存储属性的信息。另外,通过加入属性支持,还不如用其它的东西, 比如redis等来支持,以避免让此分布式文件系统变得很复杂。













之所以说FastDFS简单,在于其架构中,仅仅有两种角色,一个是storage, 一个是tracker。但从实现上讲,实际上有三个模块:tracker, storage和fastdfs client。fastdfs纯粹是协议的解析,以及一些简单的策略。关键还是在于tracker和storage。





在设计FastDFS时,除了如上的哲学外,非常重要的就是上传,下载,以及删除。以及怎样实现同步,以便实现真正的分布式,否则的话这样和普通的单机文件系统就没有什么差别了。





假设是我们自己来设计一下分布式的文件系统,假设我们要上传。那么,必定要面临着以下的一些选择:

上传到哪里去?难道由client来指定上传的server吗?

仅仅上传一台server够吗?

上传后是原样保存吗?(chunk server比較危急,没有把握不要去做)

对于多IDC怎样考虑?

对于使用者来说,当须要上传文件的时候,他/她关心什么?





1- 上传的文件必须真实地保留着,不可以有不论什么的加工。尽管chunk server之类的看起来不错,可是对于中小型组织来说,一旦由于一些技术性的bug,会导致chunk server破坏掉原来的文件内容,风险比較大

2- 上传成功后,可以立刻返回文件名,并依据文件名立即完整地下载。原始文件名我们不关心(假设须要关心,比如象论坛的附件,可以在数据库中保存这些信息,而不应该交给DFS来处理)。这种优点在于DFS可以更加灵活和高效,比如可以在文件名中增加非常多的附属信息,比如图片的尺寸等。

3- 上传后的文件不可以是单点,一定要有备份,以防止文件丢失

4- 对于一些热点文件,希望可以做到保证尽可能高速地大量訪问





上面的需求事实上是比較简单的。首先让我们回到最原始的时代,即磁盘来保存文件。在这个时代,当我们须要管理文件的时候,通常我们都是在单机的磁盘上创建一个文件夹,然后在此文件夹以下存放文件。由于用户往往文件名是非常任意的,所以使用用户指定的文件名可能会错误地覆盖其它的文件。因此,在处理的时候,绝对不可以使用用户指定的名称,这是分析后得到的第一个结论。





假设用户上传文件后,分配一个文件名(详细文件名的分配策略以后再考虑),那么假设全部的文件都存储在同一个文件夹以下,在做文件夹项的遍历时将很麻烦。依据网上的资料,一般单文件夹下的文件个数一般限制不能够超过3万;相同的,一个文件夹以下的文件夹数也最好不要超过这个数。但实际上,为了安全考虑,一般都不要存储这么多的内容。假定,一个文件夹以下,存储1000个文件,每一个文件的平均大小为10KB,则单文件夹以下可存储的容量是10MB。这个容量太小了,所以我们要多个文件夹,假定有1000个文件夹,每一个文件夹存储10MB,则能够存储10GB的内容;这对于眼下磁盘的容量来说,利用率还是不够的。我们再想办法,转成两级文件夹,这种话,就是第一层文件夹有1000个子文件夹,每一级子文件夹以下又有1000级的二级子文件夹,每一个二级子文件夹,能够存储10MB的内容,此时就能够存储10T的内容,这基本上超过了眼下单机磁盘的容量大小了。所以,使用二级子文件夹的办法,是平衡存储性能和利用存储容量的办法。





这样子的话,就回到了上面的问题,假设我们開始仅仅做一个单机版的基于文件系统的存储服务,假如提供TCP的服务(不基于HTTP,由于HTTP的负载比太低)。非常easy,client须要知道存储server的地址和port。然后,指定要上传的文件内容;server收到了文件内容后,怎样选择要存储在哪个文件夹下呢?这个选择要保证均衡性,即尽量保证文件可以均匀地分散在全部的文件夹下。





负载均衡性非常重要的就是哈希,比如,在PHP中经常使用的md5,其返回一个32个字符,即16字节的输出,即128位。哈希后要变成桶,才可以分布,自然就有了例如以下的问题:





1- 怎样得到哈希值?md5还是SHA1

2- 哈希值得到后,怎样构造哈希桶

3- 依据文件名怎样定位哈希桶





首先来回答第3个问题,依据文件名怎样定位哈希桶。非常easy,此时我们仅仅有一个文件名作为输入,首先要计算哈希值,仅仅有一个办法了,就是依据文件名来得到哈希值。这个函数能够用整个文件名作为哈希的输入,也能够依据文件名的一部分来完毕。结合上面说的两级文件夹,并且每级文件夹不要超过1000.非常easy,假设用32位的字符输出后,能够取出实现上来说,因为文件上传是防止唯一性,所以假设依据文件内容来产生哈希,则比較好的办法就是截取当中的4位,比如:





md5sum fdfs_storaged.pid

52edc4a5890adc59cec82cb60f8af691 fdfs_storaged.pid





上面,这个fdfs_storage.pid中,取出最前面的4个字符,即52和ed。这种话,假如52是一级文件夹的名称,ed是二级文件夹的名称。由于每一个字符有16个取值,所以第一级文件夹就有16 * 16 = 256个。总共就有256 * 256 = 65526个文件夹。假设每一个文件夹以下存放1000个文件,每一个文件30KB,都能够有1966G,即2TB左右。这种话,足够我们用好。假设用三个字符,即52e作为一级文件夹,dc4作为二级文件夹,这样子的文件夹数有4096,太多了。所以,取二个字符比較好。





这种话,上面的第2和第3个问题就攻克了,依据文件名来得到md5,然后取4个字符,前面的2个字符作为一级文件夹名称,后面的2个字符作为二级文件夹的名称。server上,使用一个专门的文件夹来作为我们的存储根文件夹,然后以下建立这么多子文件夹,自然就非常easy了。





这些文件夹能够在初始化的时候创建出来,而不用在存储文件的时候才建立。





或许你会问,一个文件夹应该不够吧,实际上非常多的便宜机器一般都配置2块硬盘,一块是操作系统盘,一块是数据盘。然后这个数据盘挂在一个文件夹以下,以这个文件夹作为我们的存储根文件夹就好了。这样也能够非常大程度上降低运维的难度。





如今就剩下最后一个问题了,就是上传文件时候,怎样分配一个唯一的文件名,避免同曾经的文件产生覆盖。





假设没有变量作为输入,非常显然,仅仅可以採用类似于计数器的方式,即一个counter,每次加一个文件就增量。但这种方式会要求维护一个持久化的counter,这样比較麻烦。最好不要有历史状态的纪录。





string md5 ( string $str [, bool $raw_output = false ] )

Calculates the MD5 hash of str using the » RSA Data Security, Inc. MD5 Message-Digest Algorithm, and returns that hash.





raw_output

If the optional raw_output is set to TRUE, then the md5 digest is instead returned in raw binary format with a length of 16.

Return Values ¶





Returns the hash as a 32-character hexadecimal number.





为了尽可能地生成唯一的文件名,能够使用文件长度(假如是100MB的话,对应的整型可能会是4个字节,即不超过2^32, 即uint32_t,仅仅要程序代码中检查一下就可以)。可是长度并不能够保证唯一,为了填充尽可能实用的信息,CRC32也是非常重要的,这样下载程序后,不用做额外的交互就能够知道文件的内容是否正确。一旦发现有问题,立刻要报警,而且想办法修复。这种话,上传的时候也要注意带上CRC32,以防止在网络传输和实际的硬盘存储过程中出现故障(文件的完整性至关重要)。再加上时间戳,即long型的64位,8个字节。最后再加上计数器,由于这个计数器由storage提供,这种话,整个结构就是:len
+ crc32 + timestamp + uint32_t = 4 + 4 + 8 + 4 = 20个字节,这样生成的文件名称就算做base64计算出来,也就不是什么大问题了。并且,加上计数器,每秒内仅仅要单机不上传超过1万的文件 ,就都不是问题了。这个还是很好解决的。





// TODO 怎样避免文件反复上传? md5吗? 还是文件的计算能够避免此问题?这个信息存储在trackerserver中吗?

FastDFS中给我们一个很好的样例,请參考以下的代码:

// 參考FastDFS的文件名生成算法

/**
1 byte: store path index
8 bytes: file size
FDFS_FILE_EXT_NAME_MAX_LEN bytes: file ext name, do not include dot (.)
file size bytes: file content
**/
static int storage_upload_file(struct fast_task_info *pTask, bool bAppenderFile)
{
StorageClientInfo *pClientInfo;
StorageFileContext *pFileContext;
DisconnectCleanFunc clean_func;
char *p;
char filename[128];
char file_ext_name[FDFS_FILE_PREFIX_MAX_LEN + 1];
int64_t nInPackLen;
int64_t file_offset;
int64_t file_bytes;
int crc32;
int store_path_index;
int result;
int filename_len;
pClientInfo = (StorageClientInfo *)pTask->arg;
pFileContext = &(pClientInfo->file_context);
nInPackLen = pClientInfo->total_length - sizeof(TrackerHeader);
if (nInPackLen < 1 + FDFS_PROTO_PKG_LEN_SIZE +
FDFS_FILE_EXT_NAME_MAX_LEN)
{
logError("file: "__FILE__", line: %d, " \
"cmd=%d, client ip: %s, package size " \
"%"PRId64" is not correct, " \
"expect length >= %d", __LINE__, \
STORAGE_PROTO_CMD_UPLOAD_FILE, \
pTask->client_ip, nInPackLen, \
1 + FDFS_PROTO_PKG_LEN_SIZE + \
FDFS_FILE_EXT_NAME_MAX_LEN);
return EINVAL;
}
p = pTask->data + sizeof(TrackerHeader);
store_path_index = *p++;
if (store_path_index == -1)
{
if ((result=storage_get_storage_path_index( \
&store_path_index)) != 0)
{
logError("file: "__FILE__", line: %d, " \
"get_storage_path_index fail, " \
"errno: %d, error info: %s", __LINE__, \
result, STRERROR(result));
return result;
}
}
else if (store_path_index < 0 || store_path_index >= \
g_fdfs_store_paths.count)
{
logError("file: "__FILE__", line: %d, " \
"client ip: %s, store_path_index: %d " \
"is invalid", __LINE__, \
pTask->client_ip, store_path_index);
return EINVAL;
}
file_bytes = buff2long(p);
p += FDFS_PROTO_PKG_LEN_SIZE;
if (file_bytes < 0 || file_bytes != nInPackLen - \
(1 + FDFS_PROTO_PKG_LEN_SIZE + \
FDFS_FILE_EXT_NAME_MAX_LEN))
{
logError("file: "__FILE__", line: %d, " \
"client ip: %s, pkg length is not correct, " \
"invalid file bytes: %"PRId64 \
", total body length: %"PRId64, \
__LINE__, pTask->client_ip, file_bytes, nInPackLen);
return EINVAL;
}
memcpy(file_ext_name, p, FDFS_FILE_EXT_NAME_MAX_LEN);
*(file_ext_name + FDFS_FILE_EXT_NAME_MAX_LEN) = '\0';
p += FDFS_FILE_EXT_NAME_MAX_LEN;
if ((result=fdfs_validate_filename(file_ext_name)) != 0)
{
logError("file: "__FILE__", line: %d, " \
"client ip: %s, file_ext_name: %s " \
"is invalid!", __LINE__, \
pTask->client_ip, file_ext_name);
return result;
}
pFileContext->calc_crc32 = true;
pFileContext->calc_file_hash = g_check_file_duplicate;
pFileContext->extra_info.upload.start_time = g_current_time;
strcpy(pFileContext->extra_info.upload.file_ext_name, file_ext_name);
storage_format_ext_name(file_ext_name, \
pFileContext->extra_info.upload.formatted_ext_name);
pFileContext->extra_info.upload.trunk_info.path. \
store_path_index = store_path_index;
pFileContext->extra_info.upload.file_type = _FILE_TYPE_REGULAR;
pFileContext->sync_flag = STORAGE_OP_TYPE_SOURCE_CREATE_FILE;
pFileContext->timestamp2log = pFileContext->extra_info.upload.start_time;
pFileContext->op = FDFS_STORAGE_FILE_OP_WRITE;
if (bAppenderFile)
{
pFileContext->extra_info.upload.file_type |= \
_FILE_TYPE_APPENDER;
}
else
{
if (g_if_use_trunk_file && trunk_check_size( \
TRUNK_CALC_SIZE(file_bytes)))
{
pFileContext->extra_info.upload.file_type |= \
_FILE_TYPE_TRUNK;
}
}
if (pFileContext->extra_info.upload.file_type & _FILE_TYPE_TRUNK)
{
FDFSTrunkFullInfo *pTrunkInfo;
pFileContext->extra_info.upload.if_sub_path_alloced = true;
pTrunkInfo = &(pFileContext->extra_info.upload.trunk_info);
if ((result=trunk_client_trunk_alloc_space( \
TRUNK_CALC_SIZE(file_bytes), pTrunkInfo)) != 0)
{
return result;
}
clean_func = dio_trunk_write_finish_clean_up;
file_offset = TRUNK_FILE_START_OFFSET((*pTrunkInfo));
pFileContext->extra_info.upload.if_gen_filename = true;
trunk_get_full_filename(pTrunkInfo, pFileContext->filename, \
sizeof(pFileContext->filename));
pFileContext->extra_info.upload.before_open_callback = \
dio_check_trunk_file_when_upload;
pFileContext->extra_info.upload.before_close_callback = \
dio_write_chunk_header;
pFileContext->open_flags = O_RDWR | g_extra_open_file_flags;
}
else
{
char reserved_space_str[32];
if (!storage_check_reserved_space_path(g_path_space_list \
[store_path_index].total_mb, g_path_space_list \
[store_path_index].free_mb - (file_bytes/FDFS_ONE_MB), \
g_avg_storage_reserved_mb))
{
logError("file: "__FILE__", line: %d, " \
"no space to upload file, "
"free space: %d MB is too small, file bytes: " \
"%"PRId64", reserved space: %s", \
__LINE__, g_path_space_list[store_path_index].\
free_mb, file_bytes, \
fdfs_storage_reserved_space_to_string_ex( \
g_storage_reserved_space.flag, \
g_avg_storage_reserved_mb, \
g_path_space_list[store_path_index]. \
total_mb, g_storage_reserved_space.rs.ratio,\
reserved_space_str));
return ENOSPC;
}
crc32 = rand();
*filename = '\0';
filename_len = 0;
pFileContext->extra_info.upload.if_sub_path_alloced = false;
if ((result=storage_get_filename(pClientInfo, \
pFileContext->extra_info.upload.start_time, \
file_bytes, crc32, pFileContext->extra_info.upload.\
formatted_ext_name, filename, &filename_len, \
pFileContext->filename)) != 0)
{
return result;
}
clean_func = dio_write_finish_clean_up;
file_offset = 0;
pFileContext->extra_info.upload.if_gen_filename = true;
pFileContext->extra_info.upload.before_open_callback = NULL;
pFileContext->extra_info.upload.before_close_callback = NULL;
pFileContext->open_flags = O_WRONLY | O_CREAT | O_TRUNC \
| g_extra_open_file_flags;
}
return storage_write_to_file(pTask, file_offset, file_bytes, \
p - pTask->data, dio_write_file, \
storage_upload_file_done_callback, \
clean_func, store_path_index);
} static int storage_get_filename(StorageClientInfo *pClientInfo, \
const int start_time, const int64_t file_size, const int crc32, \
const char *szFormattedExt, char *filename, \
int *filename_len, char *full_filename)
{
int i;
int result;
int store_path_index;
store_path_index = pClientInfo->file_context.extra_info.upload.
trunk_info.path.store_path_index;
for (i=0; i<10; i++)
{
if ((result=storage_gen_filename(pClientInfo, file_size, \
crc32, szFormattedExt, FDFS_FILE_EXT_NAME_MAX_LEN+1, \
start_time, filename, filename_len)) != 0)
{
return result;
}
sprintf(full_filename, "%s/data/%s", \
g_fdfs_store_paths.paths[store_path_index], filename);
if (!fileExists(full_filename))
{
break;
}
*full_filename = '\0';
}
if (*full_filename == '\0')
{
logError("file: "__FILE__", line: %d, " \
"Can't generate uniq filename", __LINE__);
*filename = '\0';
*filename_len = 0;
return ENOENT;
}
return 0;
}
static int storage_gen_filename(StorageClientInfo *pClientInfo, \
const int64_t file_size, const int crc32, \
const char *szFormattedExt, const int ext_name_len, \
const time_t timestamp, char *filename, int *filename_len)
{
char buff[sizeof(int) * 5];
char encoded[sizeof(int) * 8 + 1];
int len;
int64_t masked_file_size;
FDFSTrunkFullInfo *pTrunkInfo;
pTrunkInfo = &(pClientInfo->file_context.extra_info.upload.trunk_info);
int2buff(htonl(g_server_id_in_filename), buff);
int2buff(timestamp, buff+sizeof(int));
if ((file_size >> 32) != 0)
{
masked_file_size = file_size;
}
else
{
COMBINE_RAND_FILE_SIZE(file_size, masked_file_size);
}
long2buff(masked_file_size, buff+sizeof(int)*2);
int2buff(crc32, buff+sizeof(int)*4);
base64_encode_ex(&g_fdfs_base64_context, buff, sizeof(int) * 5, encoded, \
filename_len, false);
if (!pClientInfo->file_context.extra_info.upload.if_sub_path_alloced)
{
int sub_path_high;
int sub_path_low;
storage_get_store_path(encoded, *filename_len, \
&sub_path_high, &sub_path_low);
pTrunkInfo->path.sub_path_high = sub_path_high;
pTrunkInfo->path.sub_path_low = sub_path_low;
pClientInfo->file_context.extra_info.upload. \
if_sub_path_alloced = true;
}
len = sprintf(filename, FDFS_STORAGE_DATA_DIR_FORMAT"/" \
FDFS_STORAGE_DATA_DIR_FORMAT"/", \
pTrunkInfo->path.sub_path_high,
pTrunkInfo->path.sub_path_low);
memcpy(filename+len, encoded, *filename_len);
memcpy(filename+len+(*filename_len), szFormattedExt, ext_name_len);
*filename_len += len + ext_name_len;
*(filename + (*filename_len)) = '\0';
return 0;
}

回头来看一下我们的问题:





1- 怎样得到哈希值?md5还是SHA1

2- 哈希值得到后,怎样构造哈希桶

3- 依据文件名怎样定位哈希桶





依据上面分析的结果,我们看到,当上传一个文件的时候,我们会获取到例如以下的信息





1- 文件的大小(通过协议中包的长度字段能够知道,这种优点在于服务端实现的时候简单,不用过于操心网络缓冲区的问题)

2- CRC32(也是协议包中传输,以便确定网络传输是否出错)

3- 时间戳(获取server的当前时间)

4- 计数器(server自己维护)





依据上面的4个数据,组织成base64的编码,然后生成此文件名。依据此文件名的唯一性,就不会出现被覆盖的情况。同一时候,唯一性也使得接下来做md5运算后,得到的HASH值离散性得么保证。得到了MD5的哈希值后,取出最前面的2部分,就能够知道要定位到哪个文件夹以下去。哈希桶的构造是固定的,即二级00-ff的文件夹情况。

FastDFS概要的更多相关文章

  1. FastDFS:Java客户都实现文件的上传、下载、修改、删除

    客户端版本:fastdfs_client_v1.24.jar 配置文件 connect_timeout = 200 network_timeout = 3000 charset = UTF-8 htt ...

  2. 分布式FastDFS集群部署

    FastDFS FastDFS的作者余庆在其 GitHub 上是这样描述的:"FastDFS is an open source high performance distributed f ...

  3. .Net 分布式云平台基础服务建设说明概要

    1)  背景 建设云平台的基础框架,用于支持各类云服务的业务的构建及发展. 2)  基础服务 根据目前对业务的理解和发展方向,总结抽象出以下几个基础服务,如图所示 3)  概要说明 基础服务的发展会根 ...

  4. 前端MVC学习总结(一)——MVC概要与angular概要、模板与数据绑定

    一.前端MVC概要 1.1.库与框架的区别 框架是一个软件的半成品,在全局范围内给了大的约束.库是工具,在单点上给我们提供功能.框架是依赖库的.AngularJS是框架而jQuery则是库. 1.2. ...

  5. 【架构设计】分布式文件系统 FastDFS的原理和安装使用

    本文地址 分享提纲: 1.概述 2. 原理 3. 安装 4. 使用 5. 参考文档 1. 概述 1.1)[常见文件系统] Google了一下,流行的开源分布式文件系统有很多,介绍如下:   -- mo ...

  6. FASTDFS调研报告(V1.0)

    之前的文章,现在放出来,以供参阅. 一.fastdfs简介 FastDFS是一个轻量级的开源分布式文件系统 FastDFS主要解决了大容量的文件存储和高并发访问的问题,文件存取时实现了负载均衡 Fas ...

  7. HTML5 学习总结(一)——HTML5概要与新增标签

    一.HTML5概要 1.1.为什么需要HTML5 HTML4陈旧不能满足日益发展的互联网需要,特别是移动互联网.为了增强浏览器功能Flash被广泛使用,但安全与稳定堪忧,不适合在移动端使用(耗电.触摸 ...

  8. CSS3与页面布局学习总结(一)——概要、选择器、特殊性与刻度单位

    web前端开发者最最注的内容是三个:HTML.CSS与JavaScript,他们分别在不同方面发挥自己的作用,HTML实现页面结构,CSS完成页面的表现与风格,JavaScript实现一些客户端的功能 ...

  9. 网站文件系统发展&&分布式文件系统fastDFS

    网站文件系统发展 1.单机时代的图片服务器架构 初创时期由于时间紧迫,开发人员水平也很有限等原因.所以通常就直接在website文件所在的目录下,建立1个upload子目录,用于保存用户上传的图片文件 ...

随机推荐

  1. oschina程序开发

    程序开发 102脚本编程语言 36地图相关 7Epub电子图书工具 109UI组件库 16代码生成工具 25SVG开发包 17推荐引擎 3指纹识别 23拼音转换工具包 24蓝牙开发 295GUI开发框 ...

  2. 使用GridView来获取xml文件数据

    在任何一个系统中,数据的读取和编辑都是至关重要的.无论你是CS还是BS,都需要对数据进行操作.其实 我们可以发现,很多软件和系统最终都是对于数据库中数据的处理.之前在CS的学习过程中我们接触到了很多 ...

  3. HDU 1432 Lining Up (POJ 1118)

    枚举,枚举点 复杂度为n^3. 还能够枚举边的,n*n*log(n). POJ 1118 要推断0退出. #include<cstdio> #include<cstring> ...

  4. ArduinoYun教程之配置Arduino Yun环境

    ArduinoYun教程之配置Arduino Yun环境 配置Arduino Yun 不管你使用前面介绍的哪种方式连接Arduino Yun.如今都能够配置你的Arduino Yun了.首先须要的是使 ...

  5. linux路由表配置

    一.原理说明 1.路由表(table)从0到255进行编号,每个编号可以对应一个别名,编号和别名的对应关系在linux下放在/etc/iproute2/rt_tables这个文件里,一般0编号的tab ...

  6. PS图片

    第二次练习PS,不知道找什么图片,就这么做着吧.然后自己学习了下动画制作,但是中间有些问题,需要再研究研究. 像 CS6中新建蒙版文档,画出的图形单位是厘米,怎么改为像素?(答案看后续博客....)

  7. activity入门2

    1.如何获取其他应用的包名和类名? 点击和查看logcat第一条信息2.第二步Intent intent = new Intent();intent.setClassName("com.an ...

  8. 字符串处理-AC自动机

    估计在OJ上刷过题的都会对AC自动机这个名词很感兴趣,同样,记得去年ACM暑期集训的时候,在最后讲到字符串部分,听说了这个算法的名字之后就对于它心向往之,AC正好是Accept的简称,字面意义上的理解 ...

  9. 《音乐商店》第4集:自动生成StoreManager控制器

    一.自动生成StoreManager控制器 二.查看 StoreManager 控制器的代码 现在,Store Manager 控制器中已经包含了一定数量的代码,我们从头到尾重新过一下. 1.访问数据 ...

  10. Rfc2898DeriveBytes解密如何通过java实现

    原文 Rfc2898DeriveBytes解密如何通过java实现 这个找了半天,还是不太懂,密码一点不懂,直接上来问了 Rfc2898DeriveBytes对应的是PBKDF2WithHmacSHA ...