对一致性 Hash 算法,Java 代码实现的深入研究

本贴最后更新于 2818 天前,其中的信息可能已经水流花落

一致性 Hash 算法 原文

关于一致性 Hash 算法,在我之前的博文中已经有多次提到了,MemCache 超详细解读一文中"一致性 Hash 算法"部分,对于为什么要使用一致性 Hash 算法、一致性 Hash 算法的算法原理做了详细的解读。

算法的具体原理这里再次贴上:

先构造一个长度为 232 的整数环(这个环被称为一致性 Hash 环),根据节点名称的 Hash 值(其分布为[0, 232-1])将服务器节点放置在这个 Hash 环上,然后根据数据的 Key 值计算得到其 Hash 值(其分布也为[0, 232-1]),接着在 Hash 环上顺时针查找距离这个 Key 值的 Hash 值最近的服务器节点,完成 Key 到服务器的映射查找。

这种算法解决了普通余数 Hash 算法伸缩性差的问题,可以保证在上线、下线服务器的情况下尽量有多的请求命中原来路由到的服务器。

当然,万事不可能十全十美,一致性 Hash 算法比普通的余数 Hash 算法更具有伸缩性,但是同时其算法实现也更为复杂,本文就来研究一下,如何利用 Java 代码实现一致性 Hash 算法。在开始之前,先对一致性 Hash 算法中的几个核心问题进行一些探究。

数据结构的选取

一致性 Hash 算法最先要考虑的一个问题是:构造出一个长度为 232 的整数环,根据节点名称的 Hash 值将服务器节点放置在这个 Hash 环上。

那么,整数环应该使用何种数据结构,才能使得运行时的时间复杂度最低?首先说明一点,关于时间复杂度,常见的时间复杂度与时间效率的关系有如下的经验规则:

O(1) < O(log2N) < O(n) < O(N * log2N) < O(N2) < O(N3) < 2N < 3N < N!

一般来说,前四个效率比较高,中间两个差强人意,后三个比较差(只要 N 比较大,这个算法就动不了了)。OK,继续前面的话题,应该如何选取数据结构,我认为有以下几种可行的解决方案。

1、解决方案一:排序 +List

我想到的第一种思路是:算出所有待加入数据结构的节点名称的 Hash 值放入一个数组中,然后使用某种排序算法将其从小到大进行排序,最后将排序后的数据放入 List 中,采用 List 而不是数组是为了结点的扩展考虑。

之后,待路由的结点,只需要在 List 中找到第一个 Hash 值比它大的服务器节点就可以了,比如服务器节点的 Hash 值是[0,2,4,6,8,10],带路由的结点是 7,只需要找到第一个比 7 大的整数,也就是 8,就是我们最终需要路由过去的服务器节点。

如果暂时不考虑前面的排序,那么这种解决方案的时间复杂度:

(1)最好的情况是第一次就找到,时间复杂度为 O(1)

(2)最坏的情况是最后一次才找到,时间复杂度为 O(N)

平均下来时间复杂度为 O(0.5N+0.5),忽略首项系数和常数,时间复杂度为 O(N)。

但是如果考虑到之前的排序,我在网上找了张图,提供了各种排序算法的时间复杂度:

看得出来,排序算法要么稳定但是时间复杂度高、要么时间复杂度低但不稳定,看起来最好的归并排序法的时间复杂度仍然有 O(N * logN),稍微耗费性能了一些。

2、解决方案二:遍历 +List

既然排序操作比较耗性能,那么能不能不排序?可以的,所以进一步的,有了第二种解决方案。

解决方案使用 List 不变,不过可以采用遍历的方式:

(1)服务器节点不排序,其 Hash 值全部直接放入一个 List 中

(2)带路由的节点,算出其 Hash 值,由于指明了"顺时针",因此遍历 List,比待路由的节点 Hash 值大的算出差值并记录,比待路由节点 Hash 值小的忽略

(3)算出所有的差值之后,最小的那个,就是最终需要路由过去的节点

在这个算法中,看一下时间复杂度:

1、最好情况是只有一个服务器节点的 Hash 值大于带路由结点的 Hash 值,其时间复杂度是 O(N)+O(1)=O(N+1),忽略常数项,即 O(N)

2、最坏情况是所有服务器节点的 Hash 值都大于带路由结点的 Hash 值,其时间复杂度是 O(N)+O(N)=O(2N),忽略首项系数,即 O(N)

所以,总的时间复杂度就是 O(N)。其实算法还能更改进一些:给一个位置变量 X,如果新的差值比原差值小,X 替换为新的位置,否则 X 不变。这样遍历就减少了一轮,不过经过改进后的算法时间复杂度仍为 O(N)。

总而言之,这个解决方案和解决方案一相比,总体来看,似乎更好了一些。

3、解决方案三:二叉查找树

抛开 List 这种数据结构,另一种数据结构则是使用二叉查找树。对于树不是很清楚的朋友可以简单看一下这篇文章树形结构

当然我们不能简单地使用二叉查找树,因为可能出现不平衡的情况。平衡二叉查找树有 AVL 树、红黑树等,这里使用红黑树,选用红黑树的原因有两点:

1、红黑树主要的作用是用于存储有序的数据,这其实和第一种解决方案的思路又不谋而合了,但是它的效率非常高

2、JDK 里面提供了红黑树的代码实现 TreeMap 和 TreeSet

另外,以 TreeMap 为例,TreeMap 本身提供了一个 tailMap(K fromKey)方法,支持从红黑树中查找比 fromKey 大的值的集合,但并不需要遍历整个数据结构。

使用红黑树,可以使得查找的时间复杂度降低为 O(logN),比上面两种解决方案,效率大大提升。

为了验证这个说法,我做了一次测试,从大量数据中查找第一个大于其中间值的那个数据,比如 10000 数据就找第一个大于 5000 的数据(模拟平均的情况)。看一下 O(N)时间复杂度和 O(logN)时间复杂度运行效率的对比:

| | 50000 | 100000 | 500000 | 1000000 | 4000000 |
| ArrayList | 1ms | 1ms | 4ms | 4ms | 5ms |
| LinkedList | 4ms | 7ms | 11ms | 13ms | 17ms |
| TreeMap | 0ms | 0ms | 0ms | 0ms | 0ms |

因为再大就内存溢出了,所以只测试到 4000000 数据。可以看到,数据查找的效率,TreeMap 是完胜的,其实再增大数据测试也是一样的,红黑树的数据结构决定了任何一个大于 N 的最小数据,它都只需要几次至几十次查找就可以查到。

当然,明确一点,有利必有弊,根据我另外一次测试得到的结论是,为了维护红黑树,数据插入效率 TreeMap 在三种数据结构里面是最差的,且插入要慢上 5~10 倍

Hash 值重新计算

服务器节点我们肯定用字符串来表示,比如"192.168.1.1"、"192.168.1.2",根据字符串得到其 Hash 值,那么另外一个重要的问题就是 Hash 值要重新计算,这个问题是我在测试 String 的 hashCode()方法的时候发现的,不妨来看一下为什么要重新计算 Hash 值:

/** * String 的 hashCode()方法运算结果查看

  • @author 五月的仓颉 http://www.cnblogs.com/xrq730/
  • */
    public class StringHashCodeTest
    { public static void main(String[] args)
    {
    System.out.println("192.168.0.0:111 的哈希值:" + "192.168.0.0:1111".hashCode());
    System.out.println("192.168.0.1:111 的哈希值:" + "192.168.0.1:1111".hashCode());
    System.out.println("192.168.0.2:111 的哈希值:" + "192.168.0.2:1111".hashCode());
    System.out.println("192.168.0.3:111 的哈希值:" + "192.168.0.3:1111".hashCode());
    System.out.println("192.168.0.4:111 的哈希值:" + "192.168.0.4:1111".hashCode());
    }
    }

我们在做集群的时候,集群点的 IP 以这种连续的形式存在是很正常的。看一下运行结果为:

192.168.0.0:111 的哈希值:1845870087
192.168.0.1:111 的哈希值:1874499238
192.168.0.2:111 的哈希值:1903128389
192.168.0.3:111 的哈希值:1931757540
192.168.0.4:111 的哈希值:1960386691

这个就问题大了,[0,232-1]的区间之中,5 个 HashCode 值却只分布在这么小小的一个区间,什么概念?[0,232-1]中有 4294967296 个数字,而我们的区间只有 114516604,从概率学上讲这将导致 97% 待路由的服务器都被路由到"192.168.0.0"这个集群点上,简直是糟糕透了!

另外还有一个不好的地方:规定的区间是非负数,String 的 hashCode()方法却会产生负数(不信用"192.168.1.0:1111"试试看就知道了)。不过这个问题好解决,取绝对值就是一种解决的办法。

综上,String 重写的 hashCode()方法在一致性 Hash 算法中没有任何实用价值,得找个算法重新计算 HashCode。这种重新计算 Hash 值的算法有很多,比如 CRC32_HASH、FNV1_32_HASH、KETAMA_HASH 等,其中 KETAMA_HASH 是默认的 MemCache 推荐的一致性 Hash 算法,用别的 Hash 算法也可以,比如 FNV1_32_HASH 算法的计算效率就会高一些。

一致性 Hash 算法实现版本 1:不带虚拟节点

使用一致性 Hash 算法,尽管增强了系统的伸缩性,但是也有可能导致负载分布不均匀,解决办法就是使用虚拟节点代替真实节点,第一个代码版本,先来个简单的,不带虚拟节点。

下面来看一下不带虚拟节点的一致性 Hash 算法的 Java 代码实现:

1 /**
2 * 不带虚拟节点的一致性 Hash 算法
3 * @author 五月的仓颉 http://www.cnblogs.com/xrq730/ 4 *
5 /
6 public class ConsistentHashingWithoutVirtualNode 7 {
8 /
*
9 * 待添加入 Hash 环的服务器列表 10 /
11 private static String[] servers = {"192.168.0.0:111", "192.168.0.1:111", "192.168.0.2:111", 12 "192.168.0.3:111", "192.168.0.4:111"}; 13
14 /
*
15 * key 表示服务器的 hash 值,value 表示服务器的名称 16 /
17 private static SortedMap sortedMap =
18 new TreeMap(); 19
20 /
*
21 * 程序初始化,将所有的服务器放入 sortedMap 中 22 /
23 static
24 { 25 for (int i = 0; i < servers.length; i++) 26 { 27 int hash = getHash(servers[i]); 28 System.out.println("[" + servers[i] + "]加入集合中, 其 Hash 值为" + hash); 29 sortedMap.put(hash, servers[i]); 30 } 31 System.out.println(); 32 } 33
34 /
*
35 * 使用 FNV1_32_HASH 算法计算服务器的 Hash 值,这里不使用重写 hashCode 的方法,最终效果没区别 36 /
37 private static int getHash(String str) 38 { 39 final int p = 16777619; 40 int hash = (int)2166136261L; 41 for (int i = 0; i < str.length(); i++) 42 hash = (hash ^ str.charAt(i)) * p; 43 hash += hash << 13; 44 hash ^= hash >> 7; 45 hash += hash << 3; 46 hash ^= hash >> 17; 47 hash += hash << 5; 48
49 // 如果算出来的值为负数则取其绝对值
50 if (hash < 0) 51 hash = Math.abs(hash); 52 return hash; 53 } 54
55 /
*
56 * 得到应当路由到的结点 57 */
58 private static String getServer(String node) 59 { 60 // 得到带路由的结点的 Hash 值
61 int hash = getHash(node); 62 // 得到大于该 Hash 值的所有 Map
63 SortedMap subMap =
64 sortedMap.tailMap(hash); 65 // 第一个 Key 就是顺时针过去离 node 最近的那个结点
66 Integer i = subMap.firstKey(); 67 // 返回对应的服务器名称
68 return subMap.get(i); 69 } 70
71 public static void main(String[] args) 72 { 73 String[] nodes = {"127.0.0.1:1111", "221.226.0.1:2222", "10.211.0.1:3333"}; 74 for (int i = 0; i < nodes.length; i++) 75 System.out.println("[" + nodes[i] + "]的 hash 值为" +
76 getHash(nodes[i]) + ", 被路由到结点[" + getServer(nodes[i]) + "]"); 77 } 78 }

可以运行一下看一下结果:

[192.168.0.0:111]加入集合中, 其 Hash 值为 575774686
[192.168.0.1:111]加入集合中, 其 Hash 值为 8518713
[192.168.0.2:111]加入集合中, 其 Hash 值为 1361847097
[192.168.0.3:111]加入集合中, 其 Hash 值为 1171828661
[192.168.0.4:111]加入集合中, 其 Hash 值为 1764547046

[127.0.0.1:1111]的 hash 值为 380278925, 被路由到结点[192.168.0.0:111]
[221.226.0.1:2222]的 hash 值为 1493545632, 被路由到结点[192.168.0.4:111]
[10.211.0.1:3333]的 hash 值为 1393836017, 被路由到结点[192.168.0.4:111]

看到经过 FNV1_32_HASH 算法重新计算过后的 Hash 值,就比原来 String 的 hashCode()方法好多了。从运行结果来看,也没有问题,三个点路由到的都是顺时针离他们 Hash 值最近的那台服务器上。

使用虚拟节点来改善一致性 Hash 算法

上面的一致性 Hash 算法实现,可以在很大程度上解决很多分布式环境下不好的路由算法导致系统伸缩性差的问题,但是会带来另外一个问题:负载不均。

比如说有 Hash 环上有 A、B、C 三个服务器节点,分别有 100 个请求会被路由到相应服务器上。现在在 A 与 B 之间增加了一个节点 D,这导致了原来会路由到 B 上的部分节点被路由到了 D 上,这样 A、C 上被路由到的请求明显多于 B、D 上的,原来三个服务器节点上均衡的负载被打破了。某种程度上来说,这失去了负载均衡的意义,因为负载均衡的目的本身就是为了使得目标服务器均分所有的请求

解决这个问题的办法是引入虚拟节点,其工作原理是:将一个物理节点拆分为多个虚拟节点,并且同一个物理节点的虚拟节点尽量均匀分布在 Hash 环上。采取这样的方式,就可以有效地解决增加或减少节点时候的负载不均衡的问题。

至于一个物理节点应该拆分为多少虚拟节点,下面可以先看一张图:

横轴表示需要为每台福利服务器扩展的虚拟节点倍数,纵轴表示的是实际物理服务器数。可以看出,物理服务器很少,需要更大的虚拟节点;反之物理服务器比较多,虚拟节点就可以少一些。比如有 10 台物理服务器,那么差不多需要为每台服务器增加 100~200 个虚拟节点才可以达到真正的负载均衡。

一致性 Hash 算法实现版本 2:带虚拟节点

在理解了使用虚拟节点来改善一致性 Hash 算法的理论基础之后,就可以尝试开发代码了。编程方面需要考虑的问题是:

1、一个真实结点如何对应成为多个虚拟节点?

2、虚拟节点找到后如何还原为真实结点?

这两个问题其实有很多解决办法,我这里使用了一种简单的办法,给每个真实结点后面根据虚拟节点加上后缀再取 Hash 值,比如"192.168.0.0:111"就把它变成"192.168.0.0:111&&VN0"到"192.168.0.0:111&&VN4",VN 就是 Virtual Node 的缩写,还原的时候只需要从头截取字符串到"&&"的位置就可以了。

下面来看一下带虚拟节点的一致性 Hash 算法的 Java 代码实现:

1 /**
2 * 带虚拟节点的一致性 Hash 算法
3 * @author 五月的仓颉 http://www.cnblogs.com/xrq730/
4 /
5 public class ConsistentHashingWithVirtualNode 6 {
7 /
*
8 * 待添加入 Hash 环的服务器列表
9 /
10 private static String[] servers = {"192.168.0.0:111", "192.168.0.1:111", "192.168.0.2:111", 11 "192.168.0.3:111", "192.168.0.4:111"}; 12
13 /
*
14 * 真实结点列表,考虑到服务器上线、下线的场景,即添加、删除的场景会比较频繁,这里使用 LinkedList 会更好 15 /
16 private static List realNodes = new LinkedList(); 17
18 /
*
19 * 虚拟节点,key 表示虚拟节点的 hash 值,value 表示虚拟节点的名称 20 /
21 private static SortedMap virtualNodes =
22 new TreeMap(); 23
24 /
*
25 * 虚拟节点的数目,这里写死,为了演示需要,一个真实结点对应 5 个虚拟节点 26 /
27 private static final int VIRTUAL_NODES = 5; 28
29 static
30 { 31 // 先把原始的服务器添加到真实结点列表中
32 for (int i = 0; i < servers.length; i++) 33 realNodes.add(servers[i]); 34
35 // 再添加虚拟节点,遍历 LinkedList 使用 foreach 循环效率会比较高
36 for (String str : realNodes) 37 { 38 for (int i = 0; i < VIRTUAL_NODES; i++) 39 { 40 String virtualNodeName = str + "&&VN" + String.valueOf(i); 41 int hash = getHash(virtualNodeName); 42 System.out.println("虚拟节点[" + virtualNodeName + "]被添加, hash 值为" + hash); 43 virtualNodes.put(hash, virtualNodeName); 44 } 45 } 46 System.out.println(); 47 } 48
49 /
*
50 * 使用 FNV1_32_HASH 算法计算服务器的 Hash 值,这里不使用重写 hashCode 的方法,最终效果没区别 51 /
52 private static int getHash(String str) 53 { 54 final int p = 16777619; 55 int hash = (int)2166136261L; 56 for (int i = 0; i < str.length(); i++) 57 hash = (hash ^ str.charAt(i)) * p; 58 hash += hash << 13; 59 hash ^= hash >> 7; 60 hash += hash << 3; 61 hash ^= hash >> 17; 62 hash += hash << 5; 63
64 // 如果算出来的值为负数则取其绝对值
65 if (hash < 0) 66 hash = Math.abs(hash); 67 return hash; 68 } 69
70 /
*
71 * 得到应当路由到的结点 72 */
73 private static String getServer(String node) 74 { 75 // 得到带路由的结点的 Hash 值
76 int hash = getHash(node); 77 // 得到大于该 Hash 值的所有 Map
78 SortedMap subMap =
79 virtualNodes.tailMap(hash); 80 // 第一个 Key 就是顺时针过去离 node 最近的那个结点
81 Integer i = subMap.firstKey(); 82 // 返回对应的虚拟节点名称,这里字符串稍微截取一下
83 String virtualNode = subMap.get(i); 84 return virtualNode.substring(0, virtualNode.indexOf("&&")); 85 } 86
87 public static void main(String[] args) 88 { 89 String[] nodes = {"127.0.0.1:1111", "221.226.0.1:2222", "10.211.0.1:3333"}; 90 for (int i = 0; i < nodes.length; i++) 91 System.out.println("[" + nodes[i] + "]的 hash 值为" +
92 getHash(nodes[i]) + ", 被路由到结点[" + getServer(nodes[i]) + "]"); 93 } 94 }

关注一下运行结果:

虚拟节点[192.168.0.0:111&&VN0]被添加, hash 值为 1686427075
虚拟节点[192.168.0.0:111&&VN1]被添加, hash 值为 354859081
虚拟节点[192.168.0.0:111&&VN2]被添加, hash 值为 1306497370
虚拟节点[192.168.0.0:111&&VN3]被添加, hash 值为 817889914
虚拟节点[192.168.0.0:111&&VN4]被添加, hash 值为 396663629
虚拟节点[192.168.0.1:111&&VN0]被添加, hash 值为 1032739288
虚拟节点[192.168.0.1:111&&VN1]被添加, hash 值为 707592309
虚拟节点[192.168.0.1:111&&VN2]被添加, hash 值为 302114528
虚拟节点[192.168.0.1:111&&VN3]被添加, hash 值为 36526861
虚拟节点[192.168.0.1:111&&VN4]被添加, hash 值为 848442551
虚拟节点[192.168.0.2:111&&VN0]被添加, hash 值为 1452694222
虚拟节点[192.168.0.2:111&&VN1]被添加, hash 值为 2023612840
虚拟节点[192.168.0.2:111&&VN2]被添加, hash 值为 697907480
虚拟节点[192.168.0.2:111&&VN3]被添加, hash 值为 790847074
虚拟节点[192.168.0.2:111&&VN4]被添加, hash 值为 2010506136
虚拟节点[192.168.0.3:111&&VN0]被添加, hash 值为 891084251
虚拟节点[192.168.0.3:111&&VN1]被添加, hash 值为 1725031739
虚拟节点[192.168.0.3:111&&VN2]被添加, hash 值为 1127720370
虚拟节点[192.168.0.3:111&&VN3]被添加, hash 值为 676720500
虚拟节点[192.168.0.3:111&&VN4]被添加, hash 值为 2050578780
虚拟节点[192.168.0.4:111&&VN0]被添加, hash 值为 586921010
虚拟节点[192.168.0.4:111&&VN1]被添加, hash 值为 184078390
虚拟节点[192.168.0.4:111&&VN2]被添加, hash 值为 1331645117
虚拟节点[192.168.0.4:111&&VN3]被添加, hash 值为 918790803
虚拟节点[192.168.0.4:111&&VN4]被添加, hash 值为 1232193678

[127.0.0.1:1111]的 hash 值为 380278925, 被路由到结点[192.168.0.0:111]
[221.226.0.1:2222]的 hash 值为 1493545632, 被路由到结点[192.168.0.0:111]
[10.211.0.1:3333]的 hash 值为 1393836017, 被路由到结点[192.168.0.2:111]

从代码运行结果看,每个点路由到的服务器都是 Hash 值顺时针离它最近的那个服务器节点,没有任何问题。

通过采取虚拟节点的方法,一个真实结点不再固定在 Hash 换上的某个点,而是大量地分布在整个 Hash 环上,这样即使上线、下线服务器,也不会造成整体的负载不均衡。

后记

在写本文的时候,很多知识我也是边写边学,难免有很多写得不好、理解得不透彻的地方,而且代码整体也比较糙,未有考虑到可能的各种情况。抛砖引玉,一方面,写得不对的地方,还望网友朋友们指正;另一方面,后续我也将通过自己的工作、学习不断完善上面的代码。

**==================================================================================

我不能保证写的每个地方都是对的,但是至少能保证不复制、不黏贴,保证每一句话、每一行代码都经过了认真的推敲、仔细的斟酌。每一篇文章的背后,希望都能看到自己对于技术、对于生活的态度。

我相信乔布斯说的,只有那些疯狂到认为自己可以改变世界的人才能真正地改变世界。面对压力,我可以挑灯夜战、不眠不休;面对困难,我愿意迎难而上、永不退缩。

**其实我想说的是,我只是一个程序员,这就是我现在纯粹人生的全部。

==================================================================================****

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • JavaScript

    JavaScript 一种动态类型、弱类型、基于原型的直译式脚本语言,内置支持类型。它的解释器被称为 JavaScript 引擎,为浏览器的一部分,广泛用于客户端的脚本语言,最早是在 HTML 网页上使用,用来给 HTML 网页增加动态功能。

    729 引用 • 1327 回帖
  • Hprose

    Hprose 是一款先进的轻量级、跨语言、跨平台、无侵入式、高性能动态远程对象调用引擎库。它不仅简单易用,而且功能强大。你无需专门学习,只需看上几眼,就能用它轻松构建分布式应用系统。

    9 引用 • 17 回帖 • 611 关注
  • 爬虫

    网络爬虫(Spider、Crawler),是一种按照一定的规则,自动地抓取万维网信息的程序。

    106 引用 • 275 回帖
  • 旅游

    希望你我能在旅途中找到人生的下一站。

    90 引用 • 899 回帖
  • Solidity

    Solidity 是一种智能合约高级语言,运行在 [以太坊] 虚拟机(EVM)之上。它的语法接近于 JavaScript,是一种面向对象的语言。

    3 引用 • 18 回帖 • 399 关注
  • JRebel

    JRebel 是一款 Java 虚拟机插件,它使得 Java 程序员能在不进行重部署的情况下,即时看到代码的改变对一个应用程序带来的影响。

    26 引用 • 78 回帖 • 664 关注
  • Firefox

    Mozilla Firefox 中文俗称“火狐”(正式缩写为 Fx 或 fx,非正式缩写为 FF),是一个开源的网页浏览器,使用 Gecko 排版引擎,支持多种操作系统,如 Windows、OSX 及 Linux 等。

    8 引用 • 30 回帖 • 407 关注
  • MongoDB

    MongoDB(来自于英文单词“Humongous”,中文含义为“庞大”)是一个基于分布式文件存储的数据库,由 C++ 语言编写。旨在为应用提供可扩展的高性能数据存储解决方案。MongoDB 是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。它支持的数据结构非常松散,是类似 JSON 的 BSON 格式,因此可以存储比较复杂的数据类型。

    90 引用 • 59 回帖 • 1 关注
  • Maven

    Maven 是基于项目对象模型(POM)、通过一小段描述信息来管理项目的构建、报告和文档的软件项目管理工具。

    186 引用 • 318 回帖 • 303 关注
  • 微信

    腾讯公司 2011 年 1 月 21 日推出的一款手机通讯软件。用户可以通过摇一摇、搜索号码、扫描二维码等添加好友和关注公众平台,同时可以将自己看到的精彩内容分享到微信朋友圈。

    130 引用 • 793 回帖
  • RESTful

    一种软件架构设计风格而不是标准,提供了一组设计原则和约束条件,主要用于客户端和服务器交互类的软件。基于这个风格设计的软件可以更简洁,更有层次,更易于实现缓存等机制。

    30 引用 • 114 回帖 • 1 关注
  • JSON

    JSON (JavaScript Object Notation)是一种轻量级的数据交换格式。易于人类阅读和编写。同时也易于机器解析和生成。

    52 引用 • 190 回帖
  • 小薇

    小薇是一个用 Java 写的 QQ 聊天机器人 Web 服务,可以用于社群互动。

    由于 Smart QQ 从 2019 年 1 月 1 日起停止服务,所以该项目也已经停止维护了!

    34 引用 • 467 回帖 • 742 关注
  • IDEA

    IDEA 全称 IntelliJ IDEA,是一款 Java 语言开发的集成环境,在业界被公认为最好的 Java 开发工具之一。IDEA 是 JetBrains 公司的产品,这家公司总部位于捷克共和国的首都布拉格,开发人员以严谨著称的东欧程序员为主。

    180 引用 • 400 回帖
  • CSS

    CSS(Cascading Style Sheet)“层叠样式表”是用于控制网页样式并允许将样式信息与网页内容分离的一种标记性语言。

    198 引用 • 550 回帖
  • VirtualBox

    VirtualBox 是一款开源虚拟机软件,最早由德国 Innotek 公司开发,由 Sun Microsystems 公司出品的软件,使用 Qt 编写,在 Sun 被 Oracle 收购后正式更名成 Oracle VM VirtualBox。

    10 引用 • 2 回帖 • 6 关注
  • 黑曜石

    黑曜石是一款强大的知识库工具,支持本地 Markdown 文件编辑,支持双向链接和关系图。

    A second brain, for you, forever.

    15 引用 • 122 回帖
  • CSDN

    CSDN (Chinese Software Developer Network) 创立于 1999 年,是中国的 IT 社区和服务平台,为中国的软件开发者和 IT 从业者提供知识传播、职业发展、软件开发等全生命周期服务,满足他们在职业发展中学习及共享知识和信息、建立职业发展社交圈、通过软件开发实现技术商业化等刚性需求。

    14 引用 • 155 回帖
  • ZooKeeper

    ZooKeeper 是一个分布式的,开放源码的分布式应用程序协调服务,是 Google 的 Chubby 一个开源的实现,是 Hadoop 和 HBase 的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。

    59 引用 • 29 回帖 • 5 关注
  • LeetCode

    LeetCode(力扣)是一个全球极客挚爱的高质量技术成长平台,想要学习和提升专业能力从这里开始,充足技术干货等你来啃,轻松拿下 Dream Offer!

    209 引用 • 72 回帖
  • Ruby

    Ruby 是一种开源的面向对象程序设计的服务器端脚本语言,在 20 世纪 90 年代中期由日本的松本行弘(まつもとゆきひろ/Yukihiro Matsumoto)设计并开发。在 Ruby 社区,松本也被称为马茨(Matz)。

    7 引用 • 31 回帖 • 211 关注
  • 宕机

    宕机,多指一些网站、游戏、网络应用等服务器一种区别于正常运行的状态,也叫“Down 机”、“当机”或“死机”。宕机状态不仅仅是指服务器“挂掉了”、“死机了”状态,也包括服务器假死、停用、关闭等一些原因而导致出现的不能够正常运行的状态。

    13 引用 • 82 回帖 • 53 关注
  • Redis

    Redis 是一个开源的使用 ANSI C 语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value 数据库,并提供多种语言的 API。从 2010 年 3 月 15 日起,Redis 的开发工作由 VMware 主持。从 2013 年 5 月开始,Redis 的开发由 Pivotal 赞助。

    286 引用 • 248 回帖 • 62 关注
  • 大数据

    大数据(big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    93 引用 • 113 回帖
  • 音乐

    你听到信仰的声音了么?

    60 引用 • 511 回帖
  • Sublime

    Sublime Text 是一款可以用来写代码、写文章的文本编辑器。支持代码高亮、自动完成,还支持通过插件进行扩展。

    10 引用 • 5 回帖
  • 学习

    “梦想从学习开始,事业从实践起步” —— 习近平

    169 引用 • 506 回帖