对一致性 Hash 算法,Java 代码实现的深入研究

本贴最后更新于 2696 天前,其中的信息可能已经水流花落

一致性 Hash 算法 原文

关于一致性 Hash 算法,在我之前的博文中已经有多次提到了,MemCache 超详细解读一文中"一致性 Hash 算法"部分,对于为什么要使用一致性 Hash 算法、一致性 Hash 算法的算法原理做了详细的解读。

算法的具体原理这里再次贴上:

先构造一个长度为 232 的整数环(这个环被称为一致性 Hash 环),根据节点名称的 Hash 值(其分布为[0, 232-1])将服务器节点放置在这个 Hash 环上,然后根据数据的 Key 值计算得到其 Hash 值(其分布也为[0, 232-1]),接着在 Hash 环上顺时针查找距离这个 Key 值的 Hash 值最近的服务器节点,完成 Key 到服务器的映射查找。

这种算法解决了普通余数 Hash 算法伸缩性差的问题,可以保证在上线、下线服务器的情况下尽量有多的请求命中原来路由到的服务器。

当然,万事不可能十全十美,一致性 Hash 算法比普通的余数 Hash 算法更具有伸缩性,但是同时其算法实现也更为复杂,本文就来研究一下,如何利用 Java 代码实现一致性 Hash 算法。在开始之前,先对一致性 Hash 算法中的几个核心问题进行一些探究。

数据结构的选取

一致性 Hash 算法最先要考虑的一个问题是:构造出一个长度为 232 的整数环,根据节点名称的 Hash 值将服务器节点放置在这个 Hash 环上。

那么,整数环应该使用何种数据结构,才能使得运行时的时间复杂度最低?首先说明一点,关于时间复杂度,常见的时间复杂度与时间效率的关系有如下的经验规则:

O(1) < O(log2N) < O(n) < O(N * log2N) < O(N2) < O(N3) < 2N < 3N < N!

一般来说,前四个效率比较高,中间两个差强人意,后三个比较差(只要 N 比较大,这个算法就动不了了)。OK,继续前面的话题,应该如何选取数据结构,我认为有以下几种可行的解决方案。

1、解决方案一:排序 +List

我想到的第一种思路是:算出所有待加入数据结构的节点名称的 Hash 值放入一个数组中,然后使用某种排序算法将其从小到大进行排序,最后将排序后的数据放入 List 中,采用 List 而不是数组是为了结点的扩展考虑。

之后,待路由的结点,只需要在 List 中找到第一个 Hash 值比它大的服务器节点就可以了,比如服务器节点的 Hash 值是[0,2,4,6,8,10],带路由的结点是 7,只需要找到第一个比 7 大的整数,也就是 8,就是我们最终需要路由过去的服务器节点。

如果暂时不考虑前面的排序,那么这种解决方案的时间复杂度:

(1)最好的情况是第一次就找到,时间复杂度为 O(1)

(2)最坏的情况是最后一次才找到,时间复杂度为 O(N)

平均下来时间复杂度为 O(0.5N+0.5),忽略首项系数和常数,时间复杂度为 O(N)。

但是如果考虑到之前的排序,我在网上找了张图,提供了各种排序算法的时间复杂度:

看得出来,排序算法要么稳定但是时间复杂度高、要么时间复杂度低但不稳定,看起来最好的归并排序法的时间复杂度仍然有 O(N * logN),稍微耗费性能了一些。

2、解决方案二:遍历 +List

既然排序操作比较耗性能,那么能不能不排序?可以的,所以进一步的,有了第二种解决方案。

解决方案使用 List 不变,不过可以采用遍历的方式:

(1)服务器节点不排序,其 Hash 值全部直接放入一个 List 中

(2)带路由的节点,算出其 Hash 值,由于指明了"顺时针",因此遍历 List,比待路由的节点 Hash 值大的算出差值并记录,比待路由节点 Hash 值小的忽略

(3)算出所有的差值之后,最小的那个,就是最终需要路由过去的节点

在这个算法中,看一下时间复杂度:

1、最好情况是只有一个服务器节点的 Hash 值大于带路由结点的 Hash 值,其时间复杂度是 O(N)+O(1)=O(N+1),忽略常数项,即 O(N)

2、最坏情况是所有服务器节点的 Hash 值都大于带路由结点的 Hash 值,其时间复杂度是 O(N)+O(N)=O(2N),忽略首项系数,即 O(N)

所以,总的时间复杂度就是 O(N)。其实算法还能更改进一些:给一个位置变量 X,如果新的差值比原差值小,X 替换为新的位置,否则 X 不变。这样遍历就减少了一轮,不过经过改进后的算法时间复杂度仍为 O(N)。

总而言之,这个解决方案和解决方案一相比,总体来看,似乎更好了一些。

3、解决方案三:二叉查找树

抛开 List 这种数据结构,另一种数据结构则是使用二叉查找树。对于树不是很清楚的朋友可以简单看一下这篇文章树形结构

当然我们不能简单地使用二叉查找树,因为可能出现不平衡的情况。平衡二叉查找树有 AVL 树、红黑树等,这里使用红黑树,选用红黑树的原因有两点:

1、红黑树主要的作用是用于存储有序的数据,这其实和第一种解决方案的思路又不谋而合了,但是它的效率非常高

2、JDK 里面提供了红黑树的代码实现 TreeMap 和 TreeSet

另外,以 TreeMap 为例,TreeMap 本身提供了一个 tailMap(K fromKey)方法,支持从红黑树中查找比 fromKey 大的值的集合,但并不需要遍历整个数据结构。

使用红黑树,可以使得查找的时间复杂度降低为 O(logN),比上面两种解决方案,效率大大提升。

为了验证这个说法,我做了一次测试,从大量数据中查找第一个大于其中间值的那个数据,比如 10000 数据就找第一个大于 5000 的数据(模拟平均的情况)。看一下 O(N)时间复杂度和 O(logN)时间复杂度运行效率的对比:

| | 50000 | 100000 | 500000 | 1000000 | 4000000 |
| ArrayList | 1ms | 1ms | 4ms | 4ms | 5ms |
| LinkedList | 4ms | 7ms | 11ms | 13ms | 17ms |
| TreeMap | 0ms | 0ms | 0ms | 0ms | 0ms |

因为再大就内存溢出了,所以只测试到 4000000 数据。可以看到,数据查找的效率,TreeMap 是完胜的,其实再增大数据测试也是一样的,红黑树的数据结构决定了任何一个大于 N 的最小数据,它都只需要几次至几十次查找就可以查到。

当然,明确一点,有利必有弊,根据我另外一次测试得到的结论是,为了维护红黑树,数据插入效率 TreeMap 在三种数据结构里面是最差的,且插入要慢上 5~10 倍

Hash 值重新计算

服务器节点我们肯定用字符串来表示,比如"192.168.1.1"、"192.168.1.2",根据字符串得到其 Hash 值,那么另外一个重要的问题就是 Hash 值要重新计算,这个问题是我在测试 String 的 hashCode()方法的时候发现的,不妨来看一下为什么要重新计算 Hash 值:

/** * String 的 hashCode()方法运算结果查看

  • @author 五月的仓颉 http://www.cnblogs.com/xrq730/
  • */
    public class StringHashCodeTest
    { public static void main(String[] args)
    {
    System.out.println("192.168.0.0:111 的哈希值:" + "192.168.0.0:1111".hashCode());
    System.out.println("192.168.0.1:111 的哈希值:" + "192.168.0.1:1111".hashCode());
    System.out.println("192.168.0.2:111 的哈希值:" + "192.168.0.2:1111".hashCode());
    System.out.println("192.168.0.3:111 的哈希值:" + "192.168.0.3:1111".hashCode());
    System.out.println("192.168.0.4:111 的哈希值:" + "192.168.0.4:1111".hashCode());
    }
    }

我们在做集群的时候,集群点的 IP 以这种连续的形式存在是很正常的。看一下运行结果为:

192.168.0.0:111 的哈希值:1845870087
192.168.0.1:111 的哈希值:1874499238
192.168.0.2:111 的哈希值:1903128389
192.168.0.3:111 的哈希值:1931757540
192.168.0.4:111 的哈希值:1960386691

这个就问题大了,[0,232-1]的区间之中,5 个 HashCode 值却只分布在这么小小的一个区间,什么概念?[0,232-1]中有 4294967296 个数字,而我们的区间只有 114516604,从概率学上讲这将导致 97% 待路由的服务器都被路由到"192.168.0.0"这个集群点上,简直是糟糕透了!

另外还有一个不好的地方:规定的区间是非负数,String 的 hashCode()方法却会产生负数(不信用"192.168.1.0:1111"试试看就知道了)。不过这个问题好解决,取绝对值就是一种解决的办法。

综上,String 重写的 hashCode()方法在一致性 Hash 算法中没有任何实用价值,得找个算法重新计算 HashCode。这种重新计算 Hash 值的算法有很多,比如 CRC32_HASH、FNV1_32_HASH、KETAMA_HASH 等,其中 KETAMA_HASH 是默认的 MemCache 推荐的一致性 Hash 算法,用别的 Hash 算法也可以,比如 FNV1_32_HASH 算法的计算效率就会高一些。

一致性 Hash 算法实现版本 1:不带虚拟节点

使用一致性 Hash 算法,尽管增强了系统的伸缩性,但是也有可能导致负载分布不均匀,解决办法就是使用虚拟节点代替真实节点,第一个代码版本,先来个简单的,不带虚拟节点。

下面来看一下不带虚拟节点的一致性 Hash 算法的 Java 代码实现:

1 /**
2 * 不带虚拟节点的一致性 Hash 算法
3 * @author 五月的仓颉 http://www.cnblogs.com/xrq730/ 4 *
5 /
6 public class ConsistentHashingWithoutVirtualNode 7 {
8 /
*
9 * 待添加入 Hash 环的服务器列表 10 /
11 private static String[] servers = {"192.168.0.0:111", "192.168.0.1:111", "192.168.0.2:111", 12 "192.168.0.3:111", "192.168.0.4:111"}; 13
14 /
*
15 * key 表示服务器的 hash 值,value 表示服务器的名称 16 /
17 private static SortedMap sortedMap =
18 new TreeMap(); 19
20 /
*
21 * 程序初始化,将所有的服务器放入 sortedMap 中 22 /
23 static
24 { 25 for (int i = 0; i < servers.length; i++) 26 { 27 int hash = getHash(servers[i]); 28 System.out.println("[" + servers[i] + "]加入集合中, 其 Hash 值为" + hash); 29 sortedMap.put(hash, servers[i]); 30 } 31 System.out.println(); 32 } 33
34 /
*
35 * 使用 FNV1_32_HASH 算法计算服务器的 Hash 值,这里不使用重写 hashCode 的方法,最终效果没区别 36 /
37 private static int getHash(String str) 38 { 39 final int p = 16777619; 40 int hash = (int)2166136261L; 41 for (int i = 0; i < str.length(); i++) 42 hash = (hash ^ str.charAt(i)) * p; 43 hash += hash << 13; 44 hash ^= hash >> 7; 45 hash += hash << 3; 46 hash ^= hash >> 17; 47 hash += hash << 5; 48
49 // 如果算出来的值为负数则取其绝对值
50 if (hash < 0) 51 hash = Math.abs(hash); 52 return hash; 53 } 54
55 /
*
56 * 得到应当路由到的结点 57 */
58 private static String getServer(String node) 59 { 60 // 得到带路由的结点的 Hash 值
61 int hash = getHash(node); 62 // 得到大于该 Hash 值的所有 Map
63 SortedMap subMap =
64 sortedMap.tailMap(hash); 65 // 第一个 Key 就是顺时针过去离 node 最近的那个结点
66 Integer i = subMap.firstKey(); 67 // 返回对应的服务器名称
68 return subMap.get(i); 69 } 70
71 public static void main(String[] args) 72 { 73 String[] nodes = {"127.0.0.1:1111", "221.226.0.1:2222", "10.211.0.1:3333"}; 74 for (int i = 0; i < nodes.length; i++) 75 System.out.println("[" + nodes[i] + "]的 hash 值为" +
76 getHash(nodes[i]) + ", 被路由到结点[" + getServer(nodes[i]) + "]"); 77 } 78 }

可以运行一下看一下结果:

[192.168.0.0:111]加入集合中, 其 Hash 值为 575774686
[192.168.0.1:111]加入集合中, 其 Hash 值为 8518713
[192.168.0.2:111]加入集合中, 其 Hash 值为 1361847097
[192.168.0.3:111]加入集合中, 其 Hash 值为 1171828661
[192.168.0.4:111]加入集合中, 其 Hash 值为 1764547046

[127.0.0.1:1111]的 hash 值为 380278925, 被路由到结点[192.168.0.0:111]
[221.226.0.1:2222]的 hash 值为 1493545632, 被路由到结点[192.168.0.4:111]
[10.211.0.1:3333]的 hash 值为 1393836017, 被路由到结点[192.168.0.4:111]

看到经过 FNV1_32_HASH 算法重新计算过后的 Hash 值,就比原来 String 的 hashCode()方法好多了。从运行结果来看,也没有问题,三个点路由到的都是顺时针离他们 Hash 值最近的那台服务器上。

使用虚拟节点来改善一致性 Hash 算法

上面的一致性 Hash 算法实现,可以在很大程度上解决很多分布式环境下不好的路由算法导致系统伸缩性差的问题,但是会带来另外一个问题:负载不均。

比如说有 Hash 环上有 A、B、C 三个服务器节点,分别有 100 个请求会被路由到相应服务器上。现在在 A 与 B 之间增加了一个节点 D,这导致了原来会路由到 B 上的部分节点被路由到了 D 上,这样 A、C 上被路由到的请求明显多于 B、D 上的,原来三个服务器节点上均衡的负载被打破了。某种程度上来说,这失去了负载均衡的意义,因为负载均衡的目的本身就是为了使得目标服务器均分所有的请求

解决这个问题的办法是引入虚拟节点,其工作原理是:将一个物理节点拆分为多个虚拟节点,并且同一个物理节点的虚拟节点尽量均匀分布在 Hash 环上。采取这样的方式,就可以有效地解决增加或减少节点时候的负载不均衡的问题。

至于一个物理节点应该拆分为多少虚拟节点,下面可以先看一张图:

横轴表示需要为每台福利服务器扩展的虚拟节点倍数,纵轴表示的是实际物理服务器数。可以看出,物理服务器很少,需要更大的虚拟节点;反之物理服务器比较多,虚拟节点就可以少一些。比如有 10 台物理服务器,那么差不多需要为每台服务器增加 100~200 个虚拟节点才可以达到真正的负载均衡。

一致性 Hash 算法实现版本 2:带虚拟节点

在理解了使用虚拟节点来改善一致性 Hash 算法的理论基础之后,就可以尝试开发代码了。编程方面需要考虑的问题是:

1、一个真实结点如何对应成为多个虚拟节点?

2、虚拟节点找到后如何还原为真实结点?

这两个问题其实有很多解决办法,我这里使用了一种简单的办法,给每个真实结点后面根据虚拟节点加上后缀再取 Hash 值,比如"192.168.0.0:111"就把它变成"192.168.0.0:111&&VN0"到"192.168.0.0:111&&VN4",VN 就是 Virtual Node 的缩写,还原的时候只需要从头截取字符串到"&&"的位置就可以了。

下面来看一下带虚拟节点的一致性 Hash 算法的 Java 代码实现:

1 /**
2 * 带虚拟节点的一致性 Hash 算法
3 * @author 五月的仓颉 http://www.cnblogs.com/xrq730/
4 /
5 public class ConsistentHashingWithVirtualNode 6 {
7 /
*
8 * 待添加入 Hash 环的服务器列表
9 /
10 private static String[] servers = {"192.168.0.0:111", "192.168.0.1:111", "192.168.0.2:111", 11 "192.168.0.3:111", "192.168.0.4:111"}; 12
13 /
*
14 * 真实结点列表,考虑到服务器上线、下线的场景,即添加、删除的场景会比较频繁,这里使用 LinkedList 会更好 15 /
16 private static List realNodes = new LinkedList(); 17
18 /
*
19 * 虚拟节点,key 表示虚拟节点的 hash 值,value 表示虚拟节点的名称 20 /
21 private static SortedMap virtualNodes =
22 new TreeMap(); 23
24 /
*
25 * 虚拟节点的数目,这里写死,为了演示需要,一个真实结点对应 5 个虚拟节点 26 /
27 private static final int VIRTUAL_NODES = 5; 28
29 static
30 { 31 // 先把原始的服务器添加到真实结点列表中
32 for (int i = 0; i < servers.length; i++) 33 realNodes.add(servers[i]); 34
35 // 再添加虚拟节点,遍历 LinkedList 使用 foreach 循环效率会比较高
36 for (String str : realNodes) 37 { 38 for (int i = 0; i < VIRTUAL_NODES; i++) 39 { 40 String virtualNodeName = str + "&&VN" + String.valueOf(i); 41 int hash = getHash(virtualNodeName); 42 System.out.println("虚拟节点[" + virtualNodeName + "]被添加, hash 值为" + hash); 43 virtualNodes.put(hash, virtualNodeName); 44 } 45 } 46 System.out.println(); 47 } 48
49 /
*
50 * 使用 FNV1_32_HASH 算法计算服务器的 Hash 值,这里不使用重写 hashCode 的方法,最终效果没区别 51 /
52 private static int getHash(String str) 53 { 54 final int p = 16777619; 55 int hash = (int)2166136261L; 56 for (int i = 0; i < str.length(); i++) 57 hash = (hash ^ str.charAt(i)) * p; 58 hash += hash << 13; 59 hash ^= hash >> 7; 60 hash += hash << 3; 61 hash ^= hash >> 17; 62 hash += hash << 5; 63
64 // 如果算出来的值为负数则取其绝对值
65 if (hash < 0) 66 hash = Math.abs(hash); 67 return hash; 68 } 69
70 /
*
71 * 得到应当路由到的结点 72 */
73 private static String getServer(String node) 74 { 75 // 得到带路由的结点的 Hash 值
76 int hash = getHash(node); 77 // 得到大于该 Hash 值的所有 Map
78 SortedMap subMap =
79 virtualNodes.tailMap(hash); 80 // 第一个 Key 就是顺时针过去离 node 最近的那个结点
81 Integer i = subMap.firstKey(); 82 // 返回对应的虚拟节点名称,这里字符串稍微截取一下
83 String virtualNode = subMap.get(i); 84 return virtualNode.substring(0, virtualNode.indexOf("&&")); 85 } 86
87 public static void main(String[] args) 88 { 89 String[] nodes = {"127.0.0.1:1111", "221.226.0.1:2222", "10.211.0.1:3333"}; 90 for (int i = 0; i < nodes.length; i++) 91 System.out.println("[" + nodes[i] + "]的 hash 值为" +
92 getHash(nodes[i]) + ", 被路由到结点[" + getServer(nodes[i]) + "]"); 93 } 94 }

关注一下运行结果:

虚拟节点[192.168.0.0:111&&VN0]被添加, hash 值为 1686427075
虚拟节点[192.168.0.0:111&&VN1]被添加, hash 值为 354859081
虚拟节点[192.168.0.0:111&&VN2]被添加, hash 值为 1306497370
虚拟节点[192.168.0.0:111&&VN3]被添加, hash 值为 817889914
虚拟节点[192.168.0.0:111&&VN4]被添加, hash 值为 396663629
虚拟节点[192.168.0.1:111&&VN0]被添加, hash 值为 1032739288
虚拟节点[192.168.0.1:111&&VN1]被添加, hash 值为 707592309
虚拟节点[192.168.0.1:111&&VN2]被添加, hash 值为 302114528
虚拟节点[192.168.0.1:111&&VN3]被添加, hash 值为 36526861
虚拟节点[192.168.0.1:111&&VN4]被添加, hash 值为 848442551
虚拟节点[192.168.0.2:111&&VN0]被添加, hash 值为 1452694222
虚拟节点[192.168.0.2:111&&VN1]被添加, hash 值为 2023612840
虚拟节点[192.168.0.2:111&&VN2]被添加, hash 值为 697907480
虚拟节点[192.168.0.2:111&&VN3]被添加, hash 值为 790847074
虚拟节点[192.168.0.2:111&&VN4]被添加, hash 值为 2010506136
虚拟节点[192.168.0.3:111&&VN0]被添加, hash 值为 891084251
虚拟节点[192.168.0.3:111&&VN1]被添加, hash 值为 1725031739
虚拟节点[192.168.0.3:111&&VN2]被添加, hash 值为 1127720370
虚拟节点[192.168.0.3:111&&VN3]被添加, hash 值为 676720500
虚拟节点[192.168.0.3:111&&VN4]被添加, hash 值为 2050578780
虚拟节点[192.168.0.4:111&&VN0]被添加, hash 值为 586921010
虚拟节点[192.168.0.4:111&&VN1]被添加, hash 值为 184078390
虚拟节点[192.168.0.4:111&&VN2]被添加, hash 值为 1331645117
虚拟节点[192.168.0.4:111&&VN3]被添加, hash 值为 918790803
虚拟节点[192.168.0.4:111&&VN4]被添加, hash 值为 1232193678

[127.0.0.1:1111]的 hash 值为 380278925, 被路由到结点[192.168.0.0:111]
[221.226.0.1:2222]的 hash 值为 1493545632, 被路由到结点[192.168.0.0:111]
[10.211.0.1:3333]的 hash 值为 1393836017, 被路由到结点[192.168.0.2:111]

从代码运行结果看,每个点路由到的服务器都是 Hash 值顺时针离它最近的那个服务器节点,没有任何问题。

通过采取虚拟节点的方法,一个真实结点不再固定在 Hash 换上的某个点,而是大量地分布在整个 Hash 环上,这样即使上线、下线服务器,也不会造成整体的负载不均衡。

后记

在写本文的时候,很多知识我也是边写边学,难免有很多写得不好、理解得不透彻的地方,而且代码整体也比较糙,未有考虑到可能的各种情况。抛砖引玉,一方面,写得不对的地方,还望网友朋友们指正;另一方面,后续我也将通过自己的工作、学习不断完善上面的代码。

**==================================================================================

我不能保证写的每个地方都是对的,但是至少能保证不复制、不黏贴,保证每一句话、每一行代码都经过了认真的推敲、仔细的斟酌。每一篇文章的背后,希望都能看到自己对于技术、对于生活的态度。

我相信乔布斯说的,只有那些疯狂到认为自己可以改变世界的人才能真正地改变世界。面对压力,我可以挑灯夜战、不眠不休;面对困难,我愿意迎难而上、永不退缩。

**其实我想说的是,我只是一个程序员,这就是我现在纯粹人生的全部。

==================================================================================****

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • 智能合约

    智能合约(Smart contract)是一种旨在以信息化方式传播、验证或执行合同的计算机协议。智能合约允许在没有第三方的情况下进行可信交易,这些交易可追踪且不可逆转。智能合约概念于 1994 年由 Nick Szabo 首次提出。

    1 引用 • 11 回帖 • 8 关注
  • 招聘

    哪里都缺人,哪里都不缺人。

    189 引用 • 1056 回帖
  • SSL

    SSL(Secure Sockets Layer 安全套接层),及其继任者传输层安全(Transport Layer Security,TLS)是为网络通信提供安全及数据完整性的一种安全协议。TLS 与 SSL 在传输层对网络连接进行加密。

    69 引用 • 190 回帖 • 475 关注
  • IBM

    IBM(国际商业机器公司)或万国商业机器公司,简称 IBM(International Business Machines Corporation),总公司在纽约州阿蒙克市。1911 年托马斯·沃森创立于美国,是全球最大的信息技术和业务解决方案公司,拥有全球雇员 30 多万人,业务遍及 160 多个国家和地区。

    16 引用 • 53 回帖 • 131 关注
  • 阿里云

    阿里云是阿里巴巴集团旗下公司,是全球领先的云计算及人工智能科技公司。提供云服务器、云数据库、云安全等云计算服务,以及大数据、人工智能服务、精准定制基于场景的行业解决方案。

    89 引用 • 345 回帖 • 2 关注
  • IDEA

    IDEA 全称 IntelliJ IDEA,是一款 Java 语言开发的集成环境,在业界被公认为最好的 Java 开发工具之一。IDEA 是 JetBrains 公司的产品,这家公司总部位于捷克共和国的首都布拉格,开发人员以严谨著称的东欧程序员为主。

    180 引用 • 400 回帖 • 1 关注
  • JWT

    JWT(JSON Web Token)是一种用于双方之间传递信息的简洁的、安全的表述性声明规范。JWT 作为一个开放的标准(RFC 7519),定义了一种简洁的,自包含的方法用于通信双方之间以 JSON 的形式安全的传递信息。

    20 引用 • 15 回帖 • 20 关注
  • 域名

    域名(Domain Name),简称域名、网域,是由一串用点分隔的名字组成的 Internet 上某一台计算机或计算机组的名称,用于在数据传输时标识计算机的电子方位(有时也指地理位置)。

    43 引用 • 208 回帖 • 1 关注
  • Solo

    Solo 是一款小而美的开源博客系统,专为程序员设计。Solo 有着非常活跃的社区,可将文章作为帖子推送到社区,来自社区的回帖将作为博客评论进行联动(具体细节请浏览 B3log 构思 - 分布式社区网络)。

    这是一种全新的网络社区体验,让热爱记录和分享的你不再感到孤单!

    1427 引用 • 10046 回帖 • 472 关注
  • CSS

    CSS(Cascading Style Sheet)“层叠样式表”是用于控制网页样式并允许将样式信息与网页内容分离的一种标记性语言。

    186 引用 • 471 回帖 • 3 关注
  • Chrome

    Chrome 又称 Google 浏览器,是一个由谷歌公司开发的网页浏览器。该浏览器是基于其他开源软件所编写,包括 WebKit,目标是提升稳定性、速度和安全性,并创造出简单且有效率的使用者界面。

    62 引用 • 289 回帖
  • AngularJS

    AngularJS 诞生于 2009 年,由 Misko Hevery 等人创建,后为 Google 所收购。是一款优秀的前端 JS 框架,已经被用于 Google 的多款产品当中。AngularJS 有着诸多特性,最为核心的是:MVC、模块化、自动化双向数据绑定、语义化标签、依赖注入等。2.0 版本后已经改名为 Angular。

    12 引用 • 50 回帖 • 442 关注
  • 支付宝

    支付宝是全球领先的独立第三方支付平台,致力于为广大用户提供安全快速的电子支付/网上支付/安全支付/手机支付体验,及转账收款/水电煤缴费/信用卡还款/AA 收款等生活服务应用。

    29 引用 • 347 回帖 • 2 关注
  • SQLite

    SQLite 是一个进程内的库,实现了自给自足的、无服务器的、零配置的、事务性的 SQL 数据库引擎。SQLite 是全世界使用最为广泛的数据库引擎。

    4 引用 • 7 回帖
  • Redis

    Redis 是一个开源的使用 ANSI C 语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value 数据库,并提供多种语言的 API。从 2010 年 3 月 15 日起,Redis 的开发工作由 VMware 主持。从 2013 年 5 月开始,Redis 的开发由 Pivotal 赞助。

    284 引用 • 248 回帖 • 124 关注
  • Log4j

    Log4j 是 Apache 开源的一款使用广泛的 Java 日志组件。

    20 引用 • 18 回帖 • 23 关注
  • 钉钉

    钉钉,专为中国企业打造的免费沟通协同多端平台, 阿里巴巴出品。

    15 引用 • 67 回帖 • 348 关注
  • DNSPod

    DNSPod 建立于 2006 年 3 月份,是一款免费智能 DNS 产品。 DNSPod 可以为同时有电信、网通、教育网服务器的网站提供智能的解析,让电信用户访问电信的服务器,网通的用户访问网通的服务器,教育网的用户访问教育网的服务器,达到互联互通的效果。

    6 引用 • 26 回帖 • 529 关注
  • Kotlin

    Kotlin 是一种在 Java 虚拟机上运行的静态类型编程语言,由 JetBrains 设计开发并开源。Kotlin 可以编译成 Java 字节码,也可以编译成 JavaScript,方便在没有 JVM 的设备上运行。在 Google I/O 2017 中,Google 宣布 Kotlin 成为 Android 官方开发语言。

    19 引用 • 33 回帖 • 51 关注
  • OpenResty

    OpenResty 是一个基于 NGINX 与 Lua 的高性能 Web 平台,其内部集成了大量精良的 Lua 库、第三方模块以及大多数的依赖项。用于方便地搭建能够处理超高并发、扩展性极高的动态 Web 应用、Web 服务和动态网关。

    17 引用 • 40 关注
  • ngrok

    ngrok 是一个反向代理,通过在公共的端点和本地运行的 Web 服务器之间建立一个安全的通道。

    7 引用 • 63 回帖 • 613 关注
  • 程序员

    程序员是从事程序开发、程序维护的专业人员。

    544 引用 • 3531 回帖
  • Hibernate

    Hibernate 是一个开放源代码的对象关系映射框架,它对 JDBC 进行了非常轻量级的对象封装,使得 Java 程序员可以随心所欲的使用对象编程思维来操纵数据库。

    39 引用 • 103 回帖 • 702 关注
  • Latke

    Latke 是一款以 JSON 为主的 Java Web 框架。

    70 引用 • 533 回帖 • 735 关注
  • 国际化

    i18n(其来源是英文单词 internationalization 的首末字符 i 和 n,18 为中间的字符数)是“国际化”的简称。对程序来说,国际化是指在不修改代码的情况下,能根据不同语言及地区显示相应的界面。

    7 引用 • 26 回帖
  • 安全

    安全永远都不是一个小问题。

    191 引用 • 813 回帖 • 1 关注
  • Lute

    Lute 是一款结构化的 Markdown 引擎,支持 Go 和 JavaScript。

    25 引用 • 191 回帖 • 20 关注