基于 Kafka 的消息中间件的综述与使用示例 - 中间件结课小论文

本贴最后更新于 1193 天前,其中的信息可能已经沧海桑田

1.摘要

本文简要概述了 Kafka 的由来,并详细说明了 Kafka 的架构和设计原则。在充分了解了 Kafka 相关原理的基础上,尝试使用虚拟机搭建了一个单机多实例的 Kafka 及其所需的 Zookeeper 集群。最后在已有集群基础上整合 Spring Boot,构建了一个简易的 Kafka 使用用例。
2.研究现状
近年来,随着信息技术与互联网应用的不断发展,全球数据总量也在呈现爆炸式的增长,大数据时代即将来临[1]。任何大型互联网公司都会产生大量的“日志”数据,如社交网站中登录、浏览、点击、喜欢、分享、评论以及网络服务本身的调用栈、调用延迟、错误报告以及一些机器运行指标数据。这些数据被越来越多的用到线上业务,实现诸如基于数据驱动的推荐、广告精准投放的功能。传统的企业级消息系统如 activemq,IBM Websphere MQ,Oracle Enterprise Messaging Service,TIBCO Enterprise Message Service 已经存在很长时间了,主要作用是消息总线和异步解耦,但它们并不能无缝适配以上的需求。Apache Kafka 起源于 LinkedIn,后来于 2011 年成为 Apache 开源项目,然后于 2012 年成为 Apache 项目的第一个类别。它是使用 Scala 和 Java 编写的。Apache Kafka,作为一种分布式的消息系统,具有可水平扩展和高吞吐率而被广泛的使用[2]。
3.Kafka 的概念体系和架构
3.1 主要概念和术语
数据源,在用户行为分析中主要是指移动端日志和 web 日志[3]。一个日志记录也称为记录或消息。当向 Kafka 读取或写入数据时,将以事件的形式进行操作。从概念上讲,事件具有键、值、时间戳和可选的元数据标题。下面是一个示例事件:事件的键:“张三”,事件的值:“向李四支付了 200 元”,事件发生的时间戳记录:“2020 年 11 月 29 日,下午 2:06”。
生产者是那些向 Kafka 发布事件的客户端应用程序,而消费者是那些订阅即读取和处理这些事件的客户端应用程序。在 Kafka 中,生产者和消费者之间完全脱钩且彼此不可知,由此 Kafka 实现了高可伸缩性。在传统应用开发中,服务之间通过 HTTP 和 RPC 调用实现通信,造成服务之间存在高耦合、请求易阻塞以及请求无缓冲等缺陷。特别是业务逻辑越发复杂,所需服务数量越多。随着服务规模的不断扩张以及服务请求量的急剧增加,这些缺陷也被不断地放大从而影响着整个系统的性能和稳定性[4]。
Kafka 中的主题始终是多生产者和多用户的:一个主题可以有零个,一个或多个向其写入事件的生产者,以及零个,一个或多个订阅这些事件的使用者。可以根据需要随时读取主题中的事件-与传统的消息传递系统不同,使用后事件不会被删除。相反,您可以通过按主题配置设置来定义 Kafka 将事件保留多长时间,之后旧的事件将被丢弃。Kafka 的性能相对于数据大小实际上是恒定的,因此长时间存储数据是非常好的。
主题分区,这意味着主题分布在位于不同 Kafka Broker 上的多个存储单元中。数据的这种分布式放置对于可伸缩性非常重要,因为它允许客户端应用程序同时从多个 Broker 读取数据或向多个 Broker 写入数据。将新事件发布到主题时,实际上会将其附加到主题的分区之一。具有相同事件密钥,例如,客户 ID 或车辆 ID 的事件被写入相同的分区,并且 Kafka 保证,给定主题分区的任何使用者都将始终以与写入时完全相同的顺序读取该分区的事件。
为了使数据具有容错性和高可用性,在地理区域或数据中心之间,可以复制每个主题,因此,总是有多个代理可以复制数据,以防万一出错。常见的生产设置中复制因子为 3,也就是始终会有三个数据副本。复制将在主题分区级别执行。
3.2 架构体系
Kafka 的架构图(使用 ProcessOn 绘制导出 png 格式)如下:

image.png

Kafka 架构图
Broker: Kafka 作为一个或多个服务器的集群运行,可以跨越多个数据中心或云区域。其中一些服务器构成了存储层,称为代理。其他服务器运行 Kafka Connect 来连续导入和导出数据作为事件流,以将 Kafka 与现有系统集成在一起,例如关系数据库以及其他 Kafka 群集。为了实现关键任务用例,Kafka 群集具有高度的可扩展性和容错能力:如果其任何服务器发生故障,其他服务器将接管其工作,以确保连续运行而不会丢失任何数据。
Consumer/Producer: 用户可以编写分布式应用程序和微服务,即使在网络问题或机器故障的情况下,也可以并行,大规模且以容错的方式读取,写入和处理事件流。Kafka 附带了一些这样的客户端,由 Kafka 社区提供的数十个客户端进行了扩展 :客户端可用于 Java 和 Scala,包括更高级别的 Kafka Streams 库,Go,Python,C / C ++ 和许多其他编程语言以及 REST API。
Topic:相当于传统消息系统 MQ 中的一个队列 queue,producer 端发送的 message 必须指定是发送到哪个 topic 上.在一个大型的应用系统中,可以根据功能的不同,区分不同的 topic(订单的 topic,登录的 topic,金额的 topic 等等)
Partition: 为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。partition 中的每条消息都会被分配一个有序的 id(offset)。kafka 只保证按一个 partition 中的顺序将消息发给 consumer,不保证一个 topic 的整体(多个 partition 间)的顺序。
4.Kafka 的设计原则
4.1 存储设计
Kafka 依赖于文件系统来存储和缓存消息。一个主题的每个分区就是逻辑上的一段消息集合。具体到物理上,为了防止分区文件过大,Kafka 会将其进一步分成数据段。每次数据往最新的数据段中写,写到设定容量后,就会新建一个段文件继续写。此外,为了提高写入性能,Kafka 会将事件记录在内存中进行缓存,只有事件数量达到设定值或者缓存数据的大小达到设定值时,才会将数据写入外存中。为了保证可靠性,只有数据已写入外存后,才会将其通知给消费者。
和传统的消息系统不同,Kafka 在设计时采用了文件追加的方式来写入消息,即只能在段文件的尾部追加新的消息,并且也不允许修改己写入的消息,这种方式属于典型的顺序写盘的操作,顺序写磁盘的速度要比随机写内存的速度更块。每个消费者总是顺序的去消费每个分区的数据。创建 topic 时,Kafka 为该 topic 的每个分区在文件系统中创建一个对应的子目录,名字就是-< 分区号 >。所以倘若有一个 topic 名为 test,有两个分区,那么在文件系统中 kafka 会创建两个子目录:test-0 和 test-1。每个日志子目录的文件都是由若干组分段构成。每个分段中的日志文件以 log 后缀都有两个对应的索引文件:偏移量索引文件(".index"后缀)和时间戳索引文件(以".timeindex"为后缀)。这些索引文件帮助 Broker 更快的定位消息所在的物理文件位置。
4.2 传输设计
网络传输是比较消耗时间和系统资源的,因此 Kafka 在网络传输的设计采取了较多的优化。生产者可以批量传输数据到 Broker,消费者虽然看起来是逐条消费的,但在 API 实现的底层也是批量拉取一定大小的消息供消费者消费。Kafka 在操作系统层面使用页缓存加快磁盘读写,在传统上,一条数据从本地文件送到 socket 上通常包含以下几个过程:
(1)从外存中读入数据到操作系统的页缓存。
(2)从页缓存拷贝数据到应用缓冲区中。
(3)从应用缓冲区拷贝到内核缓冲区。
(4)从内核缓冲区拷贝到 socket。
这些过程涉及四次数据拷贝和两次系统调用,非常浪费资源。在 Linux 操作系统中,存在一个 sendfile 零拷贝技术的 API,能够直接将数据从文件传送到 socket 中。利用此 API,可以省去步骤(2)(3)中引入的两次数据拷贝和一次系统调用,由此使得 Kafka 可以将数据从 Broker 的段文件中高效的传输给消费者,极大提高了系统性能。
4.3 无状态的 Broker
与其他消息队列不同,Kafka 的 Broker 仅提供基于 offset 的读取方式,不会维护各个消费者当前已消费消息的 offset 值,而是由消费者各自维护当前读取的进度。消费者读取数据时告诉 Broker 请求消息的起始 offset 值,Broker 将之后的消息流式发送过去。从而使 Broker 的设计可以相对简化,不用维护过多状态。但是这样做也存在一些问题,Broker 不知道消费者消费到了哪里,也就不知道哪些消息需要被清理。对此,Kafka 使用了一个简单的策略,对消息设定有效期,每个主题可以设置不同的有效期。这个简单的策略适用于绝大多数情况。大量存储和拉取的设计带来的另外一个重要的好处是消费者可以主动选择进行回退消费。这个需求看起来违背了通常消息队列的定义,然而在很多情况下却非常有必要。举例来说,当消费者进程由于错误而挂掉后,可以在恢复后有选择的对挂掉前后的数据重新消费。这对将 ETL 数据导入 Hadoop 等数据仓库之类的场景非常重要。但是对于 Kafka 来说,消费者只需要记住消费到的 offset 即可,下次重启后再从该 offset 后开始拉取。但是对于传统没有大量缓存的消息队列来说,可能这部分数据就永远的丢了。
4.4 分布式协调一致
多个生产者和消费者在分布式环境中的行为,对于生产者,其发送数据时,可以将其随机发送到一个分区所在 Broker;也可以根据 key 以及作用于 key 上的路由函数,将其发送到某特定分区机器 Broker 上。对于消费者,行为稍复杂。
在 Kafka 中,多个消费者或消费者实例可以组成一个消费者组。它们共享一个公共的 ID,即 group ID,组内的所有消费者协调在一起来消费订阅主题的所有分区。对于消费者组的理解需要明白三点:一.消费者组下可以有一个或多个消费者实例,消费者实例可以是一个进程,也可以是一个线程。二是组 ID 是一个字符串,唯一标识一个消费者组。三是消费组下订阅的主题的每个分区只能分配给组内一个消费者。
Kafka 引入了一个高可用的一致性服务 Zookeeper。Zookeeper 的 API 很像文件系统,是以前缀树的形式组织的 KV 也就是键值对,K 键是路径,以’/’来区分层次,V 值可以是任何可序列化的值存储。该 API 支持创建一个路径、给一个路径设置值、读取路径的值、删除一个路径、列出某个路径下所有子节点的值。此外,Zookeeper 还具有以下特性:
(1)客户端可以向某个路径注册一个回调函数,以监听该路径的值或其孩子节点的变动。
(2)路径可以被创建为易失的,即当所有该路径的客户端消失后,该路径及值会被自动的移除。
(3) Zookeeper 使用一致性协议将其数据进行多机备份,使其服务具有高可靠性和高可用性。
Kafka 使用 Zookeeper 完成以下几个任务:
(1)监控 Brokers 和消费者的增删。
(2)当出现 Brokers 或者消费者的增删时,启动消费再平衡任务。
(3)维护消费者的间关系状态,跟踪每个分区的消费偏移量。
具体来说,代理和消费者会将自身元信息注册到 Zookeeper 的注册表中,其中包括:代理的主机名、端口以及在其上的主题和分区。每个消费者组都在 Zookeeper 中有一个相关联的所有权注册表和偏移量注册表。我们将消费者消费某个分区的行为称为占有,所有权注册表即记录了消费者与其占有的分区间的对应关系。其中,路径名标识一个分区,记录值是该分区的拥有者。偏移量记录表记录了该消费者组所有订阅的 topic 对应的每个分区的消费进度。
当一个新的消费者组创建时,注册表中没有任何的偏移量记录。这时,使用 Broker 提供的 API,该消费者组可以针对每个分区选择从最小的偏移量或者最大的偏移量进行消费。
4.5 数据交付保证
Kafka 提供 3 种消息传输一致性语义:最多 1 次,最少 1 次,恰好 1 次。最少 1 次:可能会重传数据,有可能出现数据被重复处理的情况;最多 1 次:可能会出现数据丢失情况;
恰好 1 次:并不是指真正只传输 1 次,只不过有一个机制。确保不会出现“数据被重复处理”和“数据丢失”的情况。
Kafka 保证来自于同一个分区的消息是保序的,即 offset 大小顺序,但是不同分区之间的顺序是不保证的。
5.Kafka 特性与安全
面向存储的消息队列:意味在近实时的情况下能够将传统消息队列的存储增加几个数量级。实现原理是充分利用了磁盘的顺序写和操作系统自身的缓存;此外为了提高访盘、传输效率,使用了文件分段、段首索引、零拷贝和批量拉取等技术。
灵活的生产消费方式:基于主题粒度的发布订阅式架构,并且既支持组内多消费者互斥消费,也支持不同消费者组间的重复消费。这里面涉及到消息队列的两个设计选择:pull 式消费以及客户端侧存储消费进度。为了简化实现,消费时,每个分区最多为一个消费者所消费。
Zookeeper 存储元信息:利用分布式一致性组件 Zookeeper 以注册表的形式存储系统元信息,包括 Broker 和消费者的存活信息、消费者和分区间的对应关系、每个分区的消费进度等等。Zookeeper 作为一个前缀树形式组织 KV、支持发布订阅的高可用组件,可以满足 Kafka 进行消费协调和进度保存的协作需求。
简洁强大的消费接口:Kafka 的客户端一般提供两层接口抽象。包括无需关注分区和偏移量信息的高层(high-level)简单读写接口,以及可以灵活控制分区组织和消费进度的低层(low-level)接口。
随着越来越多的安全漏洞、数据泄露等问题的爆发,安全正成为系统选型不得不考虑的问题,Kafka 由于其安全机制的匮乏,也导致其在数据敏感行业的部署存在严重的安全隐患[5]。在拥有强大性能的同时,Kafka 在安全方面的问题需要在实际部署应用时特别注意,以免造成生产事故。
6.应用场景
Kafka 有着丰富的使用场景并且已经得到了广泛而深入的应用。例如:在证券交易所,银行和保险中,用于实时处理付款和金融交易。在物流和汽车行业,实时跟踪和监视汽车,卡车,车队和货运。在物联网应用中,连续捕获和分析来自 IoT 设备或其他设备(例如工厂和风电场)中的传感器数据。在零售,酒店和旅游行业以及移动应用程序中,收集并立即响应客户的交互和订单。监测患者的医院护理情况并预测病情变化,以确保在紧急情况下及时得到治疗。还可以连接,存储和提供公司不同部门产生的数据,用作数据平台,事件驱动的体系结构和微服务的基础。
7.使用示例
7.1 搭建 Kafka 和 Zookeeper 单机多实例环境
本测试环境使用 Linux 操作系统环境,发行版本为 CentOS-7-x86_64-Minimal-1908,虚拟化软件为 VMware Workstation Pro。为虚拟机分配 1GB 内存,硬盘容量 20GB,使用 NAT 模式联网,实体机与虚拟机器在同一网段下,可以相互访问,为后续本机访问虚拟机中的 Kafka 集群提供网络基础条件。
(1) 搭建虚拟机环境,配置虚拟机静态 IP。

配置 Linux 主机网卡设置静态 IP:vim /etc/sysconfig/network-script/ifcfg-ens33,保存配置后重启网络:systemctl restart network,以下是配置详单。
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPADDR=192.168.10.12
NETMASK=255.255.255.0
GATEWAY=192.168.10.2
DNS1=114.114.114.114
DNS2=8.8.8.8
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=30da6508-90d0-4643-8f65-efa88eec2481
DEVICE=ens33
ONBOOT=yes

(2) 获取 Zookeeper 安装包 wget https://xxx/apache-zookeeper-3.6.2-bin.tar.gz
(3)解压安装包 tar –zxvf apache-zookeeper-3.6.2-bin.tar.gz
(4)修改配置文件 zoox.cfg,参考如下:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/data/zookeeper/zkserver1
clientPort=2181
server.1=127.0.0.1:2888:3888
server.2=127.0.0.1:2889:3889
server.3=127.0.0.1:2890:3890
其中 dataDir 设置三个配置文件写三个不同的目录,事先创建好,在每个目录下创建 myid 文件写入数字序号,例如第一个实例写入 1。clienPort 每个实例各不相同,server.x 各个端口不能相同,因为我们是单机运行多个实例。
(5)运行 Zookeeper 在其目录里执行命令:
bin/zkServer.sh start conf/zoox.cfg
(6)执行 netstat –ntpl 查看是否程序监听相应端口
(7)获取 Kafka 安装包
wget https://xxx/kafka_2.13-2.6.0.tgz
(8)解压
tar –zxvf kafka_2.13-2.6.0.tgz
(9)修改配置文件
vim config/serverx.properties 需修改的配置:
broker.id=1
listeners=
log.dir=/opt/data/kafka/server1
zookeeper.connect=127.0.0.1:2181,127.0.0.1:2182,127.0.0.1:2183
(10)启动三个 Kafka 实例,在其目录中执行
bin/kafka-server-start.sh –daemon config/serverx.properties

(11)运行 jps,检查 zookeeper 和 kafka 服务是否正常运行。
7.2 Spring Boot 整合 Kafka 使用用例
使用 IDEA 新建 Spring Boot 项目,勾选 Spring Boot 整合 Kafka 的依赖库,maven 文件截图如下:
新建类 KafkaProducer 作为一个 Controller。

创建方法 saycallback 接受用户 get 请求并设置路径参数,将值作为消息发送到 Kafka 集群的 topic1 主题下,注册回调函数用于处理发送结果。
新建类 KafkaConsumer 用于消费 Kafka 集群中的消息。使用 @Component 注解标识此类为组件,此类中有一个 KafkaTemplate 类型的属性,该属性值由 spring 自动注入,对象的构造由 kafka 支持库自动读取配置文件完成构建。spring 将注入此消费者类到 IOC 容器。
在类中创建方法 getMessage3 接受消息并打印,由注解 @KafkaListener 可知消费者的 id 为 consumer2,消费者组 id 为 consumer-group2,消费的主题为 topic1。通过注解 @KafkaListener 可以指定消费的主题,分区以及初始偏移值,也可以指定消费多个
主题。

以下为示例代码和配置文件截图:

image.png

image.png

image.png

image.png

image.png

image.png

image.png

环境搭建截图:

image.png

image.png

image.png

image.png

image.png

image.png

以下是运行结果截图:

image.png

image.png

image.png

8.参考文献
[1]牛牧. 基于 Kafka 的大规模流数据分布式缓存与分析平台[D].吉林大学,2016.
[2]王岩,王纯.一种基于 Kafka 的可靠的 Consumer 的设计方案[J].软件,2016,37(01):61-66.
[3]费秀宏. 基于 Kafka 的日志处理平台的研究[D].吉林大学,2017.
[4]卢帅. 基于 Kafka 的消息发布订阅服务的设计与实现[D].南京大学,2018.
[5]孙元浩.如何构建安全的 Kafka 集群[J].电信网技术,2015(08):10-14.

  • Kafka

    Kafka 是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是现代系统中许多功能的基础。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。

    35 引用 • 35 回帖

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • 旅游

    希望你我能在旅途中找到人生的下一站。

    85 引用 • 895 回帖 • 1 关注
  • Log4j

    Log4j 是 Apache 开源的一款使用广泛的 Java 日志组件。

    20 引用 • 18 回帖 • 42 关注
  • Elasticsearch

    Elasticsearch 是一个基于 Lucene 的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于 RESTful 接口。Elasticsearch 是用 Java 开发的,并作为 Apache 许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

    116 引用 • 99 回帖 • 267 关注
  • Spark

    Spark 是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用并行框架。Spark 拥有 Hadoop MapReduce 所具有的优点;但不同于 MapReduce 的是 Job 中间输出结果可以保存在内存中,从而不再需要读写 HDFS,因此 Spark 能更好地适用于数据挖掘与机器学习等需要迭代的 MapReduce 的算法。

    74 引用 • 46 回帖 • 550 关注
  • JavaScript

    JavaScript 一种动态类型、弱类型、基于原型的直译式脚本语言,内置支持类型。它的解释器被称为 JavaScript 引擎,为浏览器的一部分,广泛用于客户端的脚本语言,最早是在 HTML 网页上使用,用来给 HTML 网页增加动态功能。

    710 引用 • 1173 回帖 • 173 关注
  • Pipe

    Pipe 是一款小而美的开源博客平台。Pipe 有着非常活跃的社区,可将文章作为帖子推送到社区,来自社区的回帖将作为博客评论进行联动(具体细节请浏览 B3log 构思 - 分布式社区网络)。

    这是一种全新的网络社区体验,让热爱记录和分享的你不再感到孤单!

    131 引用 • 1114 回帖 • 152 关注
  • AngularJS

    AngularJS 诞生于 2009 年,由 Misko Hevery 等人创建,后为 Google 所收购。是一款优秀的前端 JS 框架,已经被用于 Google 的多款产品当中。AngularJS 有着诸多特性,最为核心的是:MVC、模块化、自动化双向数据绑定、语义化标签、依赖注入等。2.0 版本后已经改名为 Angular。

    12 引用 • 50 回帖 • 422 关注
  • App

    App(应用程序,Application 的缩写)一般指手机软件。

    90 引用 • 383 回帖 • 1 关注
  • 国际化

    i18n(其来源是英文单词 internationalization 的首末字符 i 和 n,18 为中间的字符数)是“国际化”的简称。对程序来说,国际化是指在不修改代码的情况下,能根据不同语言及地区显示相应的界面。

    7 引用 • 26 回帖
  • QQ

    1999 年 2 月腾讯正式推出“腾讯 QQ”,在线用户由 1999 年的 2 人(马化腾和张志东)到现在已经发展到上亿用户了,在线人数超过一亿,是目前使用最广泛的聊天软件之一。

    45 引用 • 557 回帖 • 222 关注
  • Vue.js

    Vue.js(读音 /vju ː/,类似于 view)是一个构建数据驱动的 Web 界面库。Vue.js 的目标是通过尽可能简单的 API 实现响应的数据绑定和组合的视图组件。

    261 引用 • 662 回帖
  • 心情

    心是产生任何想法的源泉,心本体会陷入到对自己本体不能理解的状态中,因为心能产生任何想法,不能分出对错,不能分出自己。

    59 引用 • 369 回帖 • 1 关注
  • 安装

    你若安好,便是晴天。

    128 引用 • 1184 回帖
  • RYMCU

    RYMCU 致力于打造一个即严谨又活泼、专业又不失有趣,为数百万人服务的开源嵌入式知识学习交流平台。

    4 引用 • 6 回帖 • 38 关注
  • C

    C 语言是一门通用计算机编程语言,应用广泛。C 语言的设计目标是提供一种能以简易的方式编译、处理低级存储器、产生少量的机器码以及不需要任何运行环境支持便能运行的编程语言。

    83 引用 • 165 回帖 • 44 关注
  • Sym

    Sym 是一款用 Java 实现的现代化社区(论坛/BBS/社交网络/博客)系统平台。

    下一代的社区系统,为未来而构建

    523 引用 • 4581 回帖 • 690 关注
  • JetBrains

    JetBrains 是一家捷克的软件开发公司,该公司位于捷克的布拉格,并在俄国的圣彼得堡及美国麻州波士顿都设有办公室,该公司最为人所熟知的产品是 Java 编程语言开发撰写时所用的集成开发环境:IntelliJ IDEA

    18 引用 • 54 回帖 • 2 关注
  • 自由行
  • 负能量

    上帝为你关上了一扇门,然后就去睡觉了....努力不一定能成功,但不努力一定很轻松 (° ー °〃)

    85 引用 • 1201 回帖 • 451 关注
  • 思源笔记

    思源笔记是一款隐私优先的个人知识管理系统,支持完全离线使用,同时也支持端到端加密同步。

    融合块、大纲和双向链接,重构你的思维。

    18660 引用 • 69551 回帖
  • uTools

    uTools 是一个极简、插件化、跨平台的现代桌面软件。通过自由选配丰富的插件,打造你得心应手的工具集合。

    5 引用 • 13 回帖
  • webpack

    webpack 是一个用于前端开发的模块加载器和打包工具,它能把各种资源,例如 JS、CSS(less/sass)、图片等都作为模块来使用和处理。

    41 引用 • 130 回帖 • 295 关注
  • 链书

    链书(Chainbook)是 B3log 开源社区提供的区块链纸质书交易平台,通过 B3T 实现共享激励与价值链。可将你的闲置书籍上架到链书,我们共同构建这个全新的交易平台,让闲置书籍继续发挥它的价值。

    链书社

    链书目前已经下线,也许以后还有计划重制上线。

    14 引用 • 257 回帖 • 1 关注
  • Thymeleaf

    Thymeleaf 是一款用于渲染 XML/XHTML/HTML5 内容的模板引擎。类似 Velocity、 FreeMarker 等,它也可以轻易的与 Spring 等 Web 框架进行集成作为 Web 应用的模板引擎。与其它模板引擎相比,Thymeleaf 最大的特点是能够直接在浏览器中打开并正确显示模板页面,而不需要启动整个 Web 应用。

    11 引用 • 19 回帖 • 319 关注
  • 游戏

    沉迷游戏伤身,强撸灰飞烟灭。

    169 引用 • 799 回帖
  • Tomcat

    Tomcat 最早是由 Sun Microsystems 开发的一个 Servlet 容器,在 1999 年被捐献给 ASF(Apache Software Foundation),隶属于 Jakarta 项目,现在已经独立为一个顶级项目。Tomcat 主要实现了 JavaEE 中的 Servlet、JSP 规范,同时也提供 HTTP 服务,是市场上非常流行的 Java Web 容器。

    162 引用 • 529 回帖 • 2 关注
  • Kubernetes

    Kubernetes 是 Google 开源的一个容器编排引擎,它支持自动化部署、大规模可伸缩、应用容器化管理。

    108 引用 • 54 回帖 • 1 关注