(转)Pinpoint - 应用性能管理 (APM) 平台实践之部署篇

本贴最后更新于 3061 天前,其中的信息可能已经物是人非

0.0 前言

国内的APM行业这两年刚刚起步,但是在国外却比较成熟了,并且由于这两年人力成本的快速提高,国内外涌现了几家非常不错的APM企业,例如APPdynamic,Dynamic,NewRelic等。

我们这里不考虑商业化的实现方案,如何能够提供一种免费的开源实现方案呢?

下面给大家介绍一个开源的 APM (Application Performance Management/应用性能管理)工具 - Pinpoint。一个分布式事务跟踪系统的平台,思路基于google Dapper,用于基于java的大规模分布式系统,通过跟踪分布式应用之间的调用来提供解决方案,以帮助分析系统的总体结构和内部模块之间如何相互联系。Pinpoint的目标就是为n(n>=1)层架构开发新的跟踪平台,为n层架构的系统提供解决方案。

0.1 Pinpoint的特点如下:

  • 分布式事务跟踪,跟踪跨分布式应用的消息
  • 自动检测应用拓扑,帮助你搞清楚应用的架构
  • 水平扩展以便支持大规模服务器集群
  • 提供代码级别的可见性以便轻松定位失败点和瓶颈
  • 使用字节码增强技术,添加新功能而无需修改代码
  • 安装探针不需要修改哪怕一行代码及trace server端部署简单,支持hdfs存储
  • 具有简单的阀值触发报警功能
  • 移植性比较强的,会比较讨人喜欢(相比cat)
  • 插件化功能可扩展(https://github.com/naver/pinpoint/wiki/Pinpoint-Plugin-Developer-Guide)

0.2 Pinpoint 架构

pp-architecture

1.0 环境准备

为了省事可以直接就到这里(https://get.k8scn.org/packages/others/pinpoint/)下载所需安装包,统一放置在 /root/pp/ 目录下面。

apache-tomcat-8.0.36.tar.gz hbase-1.0.3-bin.tar.gz jdk-8u92-linux-x64.rpm pinpoint-agent-1.5.2.tar.gz pinpoint-collector-1.5.2.war pinpoint-web-1.5.2.war pp-collector pp-web zookeeper-3.4.6-10.el6.x86_64.rpm

1.1 部署环境约定

192.168.56.11CentOS6(jdk1.8.0)Pinpoint-collector,Pinpoint-web, zookeeper # 下面我们将简称pp-collector&pp-web 192.168.56.12CentOS6(jdk1.8.0)Hbase192.168.56.13CentOS6(jdk1.8.0)Pinpoint-agent(demo应用)

1.2 系统环境说明

$ /etc/init.d/iptables stop $ setenforce 0

这里我们为了不影响模块之间的相互通信,暂时先把几台设备的iptables都关闭了。

2.0 开始部署 我们采用rpm方式安装jdk,这里就略过安装过程了,主要说一下Tomcat 和Bbase的安装和配置

2.1 部署和初始化 Hbase

$ vim ~/.bashrc # Java Environment Variables export JAVA_HOME=/usr/java/defaultexport PATH=$PATH:$JAVA_HOME/bin

$ source ~/.bashrc
$ tar xf /
root/pp/hbase-1.0.3-bin.tar.gz /usr/local/
$ cd
/usr/local/hbase-1.0.3/conf
$ vim hbase
-env.sh
export JAVA_HOME=/usr/java/default/# 指到自己对应的 JAVA_HOME,默认使用 java6
$ vim hbase
-site.xml
<configuration><property><name>hbase.rootdir</name>
<value>file:/
//data/hbase</value> # 这里我们指定 Hbase 本地来存储数据,生产环境将数据建议存入 HDFS 中。</property>
</
configuration>

$ ../bin/start-hbase.sh // 启动 Hbase

注意: 这里说明一下,我们是最简方式启动的Hbase,没有单独部署Hbase集群管理的zookeeper,而是直接使用Hbase自带的zk模块。另外,Hbase墙裂建议将数据存入HDFS里面,目前我们是存在Hbase本地的。

2.1.1 验证Hbase是否启动成功

$ jps 8114Jps7820HMaster

2.1.2下载并执行pp的Hbase初始化表语句

$ wget -c https://raw.githubusercontent.com/naver/pinpoint/master/hbase/scripts/hbase-create.hbase -P /root/pp/ $ cd /usr/local/hbase-1.0.3 $ ./bin/hbase shell /root/pp/hbase-create.hbase # 这里需要大概半分钟时间完成pp的表初始化 $ ./bin/hbase shell 2016-07-1420:57:10,606 WARN [main] util.NativeCodeLoader:Unable to load native-hadoop library for your platform...using builtin-java classes where applicable HBaseShell; enter 'help<RETURN>'for list of supported commands.Type"exit<RETURN>" to leave the HBaseShellVersion1.0.3, rf1e1312f9790a7c40f6a4b5a1bab2ea1dd559890,TueJan1919:26:53 PST 2016 hbase(main):001:0> status 'detailed'# 我这里已经初始化pp相关表,所以数据展示比较多 version 1.0.30 regionsInTransition master coprocessors:[]1 live servers c612:467811468494831781 requestsPerSecond=0.0, numberOfOnlineRegions=194, usedHeapMB=18, maxHeapMB=241, numberOfStores=322, numberOfStorefiles=3, storefileUncompressedSizeMB=0, storefileSizeMB=0, memstoreSizeMB=0, storefileIndexSizeMB=0, readRequestsCount=9272, writeRequestsCount=385, rootIndexSizeKB=2, totalStaticIndexSizeKB=1, totalStaticBloomSizeKB=0, totalCompactingKVs=0, currentCompactedKVs=0, compactionProgressPct=NaN, coprocessors=[MultiRowMutationEndpoint]"AgentEvent,,1468495003477.b13eb3203210fb9d94feb1a445e0ad1b." numberOfStores=1, numberOfStorefiles=0, storefileUncompressedSizeMB=0, storefileSizeMB=0, memstoreSizeMB=0, storefileIndexSizeMB=0, readRequestsCount=0, writeRequestsCount=0, rootIndexSizeKB=0, totalStaticIndexSizeKB=0, totalStaticBloomSizeKB=0, totalCompactingKVs=0, currentCompactedKVs=0, compactionProgressPct=NaN, completeSequenceId=-1, dataLocality=0.0"AgentInfo,,1468494998919.fa9d36f7b52b95ee5216a1ec757ad690."...

我们同时可以登录Hbase Web管理控制台来验证相关数据 http://192.168.56.12:16010/master-status

2.2 部署和配置pp-collector和pp-web

2.2.1 这里我们还需要部署一个zookeeper。从pinpoint1.5.0开始,pp-web到pp-agent的request请求直接通过pp-collector来统筹管理,包括一些real-time级别的信息监测,而zookeeper在其中间协调三者之间的通信沟通。如果zookeeper部署在独立的一台设备,这里我就需要修改一下pp-colletor & pp-web的配置文件pinpoint-collector.properties,pinpoint-web.properties,不然会导致俩个模块启动失败。详细描述参见官方文档

$ rpm -ivh /root/pp/zookeeper-3.4.6-10.el6.x86_64.rpm $ /etc/init.d/zookeeper start # 保证zookeeper的2181端口起来就可以了

2.2.2 pp-collector的配置

$ mkdir -p /data/service/ $ tar xf /root/pp/apache-tomcat-8.0.35.tar.gz -C /data/service/;cd /data/service/ $ mv apache-tomcat-8.0.35/ pinpoint-collector $ vim /data/service/pinpoint-collector/conf/server.xml # 因为我们的pp-collector和pp-web部署在同台设备,所以请确认tomcat启动端口不会冲突<Server port="8005" shutdown="SHUTDOWN"><Connector port="8085" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443"/><!--<Connector port="8009" protocol="AJP/1.3" redirectPort="8443"/>--># 注释该行

$ rm -rf /data/service/pinpoint-collector/webapps/*
$ unzip pinpoint-collector-1.5.2.war -d /data/service/pinpoint-collector/webapps/ROOT/
$ cd /data/service/pinpoint-collector/webapps/ROOT/WEB-INF/classes
$ ls -al
-rw-rw-r-- 1 root root 15835 Apr 7 14:43 applicationContext-collector.xml
-rw-rw-r-- 1 root root 7485 Apr 7 14:43 applicationContext-hbase.xml
-rw-rw-r-- 1 root root 757 Apr 7 14:43 hbase.properties
-rw-rw-r-- 1 root root 1845 Apr 7 14:43 log4j.xml
-rw-rw-r-- 1 root root 1360 Apr 7 14:43 pinpoint-collector.properties # 主要针对 pp-agent 的配置,同时支持 tcp 和 udp 协议数据传输
-rw-rw-r-- 1 root root 3292 Apr 7 14:43 servlet-context.xml
...

这里大概说一下: applicationContext-collector.xml, applicationContext-hbase.xml 这俩个配置文件时collector与agent和Hbase之间通信时需要设定的一些参数,在后续调优的时候需要用到,hbase.properties 主要是设定后端存储的连接配置,log4j.xml那就是log相关了。

$ vim hbase.properties hbase.client.host=192.168.56.12# 这里我们只修改这一项配置就好,能够让collector将汇报上来的数据存储到Hbase hbase.client.port=2181

这里tomcat我们就用默认的启动端口了,实际的生产环境可能需要根据实际情况修改tomcat侦听端口。OK,到此,pp-collector我们就基本上配置完成了。接下来我们开始配置pp-web,它与collector很类似。

2.2.3 pp-web的配置

$ cd /data/service/ $ tar xf /root/pp/apache-tomcat-8.0.35.tar.gz -C /data/service/ $ mv apache-tomcat-8.0.35 pinpoint-web $ cd pinpoint-web/webapps/;rm -rf *;mkdir ROOT;cd ROOT/ $ unzip /root/pinpoint-web-1.5.2.war $ vim /data/service/pinpoint-web/conf/server.xml # 因为我们的pp-collector和pp-web部署在同台设备,所以请确认tomcat启动端口不会冲突<Server port="8006" shutdown="SHUTDOWN"><Connector port="8086" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443"/><!--<Connector port="8009" protocol="AJP/1.3" redirectPort="8443"/>--># 注释该行

$ cd /data/service/pinpoint-web/webapps/ROOT/WEB-INF/classes
$ vim hbase
.properties
hbase
.client.host=192.168.56.12# 设置 Hbase 数据源
hbase
.client.port=2181...
$ ls
-al
total
88-rw-rw-r--1 root root 2164Apr714:43 applicationContext-cache.xml
-rw-rw-r--1 root root 3649Apr714:43 applicationContext-dao-config.xml
-rw-rw-r--1 root root 1490Apr714:43 applicationContext-datasource.xml
-rw-rw-r--1 root root 6680Apr714:43 applicationContext-hbase.xml
-rw-rw-r--1 root root 1610Apr714:43 applicationContext-websocket.xml
-rw-rw-r--1 root root 6576Apr714:43 applicationContext-web.xml
-rw-rw-r--1 root root 106Apr714:43 batch.properties
-rw-rw-r--1 root root 682Apr714:43 ehcache.xml
-rw-rw-r--1 root root 1005Jul1421:45 hbase.properties
-rw-rw-r--1 root root 153Apr714:43 jdbc.properties
-rw-rw-r--1 root root 3338Apr714:43 log4j.xml
-rw-rw-r--1 root root 1420Apr714:43 mybatis-config.xml
-rw-rw-r--1 root root 630Apr714:43 pinpoint-web.properties
-rw-rw-r--1 root root 141Apr714:43 project.properties
-rw-rw-r--1 root root 3872Apr714:43 servlet-context.xml
drwxrwxr
-x 2 root root 4096Jul1421:46 sql
...

这里说明一下:

  • hbase.properties 配置我们pp-web从哪个数据源获取采集数据,这里我们只指定Hbase的zookeeper地址。
  • jdbc.properties pp-web连接自身Mysql数据库的连接认证配置。
  • sql目录 pp-web本身有些数据需要存放在MySQL数据库中,这里需要初始化一下表结构。
  • pinpoint-web.properties 这里pp-web集群的配置文件,如果你需要pp-web集群的话。
  • applicationContext-*.xml 这些文件在后续的调优工作中会用到。
  • log4j.xml 日志相关配置。

好了,pp-web终于算是配置完成了。

2.3 到这里,我们就可以启动pp-colletor和pp-web了

$ cp /root/pp/pp-*/etc/init.d/ $ chmod +x /etc/init.d/pp-* $ /etc/init.d/pp-web restart $ /etc/init.d/pp-collector restart

3.0 我们这个时候可以部署一个pp-agent试玩一下了,其实也就是很多APM厂商传说中的探针。这里我的探针是部署在自己的应用下面的,就只贴一下跑在tomcat下的探针配置信息了。顺带说明一下部署上的注意点。

以下是pp目前支持埋点的java模块:

JDK 6+Tomcat6/7/8,Jetty8/9Spring,SpringBootApache HTTP Client3.x/4.x, JDK HttpConnector,GoogleHttpClient,OkHttpClient,NingAsyncHttpClientThriftClient,ThriftService, DUBBO PROVIDER, DUBBO CONSUMER MySQL,Oracle, MSSQL, CUBRID, DBCP, POSTGRESQL, MARIA Arcus,Memcached,Redis, CASSANDRA iBATIS,MyBatis gson,Jackson,JsonLib log4j,Logback

3.1 部署pp-agent (探针)

我们约定tomcat容器安装位置 /data/projects/service/app_demo,这里我们就将pp-agent解压至 /data/projects/service/下。

$ tar xf /root/pp/pinpoint-agent-1.5.2.tar.gz -C /data/projects/service/ $ cd /data/projects/service/pinpoint-agent-1.5.2/ $ vim pinpoint.config profiler.collector.ip=192.168.56.11

这里说明一下: 我们只要指定pp-colletor的地址就可以了,至于端口如果之前pp-colletor没有变更这里也不需要修改。如果你的生产环境特殊,pinpoint支持还是很丰富的,同时支持tcp和udp协议传输。

$ pwd /data/projects/service/pinpoint-agent-1.5.2 $ ls -al total 80 drwxrwxr-x 6 ceph ceph 4096Jul1422:11. drwxr-xr-x 3 root root 4096Jul1422:08.. drwxrwxr-x 2 ceph ceph 4096Apr713:43 boot drwxrwxr-x 2 ceph ceph 4096Apr713:43 lib -rw-rw-r--1 ceph ceph 27603Apr713:42 pinpoint-bootstrap-1.5.2.jar-rw-rw-r--1 ceph ceph 14278Apr713:30 pinpoint.config -rw-rw-r--1 ceph ceph 11988Apr713:30 pinpoint-real-env-lowoverhead-sample.config drwxrwxr-x 2 ceph ceph 4096Apr713:43 plugin drwxrwxr-x 2 ceph ceph 4096Apr713:43 script

此刻,我们开始往我们的应用里部署探针。

$ vim /data/projects/service/app_demo/bin/catalina.sh AGENT_VERSION="1.5.2" AGENT_ID="pp201606011442" APPLICATION_NAME="app-192-168-56-13" AGENT_PATH="/data/projects/service/pinpoint-agent-1.5.2" CATALINA_OPTS="$CATALINA_OPTS -javaagent:$AGENT_PATH/pinpoint-bootstrap-${AGENT_VERSION}.jar" CATALINA_OPTS="$CATALINA_OPTS -Dpinpoint.agentId=$AGENT_ID" CATALINA_OPTS="$CATALINA_OPTS -Dpinpoint.applicationName=$APPLICATION_NAME"

这里说明一下:

  • 探针配置项写到 CATALINA_OPTS 变量下一行即可。
  • AGENT_ID 命名必须在生产环境里唯一,否则后面将会混乱。
  • APPLICATION_NAME 配置为一个服务组的ID号,即服务组下的实例ID。
  • 此外参考官方agent文档说明

4.0. 重启被采集端的应用,使探针生效。

5.0. 打开浏览器,访问如下pp-web的页面验证我们的探针部署是否成功。其中,第二个链接是pp的APM主页面可以看到探针汇报上来的信息了。

http://192.168.56.11:8086/stat.html # pp-agent 信息统计页面,即探针部署情况的统计信息 http://192.168.56.11:8086/#/main # pp APM信息主页面

5.1 页面访问效果如下(没有找到一个好的demo应用,这部分后续补齐,所以页面没有信息采集上来):

Pinpoint AgentPinpoint Main

6.0. 问题排查

  • 看日志,看日志,看日志。
  • 部署成功调试完成最好把agent端log级别调高一些,少打印日志。讲真,不然在你实时查看日志定位程序问题时,你会发现打印一堆了无效信息,绝对懵B。

7.0. 最后这里我们讲一下如何制作自己的Pinpoint定制版war包

7.1 编译环境要求

maven:3.2+ jdk-6/7/8

7.2 获取pp源代码

$ git clone https://github.com/naver/pinpoint.git $ git branch -a * master remotes/origin/1.0.x remotes/origin/1.1.x remotes/origin/1.5.0-branch remotes/origin/1.5.x remotes/origin/HEAD -> origin/master remotes/origin/master $ git checkout 1.5.x // pp v1.6.x属于活跃开发版不建议编译安装,除非你非常熟悉pp的代码

7.3 设置JAVA环境变量为JDK-1.8.0。这里小小解释一下: 因为pp同时支持java多版本,这也是pp最可爱的地方,所以我们需要设置一下。

$ export JAVA_6_HOME=/usr/java/default $ export JAVA_7_HOME=/usr/java/default $ export JAVA_8_HOME=/usr/java/default $ export JAVA_HOME=/usr/java/default

7.4 开始war包制作

$ cd pinpoint $ mvn -f ./pom.xml install -Dmaven.test.skip=true[INFO]Scanningfor projects...[INFO]------------------------------------------------------------------------[INFO]ReactorBuildOrder:[INFO][INFO] pinpoint [INFO] pinpoint-thrift [INFO] pinpoint-commons [INFO] pinpoint-commons-hbase [INFO] pinpoint-commons-server [INFO] pinpoint-bootstrap-core [INFO] pinpoint-bootstrap [INFO] pinpoint-rpc [INFO] pinpoint-profiler ...

编译过程可能有些长,尤其在国内的网络环境。结束以后,请到target目录获取相应的pp war包。

7.5 编译过程遇到的问题:

[INFO]--- maven-enforcer-plugin:1.4.1:enforce (enforce-pinpoint-build-requirements)@ pinpoint ---[WARNING]Rule0: org.apache.maven.plugins.enforcer.RequireMavenVersion failed with message:DetectedMavenVersion:3.0.5isnotin the allowed range 3.2.[INFO]---------------------------------------------------------

问题解决:升级的maven版本,需要至少3.2+以上。

好了,今天先写到这,欢迎大家加群讨论(Pinpoint中文社区QQ群563655806)。

参考文档:

https://github.com/naver/pinpoint/blob/master/doc/installation.md
http://hbase.apache.org/book.html#standalone_dist Apache HBase ™ Reference Guide

 

 

转自:https://sconts.com/11

  • Java

    Java 是一种可以撰写跨平台应用软件的面向对象的程序设计语言,是由 Sun Microsystems 公司于 1995 年 5 月推出的。Java 技术具有卓越的通用性、高效性、平台移植性和安全性。

    3201 引用 • 8216 回帖
  • APM
    3 引用

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • BAE

    百度应用引擎(Baidu App Engine)提供了 PHP、Java、Python 的执行环境,以及云存储、消息服务、云数据库等全面的云服务。它可以让开发者实现自动地部署和管理应用,并且提供动态扩容和负载均衡的运行环境,让开发者不用考虑高成本的运维工作,只需专注于业务逻辑,大大降低了开发者学习和迁移的成本。

    19 引用 • 75 回帖 • 670 关注
  • Sphinx

    Sphinx 是一个基于 SQL 的全文检索引擎,可以结合 MySQL、PostgreSQL 做全文搜索,它可以提供比数据库本身更专业的搜索功能,使得应用程序更容易实现专业化的全文检索。

    1 引用 • 223 关注
  • 开源中国

    开源中国是目前中国最大的开源技术社区。传播开源的理念,推广开源项目,为 IT 开发者提供了一个发现、使用、并交流开源技术的平台。目前开源中国社区已收录超过两万款开源软件。

    7 引用 • 86 回帖
  • 支付宝

    支付宝是全球领先的独立第三方支付平台,致力于为广大用户提供安全快速的电子支付/网上支付/安全支付/手机支付体验,及转账收款/水电煤缴费/信用卡还款/AA 收款等生活服务应用。

    29 引用 • 347 回帖 • 1 关注
  • Oracle

    Oracle(甲骨文)公司,全称甲骨文股份有限公司(甲骨文软件系统有限公司),是全球最大的企业级软件公司,总部位于美国加利福尼亚州的红木滩。1989 年正式进入中国市场。2013 年,甲骨文已超越 IBM,成为继 Microsoft 后全球第二大软件公司。

    107 引用 • 127 回帖 • 336 关注
  • IPFS

    IPFS(InterPlanetary File System,星际文件系统)是永久的、去中心化保存和共享文件的方法,这是一种内容可寻址、版本化、点对点超媒体的分布式协议。请浏览 IPFS 入门笔记了解更多细节。

    21 引用 • 245 回帖 • 228 关注
  • Tomcat

    Tomcat 最早是由 Sun Microsystems 开发的一个 Servlet 容器,在 1999 年被捐献给 ASF(Apache Software Foundation),隶属于 Jakarta 项目,现在已经独立为一个顶级项目。Tomcat 主要实现了 JavaEE 中的 Servlet、JSP 规范,同时也提供 HTTP 服务,是市场上非常流行的 Java Web 容器。

    162 引用 • 529 回帖 • 2 关注
  • 宕机

    宕机,多指一些网站、游戏、网络应用等服务器一种区别于正常运行的状态,也叫“Down 机”、“当机”或“死机”。宕机状态不仅仅是指服务器“挂掉了”、“死机了”状态,也包括服务器假死、停用、关闭等一些原因而导致出现的不能够正常运行的状态。

    13 引用 • 82 回帖 • 78 关注
  • Git

    Git 是 Linux Torvalds 为了帮助管理 Linux 内核开发而开发的一个开放源码的版本控制软件。

    211 引用 • 358 回帖 • 1 关注
  • 职场

    找到自己的位置,萌新烦恼少。

    127 引用 • 1708 回帖
  • Notion

    Notion - The all-in-one workspace for your notes, tasks, wikis, and databases.

    10 引用 • 77 回帖
  • OkHttp

    OkHttp 是一款 HTTP & HTTP/2 客户端库,专为 Android 和 Java 应用打造。

    16 引用 • 6 回帖 • 84 关注
  • Swift

    Swift 是苹果于 2014 年 WWDC(苹果开发者大会)发布的开发语言,可与 Objective-C 共同运行于 Mac OS 和 iOS 平台,用于搭建基于苹果平台的应用程序。

    36 引用 • 37 回帖 • 548 关注
  • SpaceVim

    SpaceVim 是一个社区驱动的模块化 vim/neovim 配置集合,以模块的方式组织管理插件以
    及相关配置,为不同的语言开发量身定制了相关的开发模块,该模块提供代码自动补全,
    语法检查、格式化、调试、REPL 等特性。用户仅需载入相关语言的模块即可得到一个开箱
    即用的 Vim-IDE。

    3 引用 • 31 回帖 • 113 关注
  • Google

    Google(Google Inc.,NASDAQ:GOOG)是一家美国上市公司(公有股份公司),于 1998 年 9 月 7 日以私有股份公司的形式创立,设计并管理一个互联网搜索引擎。Google 公司的总部称作“Googleplex”,它位于加利福尼亚山景城。Google 目前被公认为是全球规模最大的搜索引擎,它提供了简单易用的免费服务。不作恶(Don't be evil)是谷歌公司的一项非正式的公司口号。

    49 引用 • 192 回帖 • 2 关注
  • 钉钉

    钉钉,专为中国企业打造的免费沟通协同多端平台, 阿里巴巴出品。

    15 引用 • 67 回帖 • 277 关注
  • 旅游

    希望你我能在旅途中找到人生的下一站。

    96 引用 • 901 回帖 • 1 关注
  • CSS

    CSS(Cascading Style Sheet)“层叠样式表”是用于控制网页样式并允许将样式信息与网页内容分离的一种标记性语言。

    199 引用 • 543 回帖
  • 阿里云

    阿里云是阿里巴巴集团旗下公司,是全球领先的云计算及人工智能科技公司。提供云服务器、云数据库、云安全等云计算服务,以及大数据、人工智能服务、精准定制基于场景的行业解决方案。

    84 引用 • 324 回帖
  • jsDelivr

    jsDelivr 是一个开源的 CDN 服务,可为 npm 包、GitHub 仓库提供免费、快速并且可靠的全球 CDN 加速服务。

    5 引用 • 31 回帖 • 108 关注
  • 国际化

    i18n(其来源是英文单词 internationalization 的首末字符 i 和 n,18 为中间的字符数)是“国际化”的简称。对程序来说,国际化是指在不修改代码的情况下,能根据不同语言及地区显示相应的界面。

    8 引用 • 26 回帖 • 4 关注
  • 30Seconds

    📙 前端知识精选集,包含 HTML、CSS、JavaScript、React、Node、安全等方面,每天仅需 30 秒。

    • 精选常见面试题,帮助您准备下一次面试
    • 精选常见交互,帮助您拥有简洁酷炫的站点
    • 精选有用的 React 片段,帮助你获取最佳实践
    • 精选常见代码集,帮助您提高打码效率
    • 整理前端界的最新资讯,邀您一同探索新世界
    488 引用 • 384 回帖 • 10 关注
  • GraphQL

    GraphQL 是一个用于 API 的查询语言,是一个使用基于类型系统来执行查询的服务端运行时(类型系统由你的数据定义)。GraphQL 并没有和任何特定数据库或者存储引擎绑定,而是依靠你现有的代码和数据支撑。

    4 引用 • 3 回帖 • 13 关注
  • AngularJS

    AngularJS 诞生于 2009 年,由 Misko Hevery 等人创建,后为 Google 所收购。是一款优秀的前端 JS 框架,已经被用于 Google 的多款产品当中。AngularJS 有着诸多特性,最为核心的是:MVC、模块化、自动化双向数据绑定、语义化标签、依赖注入等。2.0 版本后已经改名为 Angular。

    12 引用 • 50 回帖 • 511 关注
  • Facebook

    Facebook 是一个联系朋友的社交工具。大家可以通过它和朋友、同事、同学以及周围的人保持互动交流,分享无限上传的图片,发布链接和视频,更可以增进对朋友的了解。

    4 引用 • 15 回帖 • 447 关注
  • CentOS

    CentOS(Community Enterprise Operating System)是 Linux 发行版之一,它是来自于 Red Hat Enterprise Linux 依照开放源代码规定释出的源代码所编译而成。由于出自同样的源代码,因此有些要求高度稳定的服务器以 CentOS 替代商业版的 Red Hat Enterprise Linux 使用。两者的不同在于 CentOS 并不包含封闭源代码软件。

    239 引用 • 224 回帖 • 2 关注
  • Kafka

    Kafka 是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是现代系统中许多功能的基础。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。

    36 引用 • 35 回帖 • 2 关注