(转)Pinpoint - 应用性能管理 (APM) 平台实践之部署篇

本贴最后更新于 2764 天前,其中的信息可能已经物是人非

0.0 前言

国内的APM行业这两年刚刚起步,但是在国外却比较成熟了,并且由于这两年人力成本的快速提高,国内外涌现了几家非常不错的APM企业,例如APPdynamic,Dynamic,NewRelic等。

我们这里不考虑商业化的实现方案,如何能够提供一种免费的开源实现方案呢?

下面给大家介绍一个开源的 APM (Application Performance Management/应用性能管理)工具 - Pinpoint。一个分布式事务跟踪系统的平台,思路基于google Dapper,用于基于java的大规模分布式系统,通过跟踪分布式应用之间的调用来提供解决方案,以帮助分析系统的总体结构和内部模块之间如何相互联系。Pinpoint的目标就是为n(n>=1)层架构开发新的跟踪平台,为n层架构的系统提供解决方案。

0.1 Pinpoint的特点如下:

  • 分布式事务跟踪,跟踪跨分布式应用的消息
  • 自动检测应用拓扑,帮助你搞清楚应用的架构
  • 水平扩展以便支持大规模服务器集群
  • 提供代码级别的可见性以便轻松定位失败点和瓶颈
  • 使用字节码增强技术,添加新功能而无需修改代码
  • 安装探针不需要修改哪怕一行代码及trace server端部署简单,支持hdfs存储
  • 具有简单的阀值触发报警功能
  • 移植性比较强的,会比较讨人喜欢(相比cat)
  • 插件化功能可扩展(https://github.com/naver/pinpoint/wiki/Pinpoint-Plugin-Developer-Guide)

0.2 Pinpoint 架构

pp-architecture

1.0 环境准备

为了省事可以直接就到这里(https://get.k8scn.org/packages/others/pinpoint/)下载所需安装包,统一放置在 /root/pp/ 目录下面。

apache-tomcat-8.0.36.tar.gz
hbase-1.0.3-bin.tar.gz
jdk-8u92-linux-x64.rpm
pinpoint-agent-1.5.2.tar.gz
pinpoint-collector-1.5.2.war
pinpoint-web-1.5.2.war
pp-collector
pp-web
zookeeper-3.4.6-10.el6.x86_64.rpm

1.1 部署环境约定

192.168.56.11CentOS6(jdk1.8.0)Pinpoint-collector,Pinpoint-web, zookeeper    # 下面我们将简称pp-collector&pp-web 192.168.56.12CentOS6(jdk1.8.0)Hbase192.168.56.13CentOS6(jdk1.8.0)Pinpoint-agent(demo应用)

1.2 系统环境说明

$ /etc/init.d/iptables stop
$ setenforce 0

这里我们为了不影响模块之间的相互通信,暂时先把几台设备的iptables都关闭了。

2.0 开始部署 我们采用rpm方式安装jdk,这里就略过安装过程了,主要说一下Tomcat 和Bbase的安装和配置

2.1 部署和初始化 Hbase

$ vim ~/.bashrc
# Java Environment Variables
export JAVA_HOME=/usr/java/defaultexport PATH=$PATH:$JAVA_HOME/bin

$ source ~/.bashrc
$ tar xf /
root/pp/hbase-1.0.3-bin.tar.gz /usr/local/
$ cd
/usr/local/hbase-1.0.3/conf
$ vim hbase
-env.sh
export JAVA_HOME=/usr/java/default/# 指到自己对应的 JAVA_HOME,默认使用 java6
$ vim hbase
-site.xml
<configuration><property><name>hbase.rootdir</name>
<value>file:/
//data/hbase</value> # 这里我们指定 Hbase 本地来存储数据,生产环境将数据建议存入 HDFS 中。</property>
</
configuration>

$ ../bin/start-hbase.sh // 启动 Hbase

注意: 这里说明一下,我们是最简方式启动的Hbase,没有单独部署Hbase集群管理的zookeeper,而是直接使用Hbase自带的zk模块。另外,Hbase墙裂建议将数据存入HDFS里面,目前我们是存在Hbase本地的。

2.1.1 验证Hbase是否启动成功

$ jps
8114Jps7820HMaster

2.1.2下载并执行pp的Hbase初始化表语句

$ wget -c https://raw.githubusercontent.com/naver/pinpoint/master/hbase/scripts/hbase-create.hbase -P /root/pp/
$ cd /usr/local/hbase-1.0.3
$ ./bin/hbase shell /root/pp/hbase-create.hbase      #  这里需要大概半分钟时间完成pp的表初始化
$ ./bin/hbase shell
2016-07-1420:57:10,606 WARN  [main] util.NativeCodeLoader:Unable to load native-hadoop library for your platform...using builtin-java classes where applicable
HBaseShell; enter 'help<RETURN>'for list of supported commands.Type"exit<RETURN>" to leave the HBaseShellVersion1.0.3, rf1e1312f9790a7c40f6a4b5a1bab2ea1dd559890,TueJan1919:26:53 PST 2016
hbase(main):001:0> status 'detailed'# 我这里已经初始化pp相关表,所以数据展示比较多
version 1.0.30 regionsInTransition
master coprocessors:[]1 live servers
    c612:467811468494831781
        requestsPerSecond=0.0, numberOfOnlineRegions=194, usedHeapMB=18, maxHeapMB=241, numberOfStores=322, numberOfStorefiles=3, storefileUncompressedSizeMB=0, storefileSizeMB=0, memstoreSizeMB=0, storefileIndexSizeMB=0, readRequestsCount=9272, writeRequestsCount=385, rootIndexSizeKB=2, totalStaticIndexSizeKB=1, totalStaticBloomSizeKB=0, totalCompactingKVs=0, currentCompactedKVs=0, compactionProgressPct=NaN, coprocessors=[MultiRowMutationEndpoint]"AgentEvent,,1468495003477.b13eb3203210fb9d94feb1a445e0ad1b."
            numberOfStores=1, numberOfStorefiles=0, storefileUncompressedSizeMB=0, storefileSizeMB=0, memstoreSizeMB=0, storefileIndexSizeMB=0, readRequestsCount=0, writeRequestsCount=0, rootIndexSizeKB=0, totalStaticIndexSizeKB=0, totalStaticBloomSizeKB=0, totalCompactingKVs=0, currentCompactedKVs=0, compactionProgressPct=NaN, completeSequenceId=-1, dataLocality=0.0"AgentInfo,,1468494998919.fa9d36f7b52b95ee5216a1ec757ad690."...

我们同时可以登录Hbase Web管理控制台来验证相关数据 http://192.168.56.12:16010/master-status

2.2 部署和配置pp-collector和pp-web

2.2.1 这里我们还需要部署一个zookeeper。从pinpoint1.5.0开始,pp-web到pp-agent的request请求直接通过pp-collector来统筹管理,包括一些real-time级别的信息监测,而zookeeper在其中间协调三者之间的通信沟通。如果zookeeper部署在独立的一台设备,这里我就需要修改一下pp-colletor & pp-web的配置文件pinpoint-collector.properties,pinpoint-web.properties,不然会导致俩个模块启动失败。详细描述参见官方文档

$ rpm -ivh /root/pp/zookeeper-3.4.6-10.el6.x86_64.rpm
$ /etc/init.d/zookeeper start     # 保证zookeeper的2181端口起来就可以了

2.2.2 pp-collector的配置

$ mkdir -p /data/service/
$ tar xf /root/pp/apache-tomcat-8.0.35.tar.gz -C /data/service/;cd /data/service/
$ mv apache-tomcat-8.0.35/ pinpoint-collector
$ vim /data/service/pinpoint-collector/conf/server.xml       # 因为我们的pp-collector和pp-web部署在同台设备,所以请确认tomcat启动端口不会冲突<Server port="8005" shutdown="SHUTDOWN"><Connector port="8085" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443"/><!--<Connector port="8009" protocol="AJP/1.3" redirectPort="8443"/>-->#  注释该行

$ rm -rf /data/service/pinpoint-collector/webapps/*
$ unzip pinpoint-collector-1.5.2.war -d /data/service/pinpoint-collector/webapps/ROOT/
$ cd /data/service/pinpoint-collector/webapps/ROOT/WEB-INF/classes
$ ls -al
-rw-rw-r-- 1 root root 15835 Apr 7 14:43 applicationContext-collector.xml
-rw-rw-r-- 1 root root 7485 Apr 7 14:43 applicationContext-hbase.xml
-rw-rw-r-- 1 root root 757 Apr 7 14:43 hbase.properties
-rw-rw-r-- 1 root root 1845 Apr 7 14:43 log4j.xml
-rw-rw-r-- 1 root root 1360 Apr 7 14:43 pinpoint-collector.properties # 主要针对 pp-agent 的配置,同时支持 tcp 和 udp 协议数据传输
-rw-rw-r-- 1 root root 3292 Apr 7 14:43 servlet-context.xml
...

这里大概说一下: applicationContext-collector.xml, applicationContext-hbase.xml 这俩个配置文件时collector与agent和Hbase之间通信时需要设定的一些参数,在后续调优的时候需要用到,hbase.properties 主要是设定后端存储的连接配置,log4j.xml那就是log相关了。

$ vim hbase.properties
hbase.client.host=192.168.56.12# 这里我们只修改这一项配置就好,能够让collector将汇报上来的数据存储到Hbase
hbase.client.port=2181

这里tomcat我们就用默认的启动端口了,实际的生产环境可能需要根据实际情况修改tomcat侦听端口。OK,到此,pp-collector我们就基本上配置完成了。接下来我们开始配置pp-web,它与collector很类似。

2.2.3 pp-web的配置

$ cd /data/service/
$ tar xf /root/pp/apache-tomcat-8.0.35.tar.gz -C /data/service/
$ mv apache-tomcat-8.0.35 pinpoint-web
$ cd pinpoint-web/webapps/;rm -rf *;mkdir ROOT;cd ROOT/
$ unzip /root/pinpoint-web-1.5.2.war
$ vim /data/service/pinpoint-web/conf/server.xml       # 因为我们的pp-collector和pp-web部署在同台设备,所以请确认tomcat启动端口不会冲突<Server port="8006" shutdown="SHUTDOWN"><Connector port="8086" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443"/><!--<Connector port="8009" protocol="AJP/1.3" redirectPort="8443"/>-->#  注释该行

$ cd /data/service/pinpoint-web/webapps/ROOT/WEB-INF/classes
$ vim hbase
.properties
hbase
.client.host=192.168.56.12# 设置 Hbase 数据源
hbase
.client.port=2181...
$ ls
-al
total
88-rw-rw-r--1 root root 2164Apr714:43 applicationContext-cache.xml
-rw-rw-r--1 root root 3649Apr714:43 applicationContext-dao-config.xml
-rw-rw-r--1 root root 1490Apr714:43 applicationContext-datasource.xml
-rw-rw-r--1 root root 6680Apr714:43 applicationContext-hbase.xml
-rw-rw-r--1 root root 1610Apr714:43 applicationContext-websocket.xml
-rw-rw-r--1 root root 6576Apr714:43 applicationContext-web.xml
-rw-rw-r--1 root root 106Apr714:43 batch.properties
-rw-rw-r--1 root root 682Apr714:43 ehcache.xml
-rw-rw-r--1 root root 1005Jul1421:45 hbase.properties
-rw-rw-r--1 root root 153Apr714:43 jdbc.properties
-rw-rw-r--1 root root 3338Apr714:43 log4j.xml
-rw-rw-r--1 root root 1420Apr714:43 mybatis-config.xml
-rw-rw-r--1 root root 630Apr714:43 pinpoint-web.properties
-rw-rw-r--1 root root 141Apr714:43 project.properties
-rw-rw-r--1 root root 3872Apr714:43 servlet-context.xml
drwxrwxr
-x 2 root root 4096Jul1421:46 sql
...

这里说明一下:

  • hbase.properties 配置我们pp-web从哪个数据源获取采集数据,这里我们只指定Hbase的zookeeper地址。
  • jdbc.properties pp-web连接自身Mysql数据库的连接认证配置。
  • sql目录 pp-web本身有些数据需要存放在MySQL数据库中,这里需要初始化一下表结构。
  • pinpoint-web.properties 这里pp-web集群的配置文件,如果你需要pp-web集群的话。
  • applicationContext-*.xml 这些文件在后续的调优工作中会用到。
  • log4j.xml 日志相关配置。

好了,pp-web终于算是配置完成了。

2.3 到这里,我们就可以启动pp-colletor和pp-web了

$ cp /root/pp/pp-*/etc/init.d/
$ chmod +x /etc/init.d/pp-*
$ /etc/init.d/pp-web restart
$ /etc/init.d/pp-collector restart

3.0 我们这个时候可以部署一个pp-agent试玩一下了,其实也就是很多APM厂商传说中的探针。这里我的探针是部署在自己的应用下面的,就只贴一下跑在tomcat下的探针配置信息了。顺带说明一下部署上的注意点。

以下是pp目前支持埋点的java模块:

JDK 6+Tomcat6/7/8,Jetty8/9Spring,SpringBootApache HTTP Client3.x/4.x, JDK HttpConnector,GoogleHttpClient,OkHttpClient,NingAsyncHttpClientThriftClient,ThriftService, DUBBO PROVIDER, DUBBO CONSUMER
MySQL,Oracle, MSSQL, CUBRID, DBCP, POSTGRESQL, MARIA
Arcus,Memcached,Redis, CASSANDRA
iBATIS,MyBatis
gson,Jackson,JsonLib
log4j,Logback

3.1 部署pp-agent (探针)

我们约定tomcat容器安装位置 /data/projects/service/app_demo,这里我们就将pp-agent解压至 /data/projects/service/下。

$ tar xf /root/pp/pinpoint-agent-1.5.2.tar.gz -C /data/projects/service/
$ cd /data/projects/service/pinpoint-agent-1.5.2/
$ vim pinpoint.config
profiler.collector.ip=192.168.56.11

这里说明一下: 我们只要指定pp-colletor的地址就可以了,至于端口如果之前pp-colletor没有变更这里也不需要修改。如果你的生产环境特殊,pinpoint支持还是很丰富的,同时支持tcp和udp协议传输。

$ pwd
/data/projects/service/pinpoint-agent-1.5.2
$ ls -al
total 80
drwxrwxr-x 6 ceph ceph  4096Jul1422:11.
drwxr-xr-x 3 root root  4096Jul1422:08..
drwxrwxr-x 2 ceph ceph  4096Apr713:43 boot
drwxrwxr-x 2 ceph ceph  4096Apr713:43 lib
-rw-rw-r--1 ceph ceph 27603Apr713:42 pinpoint-bootstrap-1.5.2.jar-rw-rw-r--1 ceph ceph 14278Apr713:30 pinpoint.config
-rw-rw-r--1 ceph ceph 11988Apr713:30 pinpoint-real-env-lowoverhead-sample.config
drwxrwxr-x 2 ceph ceph  4096Apr713:43 plugin
drwxrwxr-x 2 ceph ceph  4096Apr713:43 script

此刻,我们开始往我们的应用里部署探针。

$ vim /data/projects/service/app_demo/bin/catalina.sh
AGENT_VERSION="1.5.2"
AGENT_ID="pp201606011442"
APPLICATION_NAME="app-192-168-56-13"
AGENT_PATH="/data/projects/service/pinpoint-agent-1.5.2"
CATALINA_OPTS="$CATALINA_OPTS -javaagent:$AGENT_PATH/pinpoint-bootstrap-${AGENT_VERSION}.jar"
CATALINA_OPTS="$CATALINA_OPTS -Dpinpoint.agentId=$AGENT_ID"
CATALINA_OPTS="$CATALINA_OPTS -Dpinpoint.applicationName=$APPLICATION_NAME"

这里说明一下:

  • 探针配置项写到 CATALINA_OPTS 变量下一行即可。
  • AGENT_ID 命名必须在生产环境里唯一,否则后面将会混乱。
  • APPLICATION_NAME 配置为一个服务组的ID号,即服务组下的实例ID。
  • 此外参考官方agent文档说明

4.0. 重启被采集端的应用,使探针生效。

5.0. 打开浏览器,访问如下pp-web的页面验证我们的探针部署是否成功。其中,第二个链接是pp的APM主页面可以看到探针汇报上来的信息了。

http://192.168.56.11:8086/stat.html      # pp-agent 信息统计页面,即探针部署情况的统计信息 
http://192.168.56.11:8086/#/main       # pp APM信息主页面

5.1 页面访问效果如下(没有找到一个好的demo应用,这部分后续补齐,所以页面没有信息采集上来):

Pinpoint AgentPinpoint Main

6.0. 问题排查

  • 看日志,看日志,看日志。
  • 部署成功调试完成最好把agent端log级别调高一些,少打印日志。讲真,不然在你实时查看日志定位程序问题时,你会发现打印一堆了无效信息,绝对懵B。

7.0. 最后这里我们讲一下如何制作自己的Pinpoint定制版war包

7.1 编译环境要求

maven:3.2+
jdk-6/7/8

7.2 获取pp源代码

$ git clone https://github.com/naver/pinpoint.git
$ git branch -a 
* master
  remotes/origin/1.0.x
  remotes/origin/1.1.x
  remotes/origin/1.5.0-branch
  remotes/origin/1.5.x
  remotes/origin/HEAD -> origin/master
  remotes/origin/master
$ git checkout 1.5.x     // pp v1.6.x属于活跃开发版不建议编译安装,除非你非常熟悉pp的代码

7.3 设置JAVA环境变量为JDK-1.8.0。这里小小解释一下: 因为pp同时支持java多版本,这也是pp最可爱的地方,所以我们需要设置一下。

$ export JAVA_6_HOME=/usr/java/default
$ export JAVA_7_HOME=/usr/java/default
$ export JAVA_8_HOME=/usr/java/default
$ export JAVA_HOME=/usr/java/default

7.4 开始war包制作

$ cd pinpoint
$ mvn -f ./pom.xml install -Dmaven.test.skip=true[INFO]Scanningfor projects...[INFO]------------------------------------------------------------------------[INFO]ReactorBuildOrder:[INFO][INFO] pinpoint
[INFO] pinpoint-thrift
[INFO] pinpoint-commons
[INFO] pinpoint-commons-hbase
[INFO] pinpoint-commons-server
[INFO] pinpoint-bootstrap-core
[INFO] pinpoint-bootstrap
[INFO] pinpoint-rpc
[INFO] pinpoint-profiler
...

编译过程可能有些长,尤其在国内的网络环境。结束以后,请到target目录获取相应的pp war包。

7.5 编译过程遇到的问题:

[INFO]--- maven-enforcer-plugin:1.4.1:enforce (enforce-pinpoint-build-requirements)@ pinpoint ---[WARNING]Rule0: org.apache.maven.plugins.enforcer.RequireMavenVersion failed with message:DetectedMavenVersion:3.0.5isnotin the allowed range 3.2.[INFO]---------------------------------------------------------

问题解决:升级的maven版本,需要至少3.2+以上。

好了,今天先写到这,欢迎大家加群讨论(Pinpoint中文社区QQ群563655806)。

参考文档:

https://github.com/naver/pinpoint/blob/master/doc/installation.md
http://hbase.apache.org/book.html#standalone_dist Apache HBase ™ Reference Guide

 

 

转自:https://sconts.com/11

  • Java

    Java 是一种可以撰写跨平台应用软件的面向对象的程序设计语言,是由 Sun Microsystems 公司于 1995 年 5 月推出的。Java 技术具有卓越的通用性、高效性、平台移植性和安全性。

    3169 引用 • 8208 回帖
  • APM
    3 引用

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • BAE

    百度应用引擎(Baidu App Engine)提供了 PHP、Java、Python 的执行环境,以及云存储、消息服务、云数据库等全面的云服务。它可以让开发者实现自动地部署和管理应用,并且提供动态扩容和负载均衡的运行环境,让开发者不用考虑高成本的运维工作,只需专注于业务逻辑,大大降低了开发者学习和迁移的成本。

    19 引用 • 75 回帖 • 616 关注
  • frp

    frp 是一个可用于内网穿透的高性能的反向代理应用,支持 TCP、UDP、 HTTP 和 HTTPS 协议。

    16 引用 • 7 回帖 • 2 关注
  • 服务器

    服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。

    124 引用 • 580 回帖
  • Flume

    Flume 是一套分布式的、可靠的,可用于有效地收集、聚合和搬运大量日志数据的服务架构。

    9 引用 • 6 回帖 • 613 关注
  • Kotlin

    Kotlin 是一种在 Java 虚拟机上运行的静态类型编程语言,由 JetBrains 设计开发并开源。Kotlin 可以编译成 Java 字节码,也可以编译成 JavaScript,方便在没有 JVM 的设备上运行。在 Google I/O 2017 中,Google 宣布 Kotlin 成为 Android 官方开发语言。

    19 引用 • 33 回帖 • 51 关注
  • 程序员

    程序员是从事程序开发、程序维护的专业人员。

    544 引用 • 3531 回帖
  • 区块链

    区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。所谓共识机制是区块链系统中实现不同节点之间建立信任、获取权益的数学算法 。

    91 引用 • 751 回帖
  • SQLServer

    SQL Server 是由 [微软] 开发和推广的关系数据库管理系统(DBMS),它最初是由 微软、Sybase 和 Ashton-Tate 三家公司共同开发的,并于 1988 年推出了第一个 OS/2 版本。

    19 引用 • 31 回帖 • 2 关注
  • 面试

    面试造航母,上班拧螺丝。多面试,少加班。

    324 引用 • 1395 回帖 • 1 关注
  • Swagger

    Swagger 是一款非常流行的 API 开发工具,它遵循 OpenAPI Specification(这是一种通用的、和编程语言无关的 API 描述规范)。Swagger 贯穿整个 API 生命周期,如 API 的设计、编写文档、测试和部署。

    26 引用 • 35 回帖
  • Ruby

    Ruby 是一种开源的面向对象程序设计的服务器端脚本语言,在 20 世纪 90 年代中期由日本的松本行弘(まつもとゆきひろ/Yukihiro Matsumoto)设计并开发。在 Ruby 社区,松本也被称为马茨(Matz)。

    7 引用 • 31 回帖 • 196 关注
  • NGINX

    NGINX 是一个高性能的 HTTP 和反向代理服务器,也是一个 IMAP/POP3/SMTP 代理服务器。 NGINX 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本 0.1.0 发布于 2004 年 10 月 4 日。

    311 引用 • 546 回帖
  • 快应用

    快应用 是基于手机硬件平台的新型应用形态;标准是由主流手机厂商组成的快应用联盟联合制定;快应用标准的诞生将在研发接口、能力接入、开发者服务等层面建设标准平台;以平台化的生态模式对个人开发者和企业开发者全品类开放。

    15 引用 • 127 回帖 • 1 关注
  • 分享

    有什么新发现就分享给大家吧!

    245 引用 • 1776 回帖 • 1 关注
  • Ubuntu

    Ubuntu(友帮拓、优般图、乌班图)是一个以桌面应用为主的 Linux 操作系统,其名称来自非洲南部祖鲁语或豪萨语的“ubuntu”一词,意思是“人性”、“我的存在是因为大家的存在”,是非洲传统的一种价值观,类似华人社会的“仁爱”思想。Ubuntu 的目标在于为一般用户提供一个最新的、同时又相当稳定的主要由自由软件构建而成的操作系统。

    123 引用 • 168 回帖
  • jsoup

    jsoup 是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址、HTML 文本内容。它提供了一套非常省力的 API,可通过 DOM,CSS 以及类似于 jQuery 的操作方法来取出和操作数据。

    6 引用 • 1 回帖 • 473 关注
  • 负能量

    上帝为你关上了一扇门,然后就去睡觉了....努力不一定能成功,但不努力一定很轻松 (° ー °〃)

    88 引用 • 1234 回帖 • 441 关注
  • abitmean

    有点意思就行了

    39 关注
  • 资讯

    资讯是用户因为及时地获得它并利用它而能够在相对短的时间内给自己带来价值的信息,资讯有时效性和地域性。

    54 引用 • 85 回帖
  • gRpc
    11 引用 • 9 回帖 • 49 关注
  • TensorFlow

    TensorFlow 是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。

    20 引用 • 19 回帖 • 1 关注
  • 运维

    互联网运维工作,以服务为中心,以稳定、安全、高效为三个基本点,确保公司的互联网业务能够 7×24 小时为用户提供高质量的服务。

    148 引用 • 257 回帖
  • 锤子科技

    锤子科技(Smartisan)成立于 2012 年 5 月,是一家制造移动互联网终端设备的公司,公司的使命是用完美主义的工匠精神,打造用户体验一流的数码消费类产品(智能手机为主),改善人们的生活质量。

    4 引用 • 31 回帖 • 8 关注
  • ngrok

    ngrok 是一个反向代理,通过在公共的端点和本地运行的 Web 服务器之间建立一个安全的通道。

    7 引用 • 63 回帖 • 613 关注
  • CAP

    CAP 指的是在一个分布式系统中, Consistency(一致性)、 Availability(可用性)、Partition tolerance(分区容错性),三者不可兼得。

    11 引用 • 5 回帖 • 580 关注
  • 游戏

    沉迷游戏伤身,强撸灰飞烟灭。

    171 引用 • 814 回帖
  • ActiveMQ

    ActiveMQ 是 Apache 旗下的一款开源消息总线系统,它完整实现了 JMS 规范,是一个企业级的消息中间件。

    19 引用 • 13 回帖 • 641 关注