PredictionIo 0.12.1 설치 상세 설명

43854 단어 PredictionIo
PredictionIo 0.12.1 설치 안내 참조 사이트:http://predictionio.apache.org/install/ 환경: 시스템 환경:
Ubuntu 14.04

소프트웨어 버 전: 설치 테스트 과정 에서 사 용 된 소프트웨어 버 전: 설치 해 야 함: Java: 64 - Bit "1.8.0 171" Hadoop: 2.7.6 Scala: 2.12.6 Spark: 2.1.1 (hadop 2.7 의 spark - 2.1.1 - bin - hadop 2.7 버 전 지원) 선택 적 설치 (3 중 1), (이번 테스트 설치 3 선택 저장 소): 1: PostgreSQL 9.1 2: MySQL 5.1 3: Apache HBase 1.2.6 Elasticsearch 5.5.2 소프트웨어 버 전 선택: Scala 2.10. x, 2.11. x Spark 1.6. x, 2.0. x, 2.1. x Hadoop 2.4. x to 2.7. x Elasticsearch 1.7. x, 5. x (PredictionIo 0.11.0 버 전 이상, 5. x 선택)
자바 참고 사이트 설치:http://www.runoob.com/java/java-environment-setup.html
설치 과정: 1: jdk - 8 - 64. tar. gz 설치 패 키 지 를 / usr / local / java 디 렉 터 리 로 이동 합 니 다. 2: jdk - 8 - 64. tar. gz 를 현재 디 렉 터 리 로 압축 해제 합 니 다.명령: "tar zxvf jdk-8-64.tar.gz";
설치 경로: / usr / local / java / jdk 1.8.0171
설정: 파일 / root /. bashrc 는 다음 과 같이 추 가 됩 니 다.
export JAVA_HOME=/usr/local/java/jdk1.8.0_171
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export PATH=${JAVA_HOME}/bin:$PATH

설치 성공 여부 확인: 명령 "java - version" 출력 버 전 정 보 를 입력 하고 설치 성공;
스칼라 참고 사이트 설치:http://www.runoob.com/scala/scala-install.html
설치 과정: 1: scala - 2.12.6. tgz 설치 패 키 지 를 / usr / local / scala 디 렉 터 리 로 이동 2: scala - 2.12.6. tgz 를 현재 디 렉 터 리 로 압축 해제
설치 경로: / usr / local / scala / scala - 2.12.6
설정: 파일 / root /. bashrc 는 다음 과 같이 추 가 됩 니 다.
export SCALA_PATH=/usr/local/scala/scala-2.12.6
export PATH=${JAVA_HOME}/bin:$SCALA_APTH:$PATH

설치 성공 여부 확인: 명령 "scalac - version" 출력 버 전 정 보 를 입력 하고 설치 성공;
Hadoop 참고 사이트 설치:https://blog.csdn.net/wee_mita/article/details/52750112 https://www.cnblogs.com/xzjf/p/7231519.html http://hadoop.apache.org/releases.html
설명: Hadoop 을 테스트 설치 하 는 것 은 단기 모드 로 설치 성분 포 식 클 러 스 터 방식 을 확장 할 수 있 습 니 다.
설치 과정: 1: hadop - 2.7.6. tar. gz 설치 패 키 지 를 / usr / local / hadop 디 렉 터 리 로 이동 합 니 다. 2: hadop - 2.7.6. tar. gz 를 현재 디 렉 터 리 로 압축 해제 합 니 다.
설치 경로: / usr / local / hadop / hadop - 2.7.6
설정: 1: 파일 / root /. bashrc 는 다음 과 같이 추 가 됩 니 다.
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.6
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
export PATH=${JAVA_HOME}/bin:$SCALA_PATH/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$HADOOP_HOME:$SCALA_APTH:$PATH

2: 파일 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / core - site. xml 에 다음 과 같은 내용 을 추가 합 니 다.
<configuration>
//     start
    <property>
        <name>fs.default.namename>
        <value>hdfs://{$HOST_NAME}:9000value>
    property>
    <property>
        <name>hadoop.http.staticuser.username>
        <value>hdfsvalue>
    property>
    <property>
        <name>io.file.buffer.sizename>
        <value>131072value>
    property>
    <property>
        <name>hadoop.tmp.dirname>
        <value>file:/usr/local/hadoop/hadoop-2.7.6/hdfs/tmpvalue>
    property>
    <property>
        <name>hadoop.proxyuser.hadoop.hostsname>
        <value>*value>
    property>
    <property>
        <name>hadoop.proxyuser.hadoop.groupsname>
        <value>*value>
    property>
    <property>
        <name>fs.checkpoint.periodname>
        <value>3600value>
    property>
    <property>
        <name>fs.checkpoint.sizename>
        <value>67108864value>
    property>
//     end
configuration>

3: 파일 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / hdfs - site. xml 에 다음 내용 을 추가 합 니 다.
<configuration>
//     start
    <property>
        <name>dfs.replicationname>             
        <value>1value>                    
    property>
    <property>
        <name>dfs.permissionsname>
        <value>falsevalue>
    property>
    <property>
         <name>dfs.namenode.name.dirname>
         <value>file:/usr/local/hadoop/hadoop-2.7.6/hdfs/namenodevalue>
    property>
    <property>
         <name>fs.checkpoint.dirname>
         <value>file:/usr/local/hadoop/hadoop-2.7.6/hdfs/secondarynamenodevalue>
    property>
    <property>
         <name>fs.checkpoint.edits.dirname>
         <value>file:/usr/local/hadoop/hadoop-2.7.6/hdfs/secondarynamenode value>
    property>
    <property>
         <name>dfs.datanode.data.dirname>
         <value>file:/usr/local/hadoop/hadoop-2.7.6/hdfs/datanodevalue>
    property>
    <property>
         <name>dfs.namenode.http-addressname>
         <value>{$HOST_NAME}:50070value>
    property>
    <property>
          <name>dfs.namenode.secondary.http-addressname>
          <value>{$HOST_NAME}:50090value>
    property>
    <property>
          <name>dfs.webhdfs.enabledname>
          <value>truevalue>
    property>
//     end
configuration>

4: 파일 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / mapred - site. xml 에 다음 내용 을 추가 합 니 다.
<configuration>
//     start
    <property>
        <name>mapreduce.framework.namename>
        <value>yarnvalue>    
    property>
    <property>
        <name>mapreduce.jobhistory.addressname>
        <value>{$HOST_NAME}:10020value>  
    property>
    <property>
        <name>mapreduce.jobhistory.webapp.addressname>
        <value>{$HOST_NAME}:19888value>
    property>
    <property>
        <name>yarn.app.mapreduce.am.staging-dirname>
        <value>/mapreducevalue>                  
    property>
//     end
configuration>

5: 파일 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / yarn - site. xml 에 다음 내용 을 추가 합 니 다.
<configuration>
//     start
    <property>
        <name>yarn.web-proxy.addressname>
        <value>yarn_proxy:YARN_PROXY_PORTvalue>
    property>
    <property>
        <name>yarn.resourcemanager.scheduler.addressname>
        <value>{$HOST_NAME}:8030value>
    property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.addressname>
        <value>{$HOST_NAME}:8031value>
    property>
    <property>
        <name>yarn.resourcemanager.addressname>
        <value>{$HOST_NAME}:8032value>
    property>
    <property>
        <name>yarn.resourcemanager.admin.addressname>
        <value>{$HOST_NAME}:8033value>
    property>
    <property>
        <name>yarn.resourcemanager.webapp.addressname>
        <value>{$HOST_NAME}:8080value>
    property>
    <property>
        <name> mapreduce.job.ubertask.enablename>
        <value>truevalue>
    property>
//     end
configuration>

6: / usr / local / hadop / hadop - 2.7.6 / etc / hadop / slaves 파일 을 열 고 slave 호스트 이름 으로 한 줄 씩 추가 합 니 다.
{$HOST_NAME}

7: ${HADOOP HOME} / etc / hadop / masters 파일 을 열 고 secondary namenode 의 호스트 이름 으로 한 줄 씩 추가 합 니 다.
8: 파일 수정 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / hadop - env. sh 인 자 는 다음 과 같 습 니 다.
HADOOP_HEAPSIZE=500
HADOOP_NAMENODE_INIT_HEAPSIZE=500

9: 수정 파일 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / mapred - env. sh 매개 변 수 는 다음 과 같 습 니 다.
HADOOP_JOB_HISTORYSERVER_HEAPSIZE=250

10: 수정 파일 / usr / local / hadop / hadop - 2.7.6 / etc / hadop / yarn - env. sh 매개 변 수 는 다음 과 같 습 니 다.
JAVA_HEAP_MAX=Xmx500m
YANR_HEAPSIZE=500

방화벽 닫 기:
sudoufw disable
serviceiptables stop / start
serviceiptables status

Hadoop 을 처음 실행 할 때 다음 과 같은 동작 이 있어 야 합 니 다.
cd /usr/local/hadoop/hadoop-2.7.6
bin/hdfs namenode -format 

hadop 서비스 시작: cd / usr / local / hadop / hadop - 2.7.6 / sbin 시작: "./start-all.sh" 종료: "./stop-all.sh"
hadop 시작 성공 여 부 를 검사 합 니 다: 명령 "jps - l" 을 입력 하여 다음 정보 가 있 는 지 확인 하 십시오.
인터페이스 주소: http: / / {$HOST NAME}: 50070 /
Prediction 0.12.1 패키지 설치 주소:https://www.apache.org/dyn/closer.cgi/predictionio/0.12.1/apache-predictionio-0.12.1.tar.gz
설치 경로: / home / PredictionIo
설치 과정: 1: PredictionIO - 0.12.1. tar. gz 설치 패 키 지 를 / home / PredictionIo 디 렉 터 리 로 이동 합 니 다.2: PredictionIO - 0.12.1. tar. gz 를 현재 디 렉 터 리 로 압축 해제 3: PredictionIo 디 렉 터 리 에 들 어가 ". / make - distribution. sh" 파일 cdPredictionIo c d P r e d i c t i o n I o. / make - distribution. sh 를 실행 합 니 다.
PredictionIo/sbt/sbt
PredictionIo/conf/
PredictionIo/conf/pio-env.sh

5: 설치 디 렉 터 리 / home / Prediction Io 새 폴 더 vendors
$ mkdir PredictionIo /vendors

설정: 파일 / root /. bashrc 는 다음 과 같이 추 가 됩 니 다.
export PIO_HOME=/home/PredictionIo
export PATH=${JAVA_HOME}/bin:$PIO_HOME:$PIO_HOME/bin:$SCALA_PATH/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$HADOOP_HOME:$SCALA_APTH:$PATH

Spark 설치 디 렉 터 리 / home / Patition Io / vendors / spark - 2.1.1 - bin - hadoop 2.7 설치
설치 과정 1: 패키지 다운로드 / home / prediction Io / vendors 설치 디 렉 터 리
$ wget http://d3kbcqa49mib13.cloudfront.net/spark-2.1.1-bin-hadoop2.6.tgz

2: 설치 디 렉 터 리 에 압축 해제 패키지
$ tar zxvfC spark-2.1.1-bin-hadoop2.6.tgz PredictionIo/vendors

설정: 1: 파일 / root /. bashrc 는 다음 과 같이 추 가 됩 니 다.
export SPARK_HOME=/home/PredictionIo/vendors/spark-2.1.1-bin-hadoop2.7
export PATH=${JAVA_HOME}/bin:$PIO_HOME:$PIO_HOME/bin:$SCALA_PATH/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$HADOOP_HOME:$SPARK_HOME:$SCALA_APTH:$PATH

2: Spark 프로필 편집 / conf / spark - env. sh 다음 설정 추가
export HADOOP_CONF_DIR={$HADOOP_PATH}/etc/hadoop
export HADOOP_HOME={$HADOOP_PATH}
export JAVA_HOME={$JAVA_PATH}
export SCALA_HOME={$SCALA_PATH}
export SPARK_WORK_MEMORY=3g
export SPARK_MASTER_HOST={$HOST_NAME}
export SPARK_MASTER_IP={$HOST_NAME}
export MASTER=spark://{$HOST_NAME}:7077
export SPARK_MASTER_OPTS="-Dspark.deploy.defaultCores=4"

인터페이스 주소: http: / {$HOST NAME}: 8080 /
Elasticsearch 설치 디 렉 터 리 / home / PerditionIo / vendors / elasticsearch - 5.5.2 설치
설치 과정 1: 패키지 다운로드 / home / prediction Io / vendors 설치 디 렉 터 리 $wgethttps://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.5.2.tar.gz 2: 설치 디 렉 터 리 에 압축 해제 패키지 $tar zxvfC elasticsearch - 5.5.2. tar. gz PredictionIo / vendors
Elasticsearch 설치 성공 여 부 를 확인 합 니 다: 1: Elasticsearch 를 시작 하면 "root" 사용 자 를 사용 할 수 없습니다. 새 사용자 "elastic", 비밀번호 "elastic" 을 사용 하고 사용자 "elastic" 관리자 "root" 권한 을 설정 합 니 다.2: 사용자 "elastic" 전환 3: Elasticsearch 설치 디 렉 터 리 bin 에 들 어가 ". / elasticsearch" 시작 서 비 스 를 실행 하고 다음 정 보 를 출력 하면 설치 에 성공 합 니 다.
[2018-08-03T15:43:05,783][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [aggs-matrix-stats]
[2018-08-03T15:43:05,783][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [ingest-common]
[2018-08-03T15:43:05,784][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [lang-expression]
[2018-08-03T15:43:05,789][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [lang-groovy]
[2018-08-03T15:43:05,789][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [lang-mustache]
[2018-08-03T15:43:05,789][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [lang-painless]
[2018-08-03T15:43:05,789][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [parent-join]
[2018-08-03T15:43:05,789][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [percolator]
[2018-08-03T15:43:05,790][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [reindex]
[2018-08-03T15:43:05,790][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [transport-netty3]
[2018-08-03T15:43:05,790][INFO ][o.e.p.PluginsService     ] [i8eVyaH] loaded module [transport-netty4]
[2018-08-03T15:43:05,790][INFO ][o.e.p.PluginsService     ] [i8eVyaH] no plugins loaded
[2018-08-03T15:43:11,281][INFO ][o.e.d.DiscoveryModule    ] [i8eVyaH] using discovery type [zen]
[2018-08-03T15:43:12,013][INFO ][o.e.n.Node               ] initialized
[2018-08-03T15:43:12,013][INFO ][o.e.n.Node               ] [i8eVyaH] starting ...
[2018-08-03T15:43:12,261][INFO ][o.e.t.TransportService   ] [i8eVyaH] publish_address {127.0.0.1:9300}, bound_addresses {[::1]:9300}, {127.0.0.1:9300}
[2018-08-03T15:43:12,273][WARN ][o.e.b.BootstrapChecks    ] [i8eVyaH] max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
[2018-08-03T15:43:15,366][INFO ][o.e.c.s.ClusterService   ] [i8eVyaH] new_master {i8eVyaH}{i8eVyaHsQwKynitriABD1Q}{dz63krojSnivRerG3RROZQ}{127.0.0.1}{127.0.0.1:9300}, reason: zen-disco-elected-as-master ([0] nodes joined)
[2018-08-03T15:43:15,436][INFO ][o.e.h.n.Netty4HttpServerTransport] [i8eVyaH] publish_address {127.0.0.1:9200}, bound_addresses {[::1]:9200}, {127.0.0.1:9200}
[2018-08-03T15:43:15,436][INFO ][o.e.n.Node               ] [i8eVyaH] started
[2018-08-03T15:43:15,792][INFO ][o.e.g.GatewayService     ] [i8eVyaH] recovered [1] indices into cluster_state
[2018-08-03T15:43:16,354][INFO ][o.e.c.r.a.AllocationService] [i8eVyaH] Cluster health status changed from [RED] to [YELLOW] (reason: [shards started [[pio_meta][4]] ...]).

HBase 패키지 설치 다운로드 주소:http://www.apache.org/dyn/closer.cgi/hbase/1.2.6/hbase-1.2.6-bin.tar.gz
설치 디 렉 터 리 / home / Production Io / vendors / hpase - 1.2.6
설치 과정 1: 패키지 다운로드 / home / prediction Io / vendors 설치 디 렉 터 리
$ wget http://archive.apache.org/dist/hbase/1.2.6/hbase-1.2.6-bin.tar.gz

2: 설치 디 렉 터 리 에 압축 해제 패키지
$ tar zxvfC hbase-1.2.6-bin.tar.gz PredictionIo/vendors

설정: 1: HBase 설정 파일 / conf / 데이터베이스 - site. xml 을 편집 하여 다음 과 같은 내용 을 추가 합 니 다.
<configuration>
//     star
  <property>
    <name>hbase.rootdirname>
    <value>file:///home/PredictionIo/vendors/hbase-1.2.6/datavalue>
  property>
  <property>
    <name>hbase.zookeeper.property.dataDirname>
    <value>/home/PredictionIo/vendors/hbase-1.2.6/zookeepervalue>
  property>
//     end
configuration>

2: HBase 설정 파일 / conf / 데이터베이스 - env. sh 를 편집 하여 다음 설정 을 추가 합 니 다.
export JAVA_HOME={$JAVA_PATH}

인터페이스 주소: http: / / {HOST NAME}: 16010 / 또는 http: / / {HOST NAME}: 16010 / 또는 http: / / {HOST NAME}: 60010 /
PredictionIo 설정 설치 1: PredictionIo 설치 디 렉 터 리 에 들 어가 기 / home / PredictionIo 2: 파일 편집 / conf / pio - env. sh 설정 정 보 는 다음 과 같 습 니 다.
SPARK_HOME=$PIO_HOME/vendors/spark-2.1.1-bin-hadoop2.7
HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

PIO_FS_BASEDIR=$HOME/.pio_store
PIO_FS_ENGINESDIR=$PIO_FS_BASEDIR/engines
PIO_FS_TMPDIR=$PIO_FS_BASEDIR/tmp

PIO_STORAGE_REPOSITORIES_METADATA_NAME=pio_meta
PIO_STORAGE_REPOSITORIES_METADATA_SOURCE=ELASTICSEARCH

PIO_STORAGE_REPOSITORIES_EVENTDATA_NAME=pio_event
PIO_STORAGE_REPOSITORIES_EVENTDATA_SOURCE=HBASE

PIO_STORAGE_REPOSITORIES_MODELDATA_NAME=pio_model
PIO_STORAGE_REPOSITORIES_MODELDATA_SOURCE=LOCALFS

PIO_STORAGE_SOURCES_ELASTICSEARCH_TYPE=elasticsearch
PIO_STORAGE_SOURCES_ELASTICSEARCH_HOSTS=127.0.0.1
PIO_STORAGE_SOURCES_ELASTICSEARCH_PORTS=9200
IO_STORAGE_SOURCES_ELASTICSEARCH_SCHEMES=http
PIO_STORAGE_SOURCES_ELASTICSEARCH_HOME=$PIO_HOME/vendors/elasticsearch-5.5.2
PIO_STORAGE_SOURCES_ELASTICSEARCH_USERNAME=elastic
PIO_STORAGE_SOURCES_ELASTICSEARCH_PASSWORD=elastic

PIO_STORAGE_SOURCES_HBASE_TYPE=hbase
PIO_STORAGE_SOURCES_HBASE_HOME=$PIO_HOME/vendors/hbase-1.2.6
PIO_STORAGE_SOURCES_HBASE_HOSTS=127.0.0.1
PIO_STORAGE_SOURCES_HBASE_PORTS=7070 

PIO_STORAGE_SOURCES_LOCALFS_TYPE=localfs
PIO_STORAGE_SOURCES_LOCALFS_PATH=$PIO_FS_BASEDIR/models
       MySql,      :
MYSQL_JDBC_DRIVER=$PIO_HOME/lib/mysql-connector-java-5.1.44-bin.jar
SPARK_HOME=$PIO_HOME/vendors/spark-2.1.1-bin-hadoop2.7
HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

PIO_FS_BASEDIR=$HOME/.pio_store
PIO_FS_ENGINESDIR=$PIO_FS_BASEDIR/engines
PIO_FS_TMPDIR=$PIO_FS_BASEDIR/tmp

PIO_STORAGE_REPOSITORIES_METADATA_NAME=pio_meta
PIO_STORAGE_REPOSITORIES_METADATA_SOURCE=MYSQL

PIO_STORAGE_REPOSITORIES_EVENTDATA_NAME=pio_event
PIO_STORAGE_REPOSITORIES_EVENTDATA_SOURCE=MYSQL

PIO_STORAGE_REPOSITORIES_MODELDATA_NAME=pio_model
PIO_STORAGE_REPOSITORIES_MODELDATA_SOURCE=MYSQL

PIO_STORAGE_SOURCES_MYSQL_TYPE=jdbc
PIO_STORAGE_SOURCES_MYSQL_URL=jdbc:mysql://{$MYSQL_URL}:3306/{$MYSQL_DBNAME}
PIO_STORAGE_SOURCES_MYSQL_USERNAME={$MYSQL_USERNAME}
PIO_STORAGE_SOURCES_MYSQL_PASSWORD={$MYSQL_PASSWORD}

PredictionIo 서비스 시작 1: Elasticsearch 와 HBase 설 치 를 선택 하면: 시작: pio-start-all 닫 기: pio-stop-all 2: MySql 설 치 를 선택 하면: 시작: pio eventserver &PredictionIo 설치 성공 여 부 를 확인 합 니 다. 명령 "pio status" 을 입력 하고 다음 내용 을 출력 하면 설치 에 성공 합 니 다.
[INFO] [Management$] Inspecting PredictionIO...
[INFO] [Management$] PredictionIO 0.12.1 is installed at /home/PredictionIo
[INFO] [Management$] Inspecting Apache Spark...
[INFO] [Management$] Apache Spark is installed at /home/PredictionIo/vendors/spark-2.1.1-bin-hadoop2.7
[INFO] [Management$] Apache Spark 2.1.1 detected (meets minimum requirement of 1.3.0)
[INFO] [Management$] Inspecting storage backend connections...
[INFO] [Storage$] Verifying Meta Data Backend (Source: ELASTICSEARCH)...
[INFO] [Storage$] Verifying Model Data Backend (Source: LOCALFS)...
[INFO] [Storage$] Verifying Event Data Backend (Source: HBASE)...
[INFO] [Storage$] Test writing to Event Store (App Id 0)...
[INFO] [HBLEvents] The table pio_event:events_0 doesn't exist yet. Creating now...
[INFO] [HBLEvents] Removing table pio_event:events_0...
[INFO] [Management$] Your system is all ready to go.

Hadoop, HBase, Elasticsearch, Spark, Prediction 모든 서 비 스 를 시작 합 니 다. 명령 "jps - l" 을 입력 하고 다음 내용 을 출력 합 니 다.
4512 org.apache.predictionio.tools.console.Console
6705 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
9586 org.apache.spark.deploy.SparkSubmit
10948 org.elasticsearch.bootstrap.Elasticsearch
3780 org.apache.spark.deploy.worker.Worker
10870 org.apache.predictionio.tools.console.Console
9673 org.apache.spark.executor.CoarseGrainedExecutorBackend
6282 org.apache.hadoop.hdfs.server.namenode.NameNode
9515 org.apache.predictionio.tools.console.Console
3627 org.apache.spark.deploy.master.Master
6443 org.apache.hadoop.hdfs.server.datanode.DataNode
12894 sun.tools.jps.Jps

좋은 웹페이지 즐겨찾기