文档库 最新最全的文档下载
当前位置:文档库 › 大数据环境集群环境搭建

大数据环境集群环境搭建

大数据环境集群环境搭建
大数据环境集群环境搭建

大数据,hadoop,spark,hive,ZooKeeper,kafka,flume等组件环境搭建大数据环境搭建

1、CentOS 6.5

2、JDK 1.8

3、Hadoop 2.6

4、Hive 1.1.0

5、ZooKeeper-3.4.9

6、kafka_2.11-0.10.2.1

7、Spark 2.1.1

8、flume-ng-1.6.0

CentOS 6.5防火墙和DNS配置

1、关闭防火墙

2、配置yum

JDK 1.7安装

1、将jdk-8u131-linux-x64.tar.gz通过上传到服务器中

2、安装JDK:把压缩包放到/usr/java/目录下

3、配置jdk相关的环境变量

4、测试jdk安装是否成功:Java -version

5、rm -f /etc/udev/rules.d/70-persistent-net.rules

安装第二台和第三台服务器

1、安装上述步骤,再安装两台一模一样环境的服务器,因为后面hadoop和spark都是要搭建集群的。

2、集群的最小环境就是三台。因为后面要搭建ZooKeeper、kafka等集群。

3、另外两台机器的hostname分别设置为spark2和spark3即可,ip分别为192.168.1.108和192.168.1.109

4、在安装的时候,另外两台服务器的centos镜像文件必须重新拷贝一份,放在新的目录里,使用各自自己的镜像文件。

5、服务器的硬盘文件也必须重新选择一个新的目录,以更好的区分。

6、安装好之后,记得要在三台机器的/etc/hosts文件中,配置全三台机器的ip地址到hostname

的映射,而不能只配置本机,这个很重要!

7、在windows的hosts文件中也要配置全三台机器的ip地址到hostname的映射。

配置集群ssh免密码登录

1、首先在三台机器上配置对本机的ssh免密码登录

生成本机的公钥,过程中不断敲回车即可,ssh-keygen命令默认会将公钥放在/root/.ssh目录下

将公钥复制为authorized_keys文件,此时使用ssh连接本机就不需要输入密码了

2、接着配置三台机器互相之间的ssh免密码登录

使用ssh-copy-id -i spark命令将本机的公钥拷贝到指定机器的authorized_keys文件中(方便好用)

Hadoop 2.4.1集群搭建

安装hadoop包

修改hadoop相关的配置文件

进入/usr/local/hadoop/etc/hadoop 目录下

修改core-site.xml

修改hdfs-site.xml //设置hdfs的一些目录,放在/usr/local/data的目录下面

修改mapred-site.xml//mapreduce的框架设置为yarn

修改yarn-site.xml

修改slaves文件

在另外两台机器上搭建hadoop

启动hdfs集群

启动yarn集群

hive 0.13搭建

安装hive包

1、将的apache-hive-0.13.1-bin.tar.gz使用WinSCP上传到spark1的/usr/local目录下。

2、解压缩hive安装包:tar -zxvf apache-hive-0.13.1-bin.tar.gz。

3、重命名hive目录:mv apache-hive-0.13.1-bin hive

4、配置hive相关的环境变量,下面以.bashrc文件操作

3、使用yum安装mysql connector

4、将mysql connector拷贝到hive的lib包中

配置hive-site.xml

配置hive-env.sh和hive-config.sh

验证hive是否安装成功

直接输入hive命令,可以进入hive命令行

ZooKeeper 3.4.5集群搭建

安装ZooKeeper包

1、将zookeeper-3.4.5.tar.gz使用WinSCP拷贝到spark1的/usr/local目录下。

2、对zookeeper-3.4.5.tar.gz进行解压缩:tar -zxvf zookeeper-3.4.5.tar.gz。

3、对zookeeper目录进行重命名:mv zookeeper-3.4.5 zk。

4、配置zookeeper相关的环境变量

设置zk节点标识

搭建zk集群

1、在另外两个节点上按照上述步骤配置ZooKeeper,使用scp将zk和.bashrc拷贝到spark2和spark3上即可。

scp -r zk root@slave1:/usr/local/

2、唯一的区别是spark2和spark3的标识号分别设置为1和2。及myid 中的值修改为1 和2

启动ZooKeeper集群

kafka_2.9.2-0.8.1集群搭建

安装Scala 2.11.4

1、将scala-2.11.4.tgz使用WinSCP拷贝到spark1的/usr/local目录下。

2、对scala-2.11.4.tgz进行解压缩:tar -zxvf scala-2.11.4.tgz。

3、对scala目录进行重命名:mv scala-2.11.4 scala

4、配置scala相关的环境变量

5、查看scala是否安装成功:scala -version

6、按照上述步骤在spark2和spark3机器上都安装好scala。使用scp将scala和.bashrc拷贝到spark2和spark3上即可。

安装Kafka包

1、将kafka_2.9.2-0.8.1.tgz使用WinSCP拷贝到spark1的/usr/local目录下。

2、对kafka_2.9.2-0.8.1.tgz进行解压缩:tar -zxvf kafka_2.9.2-0.8.1.tgz。

3、对kafka目录进行改名:mv kafka_2.9.2-0.8.1 kafka

4、配置kafka

5、安装slf4j

将slf4j-1.7.6.zip上传到/usr/local目录下

unzip slf4j-1.7.6.zip

把slf4j中的slf4j-nop-1.7.6.jar复制到kafka的libs目录下面

搭建kafka集群

1、按照上述步骤在spark2和spark3分别安装kafka。用scp把kafka拷贝到spark2和spark3行即可。

2、唯一区别的,就是server.properties中的broker.id,要设置为1和2

启动kafka集群

1、在三台机器上分别执行以下命令:nohup bin/kafka-server-start.sh config/server.properties &(必须在kafka的主目录下执行cd /kafka)

2、解决kafka Unrecognized VM option ‘UseCompressedOops’问题

3、使用jps检查启动是否成功

测试kafka集群

使用基本命令检查kafka是否搭建成功

Spark 1.3.0集群搭建

安装spark包

1、将spark-1.3.0-bin-hadoop2.4.tgz使用WinSCP上传到/usr/local目录下。

2、解压缩spark包:tar zxvf spark-1.3.0-bin-hadoop2.4.tgz。

3、更改spark目录名:mv spark-1.3.0-bin-hadoop2.4 spark

4、设置spark环境变量

安装spark集群

在另外两个节点进行一模一样的配置,使用scp将spark和.bashrc拷贝到spark2和spark3即可。

启动spark集群

1、在spark目录下的sbin目录

2、执行./start-all.sh

3、使用jsp和8080端口可以检查集群是否启动成功

4、进入spark-shell查看是否正常

Spark1.3.0升级1.5

安装spark包

1、停止Spark 1.3.0集群:SPARK_HOME/sbin/stop-all.sh

2、将spark-1.5.1-bin-hadoop2.4.tgz使用WinSCP上传到/usr/local目录下。

3、解压缩spark包:tar zxvf spark-1.5.1-bin-hadoop2.4.tgz。

4、修改spark环境变量

安装spark集群

在另外两个节点进行一模一样的配置,使用scp将spark和.bashrc拷贝到spark2和spark3即可。

scp -r spark-1.5.1-bin-hadoop2.4 root@spark1:/usr/local/

启动spark集群

1、在spark目录下的sbin目录

2、执行./start-all.sh

3、使用jsp和8080端口可以检查集群是否启动成功

4、进入spark-shell查看是否正常

flume-ng-1.5.0-cdh5.3.6安装

安装flume

1、将flume-ng-1.5.0-cdh5.3.6.tar.gz使用WinSCP拷贝到sparkproject1的/usr/local目录下。

2、对flume进行解压缩:tar -zxvf flume-ng-1.5.0-cdh5.3.6.tar.gz

3、对flume目录进行重命名:mv apache-flume-1.5.0-cdh5.3.6-bin flume

4、配置scala相关的环境变量

修改flume配置文件

vi /usr/local/flume/conf/flume-conf.properties

agent1表示代理名称

agent1.sources=source1

agent1.sinks=sink1

agent1.channels=channel1

配置source1

agent1.sources.source1.type=spooldir

agent1.sources.source1.spoolDir=/usr/local/logs

agent1.sources.source1.channels=channel1

agent1.sources.source1.fileHeader = false

agent1.sources.source1.interceptors = i1

agent1.sources.source1.interceptors.i1.type = timestamp

配置channel1

agent1.channels.channel1.type=file

agent1.channels.channel1.checkpointDir=/usr/local/logs_tmp_cp agent1.channels.channel1.dataDirs=/usr/local/logs_tmp

配置sink1

agent1.sinks.sink1.type=hdfs

agent1.sinks.sink1.hdfs.path=hdfs://sparkproject1:9000/logs agent1.sinks.sink1.hdfs.fileType=DataStream

agent1.sinks.sink1.hdfs.writeFormat=TEXT

agent1.sinks.sink1.hdfs.rollInterval=1

agent1.sinks.sink1.channel=channel1

agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d

创建需要的文件夹

本地文件夹:mkdir /usr/local/logs

HDFS文件夹:hdfs dfs -mkdir /logs

启动flume-agent

测试flume

新建一份文件,移动到/usr/local/logs目录下,flume就会自动上传到HDFS的/logs目录中

Cloudera大数据平台环境搭建(CDH5.13.1)傻瓜式说明书

Cloudera大数据平台环境搭建(CDH5.13.1版)

目录

基础环境 软件环境 本文将介绍Centos7.4离线安装CDH和ClouderaManager过程,软件版本如下: 配置规划 本次安装共5台服务器,服务器配置及用途如下: 所需要的软件资源 1)JDK环境: JDK版本:51 jdk-8u151-linux-x64.rpm 下载地址: 2)CM包: CM版本:5.13.1 下载地址: 3)CDH包 CDH版本:5.13.1, ; .sha1; manifest.json 下载地址: 4)JDBC连接jar包: jar包版本:5.1.43, mysql-connector-java-5.1.43.jar 下载地址: 修改机器名(所有节点) 这种方式,在Centos7中可以永久性改变主机名称。

内容都改为: 设置防火墙(所有节点) 注:为了简便,可以先关闭防所有节点火墙,安装完成后,再按照下面步骤设置。 防火墙常用命令: 便,安装完毕后可以根据需要设置防火墙策略,保证集群安全。 配置免密码登录SSH 将子节点设置为从主节点ssh无密码登陆(主节点访问从节点需要无密码互通,否则后面会出现问题) 一路回车,生成无密码的密钥对。 把公钥拷贝至node169服务器上?: 登录到node169服务器上: 然后在node169服务器上,把公钥的内容追加到authorized_keys文件末尾(这个文件也在隐藏文件夹.ssh下,如果没有可以新建):

在node168节点出现下面表示成功登录node169节点: 以同样的方式将公钥拷贝至其他节点服务器上。 关闭SELINUX(所有节点) 关闭linuxSELINUX安全内核 (在Centos7中遇到SELINUX无法关闭的问题,重新启动机器恢复正常) 修改Linux内核参数(所有节点) 为避免安装过程中出现的异常问题,首先调整Linux内核参数。 1)设置swappiness,控制换出运行时内存的相对权重,Cloudera建议将swappiness设置为 10: 自CentOS6版本开始引入了TransparentHugePages(THP),从CentOS7版本开始,该特性默认就会启用。尽管THP的本意是为提升内存的性能,不过某些数据库厂商还是建议直接关闭THP,否则可能会导致性能出现下降。 表示已禁用:

基于大数据的能力开放平台解决方案精编版

基于大数据的能力开放平台解决方案 1 摘要 关键字:大数据经分统一调度能力开放 运营商经过多年的系统建设和演进,内部系统间存在一些壁垒,通过在运营商的各个内部系统,如经分、VGOP、大数据平台、集团集市等中构建基于ESB 的能力开放平台,解决了系统间调度、封闭式开发、数据孤岛等系统问题,使得运营商营销能力和效率大大提高。 2 问题分析 2.1 背景分析 随着市场发展,传统的开发模式已经无法满足业务开发敏捷性的要求。2014 年以来,某省运营商经营分析需求量激增,开发时限要求缩短,业务迭代优化需求频繁,原有的“工单-开发”模式平均开发周期为4.5 天,支撑负荷已达到极限。能力开放使业务人员可以更便捷的接触和使用到数据,释放业务部门的开发能力。 由于历史原因,业务支撑系统存在经分、VGOP、大数据平台、集团集市等多套独立的运维系统,缺乏统一的运维管理,造成系统与系统之间的数据交付复杂,无法最大化 的利用系统资源。统一调度的出现能够充分整合现有调度系统,减少运维工作量,提升维护质量。 驱动力一:程序调度管理混乱,系统资源使用不充分

经分、大数据平台、VGOP、集团集市平台各自拥有独立的调度管理,平台内程序基本是串行执行,以经分日处理为例,每日运行时间为20 个 小时,已经严重影响到了指标的汇总展示。 驱动力二:传统开发模式响应慢,不能满足敏捷开发需求 大数据平台已成为一个数据宝库,已有趋势表明,只依赖集成商与业 务支撑人员的传统开发模式已经无法快速响应业务部门需求,提升数据价值。 驱动力三:大数据平台丰富了经分的数据源,业务部门急待数据开放 某省运营商建立了面向企业内部所有部门的大数据平台,大数据平台 整合了接入B域、O 域、互联网域数据,近100 余个数据接口,共计820T 的数据逐步投入生产。大数据平台增强了传统经分的数据处理的能力,成为公司重要的资产,但是传统经分数据仓库的用户主要面向业支内部人员,限制了数据的使用人员范围和数据的使用频度,已经无法满足公司日益发展的业务需求,数据的开放迫在眉睫。 2.2 问题详解 基于背景情况分析,我们认为主要问题有三个: 1、缺乏统一的调度管理,维护效率低下 目前经分系统的日处理一般是使用SHELL 脚本开发的,按照串行调度的思路执行。进行能力开放后,目前的系统架构无法满足开发者提交的大量程序执行调度的运维需求。如果采用统一调度的设计思路则基于任务的数据表依赖进行任务解耦及调度,将大大简化调度配置工作和提高系统的

大数据一体化教学实训平台简介

大数据一体化教学实训平台简介 大数据一体化教学实训平台是由泰迪科技自主研发,旨在为高校大数据相关专业提供一体化教学实训环境及课程资源。 本平台共包含9大模块:云资源管理平台、教学管理平台、大数据分析平台、Python 数据挖掘建模平台、R语言数据挖掘建模平台、大数据开发实训平台、Python编程实训平台、R语言编程实训平台、大数据整合平台。以教学管理平台、云资源管理平台为支撑,以优质的课程、项目案例资源为核心,并以自主研发的数据挖掘建模平台为实训工具,把课程、软件、硬件内容统一结合,满足高校大数据教学与实训的一体化平台。 大数据一体化教学实训平台架构(总)

大数据一体化教学实训平台架构(理学方向) 大数据一体化教学实训平台架构(工学方向)

大数据一体化教学实训平台特点 ?B/S架构:可直接通过客户机的浏览器对服务器端的一体化教学实训平台进行访问。?模块丰富:提供软硬件管理、教学管理、实验实训等系列模块,满足不同的教学与实训场景使用。 ?拓展性强:教师自主开设新课程、添加各种课程资源与活动,满足用户的个性化需求。?单点登录:用户只需一次登录即可访问所有的教学与实训平台,解决了登录繁琐、操作不便等问题。 ?资源一体:提供教学大纲、教学视频、教学PPT、课后习题、实验指导书、实验数据、实验代码、实验环境等一系列的教学实训资源,全方位解决实际教学与实训过程中所遇到的问题。 ?教学一体:分别提供“教”与“学”的软件环境,教学与实训模块深度融合,真正实现一体化。 ?软硬件一体:硬件环境采用云柜的方式进行搭建,内部集成机柜、服务器(部署一体化教学实训平台)、供配电、UPS、变频空调、应急通风等,整个云柜架构和谐统一、方便安装与维护。 云资源管理平台简介

生态环境大数据平台项目建设方案

生态环境大数据平台项目建设方案 生态环境大数据平台项目 建设方案

目录 1概述 (1) 1.1项目简介 (1) 1.1.1项目背景 (1) 1.1.2建设目标 (2) 1.1.3建设范围 (3) 1.2手册目的 (3) 2运行环境和配置要求 (3) 3系统通用操作 (5) 3.1系统登录 (5) 3.2系统退出 (6) 4水环境质量 (7) 4.1数据采集 (7) 4.1.1水常规监测 (8) 4.2数据审核 (18) 4.2.1河流断面数据审核 (19) 4.2.2湖库垂线数据审核 (22) 4.2.3地下水数据审核 (23)

4.2.4饮用水地表水数据审核 (23) 4.2.5饮用水地下水数据审核 (24) 4.2.6饮用水地表水全分析审核 (24) 4.2.7饮用水地下水全分析审核 (25) 4.2.8水自动站监测数据审核 (25) 4.2.9县级饮用水地表水数据审核 (25) 4.2.10县级饮用水地下水数据审核 (25) 4.3数据查询 (25) 4.3.1地表水查询 (26) 4.3.2地下水查询 (29) 4.3.3饮用水查询 (31) 4.4报表分析 (36) 4.4.1水质评价报告 (37) 4.4.2地下水水质查询统计 (48) 4.4.3地表水水质查询统计 (54) 4.5基础信息 (59) 4.5.1基础信息 (59) 4.5.2代码信息 (68)

4.6GIS专题图 (72) 5空气环境质量 (72) 5.1数据采集 (72) 5.1.1大气监测 (73) 5.2数据审核 (80) 5.2.1气 (80) 5.2.2降水 (83) 5.2.3降尘 (84) 5.2.4硫酸盐化速率 (84) 5.3数据查询 (85) 5.3.1常规监测数据 (85) 5.4报表分析 (89) 5.4.1空气质量分析综合 (89) 5.5基础信息 (99) 5.5.1测点信息 (100) 5.5.2代码信息 (106) 5.6GIS专题图 (111) 6声环境质量 (111)

大数据平台架构~巨衫

1.技术实现框架 1.1大数据平台架构 1.1.1大数据库是未来提升业务能力的关键要素 以“大数据”为主导的新一波信息化浪潮正席卷全球,成为全球围加速企业技术创新、推动政府职能转变、引领社会管理变革的利器。目前,大数据技术已经从技术研究步入落地实施阶段,数据资源成为未来业务的关键因素。通过采集和分析数据,我们可以获知事物背后的原因,优化生产/生活方式,预知未来的发展动态。 经过多年的信息化建设,省地税已经积累了丰富的数据资源,为下一步的优化业务、提升管理水平,奠定了坚实的基础。 未来的数据和业务应用趋势,大数据才能解决这些问题。 《1.巨杉软件SequoiaDB产品和案例介绍 v2》P12 “银行的大数据资产和应用“,说明税务数据和业务分析,需要用大数据解决。 《1.巨杉软件SequoiaDB产品和案例介绍 v2》P14 “大数据与传统数据处理”,说明处理模式的差异。 1.1.2大数据平台总体框架 大数据平台总体技术框架分为数据源层、数据接口层、平台架构层、分析工具层和业务应用层。如下图所示:

(此图要修改,北明) 数据源层:包括各业务系统、服务系统以及社会其它单位的结构化数据和非结构化数据; 数据接口层:是原始数据进入大数据库的入口,针对不同类型的数据,需要有针对性地开发接口,进行数据的缓冲、预处理等操作; 平台架构层:基于大数据系统存储各类数据,进行处理?; 分析工具层:提供各种数据分析工具,例如:建模工具、报表开发、数据分析、数据挖掘、可视化展现等工具; 业务应用层:根据应用领域和业务需求,建立分析模型,使用分析工具,发现获知事物背后的原因,预知未来的发展趋势,提出优化业务的方法。例如,寻找服务资源的最佳配置方案、发现业务流程中的短板进行优化等。 1.1.3大数据平台产品选型 针对业务需求,我们选择巨杉数据库作为大数据基础平台。

Cloudera大数据平台环境搭建傻瓜式说明书

Cloudera大数据平台环境搭建 (版)

目 录 Cloudera 大数据平台环境搭建错误! 未定义书签。 版)错误! 未定义书 签。 1. 基础环 境. 错误! 未定义书签。 软件环境错误!未定义书签。 2. 3. 配置规划...... 所需要的软件资源 错误!未定义书签。 错误!未定义书签。 修改机器名(所有节点) 设置防火墙(所有节点) 配置免密码登录 SSH.. 关闭SELINUX(所有节点)…… 修改 Linux 内核参数(所有节 点) 其他安装与配置(所有节点) . 配置NTP服务................. 安装 oracle (所有节点) Mysql 安装(主节点) 安装CM 传包,解包 创建数据库 创建用户 制作本地YUM源 拷贝 修改 启动 访问 安装CDH 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误! 未定义书 签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 jar 包................. cloudera-scm-agent 配置 CM Server 和 Agent ..... 错误!未定义书签。 错误!未定义书签。 错误!未定义书签。 CM. 错误!未定义书签。 错误! 未定义书 签。 登录后界面错误!未定义书签。 选择CM版本错误!未定义书签。 指定主机错误!未定义书签。 选择CDH版本错误!未定义书签。 出现“主机运行状态不良”错误 检查主机正确性................... 错误!未定义书签。 错误!未定义书签。 选择安装的服务错误!未定义书签。 角色分配 . 数据库设置 错误!未定义书签。 错误!未定义书签。 测试连接报错:错误!未定义书签。 群集设置错误!未定义书签。

大数据学习环境搭建系列(二)虚拟机软件Vmware的安装

虚拟机软件Vmware的安装 1、概述 在进行分布式架构的学习前,首先需进行基础环境准备。众所周知,在单机运算能力无法满足处理海量数据的运算能力时,人们普遍开始考虑使用分布式运算来代替单机运算,这也成为了大数据分析和小数据分析最显著的区别之一,即使用的工具不同。当前大数据行业标准是使用Hadoop及其生态组件来执行分布式处理,这也是我们后续文章的主要内容。 分布式集群的主要目的在于连接多台的物理机,以达到整合运算能力线性增长的效果,在学习过程中,我们仍然可以在单台物理机上模拟搭建和运行分布式集群。通常来说,单台物理机上模拟分布式集群有两种方法,其一是利用Hadoop进行分进程的分布式模拟,即一般意义上的伪分布式,通常用于实验和测试;其二则是利用虚拟化软件,将一台物理机分为三台虚拟物理机,然后搭建分布式集群。其中后者与实际工作情景无异,只不过在物理机本身运算能力上有所差别,企业多用服务器级物理机,而在学习过程中个人电脑性能可能稍差。后续文章将针对两种分布式集群搭建方法进行教学,同时也将更加侧重分布式集群的搭建。

注:这里推荐个人计算机配置:硬盘空间大于100G、内存大于等于8G、CPU大于两核。 尽管Apache Hadoop可适用于Windows、Linux和Mac OS操作系统,但就其稳定性而言,我们首推Linux系统或Mac OS系统,而二者相比选择Linux系统适用面更为广泛,因此后续文章我们将在Linux系统中安装Hadoop。由于个人用户普遍使用Windows或Mac OS系统,我们需要在当前操作系统中虚拟一个Linux系统,因此,虚拟化工具就是我们需要掌握和使用的第一个软件。除此之外,由于将要多个虚拟机的统一管理和多个终端的操作,因此我们还需要掌握一些终端管理软件和文件传输软件的基本操作方法。这些软件将在后续使用过程中进行详细介绍。 2、虚拟机软件 2.1虚拟机软件简介 就目前而言,VMware Workstation是使用最为广泛、功能最为强大的虚拟机软件,主要用于IT开发和系统管理等商业环境,而开源虚拟软件Oracle VM VirtualBox,则在所有免费虚拟机软件中表现较为突出,成为大多数教学、实验等非商业环境中的首选。后续文章主要将采用VMware Workstation作为虚拟机软件安装虚拟机,而关于Virtual Box的下载和安装方法,也会在后续文章中单独介绍已满足各位同学的不同需求。今天我们介绍VMware Workstation的安装使用方法。 2.2VMware Workstation下载安装 1)VMware WorkStation下载 2)VMware WorkStation安装 双击安装文件,开始安装,在安全警告窗口点击“运行”

大数据环境软件

大数据环境软件 操作系统 CentOS 7 #zip unzip 命令安装 yum install zip unzip #netstat 等命令网络工具包安装 yum install net-tools 软件安装包 -rw-r--r--. 1 root root 20985335 4月30 10:14 apache-storm-0.9.3.tar.gz -rw-r--r--. 1 root root 153512879 5月26 16:15 jdk-7u79-linux-x64.tar.gz drwxr-xr-x. 10 root root 4096 7月10 11:55 jzmq -rw-r--r--. 1 root root 71503892 4月17 10:06 kafka_2.10-0.8.2.1.zip -rw-r--r--. 1 root root 1358190 5月27 11:26 redis-3.0.1.tar.gz -rw-r--r--. 1 root root 1877380 5月12 2011 zeromq-2.1.7.tar.gz -rw-r--r--. 1 root root 17699306 7月10 02:50 zookeeper-3.4.6.tar.gz JAVA vi /etc/profile 在文件末尾增加如下配置内容 #set java environment JAVA_HOME=/usr/local/jdk1.7.0_79/ CLASSPATH=.:$JAVA_HOME/lib/tools.jar PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME CLASSPATH PATH 配置生效 source /etc/profile 验证配置结果 [root@localhost local]# java -version java version "1.7.0_79"

使用Ambari快速部署Hadoop大数据环境

作者:杨鑫奇 前言 做大数据相关的后端开发工作一年多来,随着Hadoop社区的不断发展,也在不断尝试新的东西,本文 着重来讲解下Ambari,这个新的Apache的项目,旨在让大家能够方便快速的配置和部署Hadoop生态圈相关的组件的环境,并提供维护和监控的功能. 作为新手,我讲讲我自己的学习经历,刚刚开始学习的时候,当然最简单的 Google 下Hadoop ,然后下载相关的包,在自己的虚拟机(CentOS 6.3) 上安装一个单机的Hadoop版本用来做测试,写几个测试类,然后做下CRUD测试之类的,跑跑Map/Reduce的测试,当然这个时候对于Hadoop还不是很了解,不断的看别人的文章,了解下整体的架构,自己所做的就是修改conf下的几个配置文件,让Hadoop能够正常的跑起来,这个时候几种在修改配置上,这个阶段之后,又用到了HBase,这个Hadoop生态圈的另外一个产品,当然还是修改配置,然后 start-all.sh , start-hbase.sh 把服务起起来,然后就是修改自己的程序,做测试,随着用Hbase 学了下 Zookeeper 和Hive等, 接着过了这个操作阶段了之后,开始研究Hadoop2.0看了董的博客的相关文章,还有CSDN上很多大牛的文章了之后, 算是对Hadoop的生态圈整体有一些了解,介于自己在公司所承担的开发所涉及到相关的技术仅仅就这些.但是作为一个 爱好探索的人,是否想多了解下呢,它的性能怎么样? 它是具体如何运作的? 看大公司的那些PPT,人家(淘宝等大公司)动不动就是几十个,几百个,乃至几千个节点,人家是如何管理的,性能是怎么样的?看着PPT里面的那些性能测试的曲线,你是否也能够详细的了解,并且对自己的项目进行性能调优呢? 我貌似找到答案了,那就是 Ambari , 由HortonWorks开发的一个Hadoop相关的项目,具体可以上官方去了解. 了解Hadoop生态圈 现在我们经常看到的一些关键字有: HDFS,MapReduce,HBase,Hive,ZooKeeper,Pig,Sqoop,Oozie,Ganglia,Nagios,CDH3,CDH4,Flume,Scri be,Fluented,HttpFS等等,其实应该还有更多,Hadoop生态圈现在发展算是相当繁荣了,而在这些繁 荣的背后又是谁在推动的呢? 读过Hadoop历史的朋友可能知道,Hadoop最早是始于Yahoo,但是现在主要是由 HortonWorks 和 Cloudera 这2家公司在维护者,大部分的commiter 都属于这2家公司,所以现在市面上看到的主要有2个版本,CDH系列,和社区版, 我最早用的是社区版本,后来换到CDH3,现在又换回社区版,因为有Ambari.当然,用什么和不用什么,只要自己的技术到家,还是都能修改的跑的正常的.这里就不多说了. 讲了这么多废话了,开始讲 Ambari安装吧. 开始部署 首先了解下Ambari, 项目地址在:https://www.wendangku.net/doc/b612617229.html,/ambari/

环境大数据综合应用平台建设方案

第一章概述 (2) 第二章现状分析 (3) 2.1 环保相关系统 (3) 2.1.1 环境信息发布系统 (3) 2.1.2 环境监控监测系统 (3) 2.1.3 环境管理业务系统 (4) 2.1.4 高清视频监控 (6) 2.1.5 指挥中心 (6) 2.2 系统应用情况 (6) 第三章建设方案 (7) 3.1 平台要求 (7) 3.2 平台特点 (7) 3.3 建设原则 (8) 3.4 建设目标 (8) 3.5 建设内容 (9) 3.6 接口方式 (10) 第四章环境大数据综合应用平台介绍 (11) 4.1 平台功能介绍 (11) 4.1.1 云数据处理中心 (11) 4.1.1.1 数据交换目标 (11) 4.1.1.2 环保数据交换 (11) 4.1.2 统一用户管理系统 (12) 4.1.3 综合应用管理系统 (12) 4.1.3.1 环保信息查阅 (13) 4.1.3.2 环保信息分发 (13) 4.1.3.3 日程管理 (14) 4.1.3.4 我的工作台 (14) 4.1.4 办公自动化系统 (15) 4.1.4.1 我的工作台 (15) 4.1.4.2 公文管理 (16) 4.1.4.3 会议管理 (17) 4.1.4.4 车辆管理 (17) 4.1.4.5 接待管理 (18)

4.1.4.6 通讯录 (18) 4.1.4.7 工作交流 (19) 第五章相关技术 (20) 5.1 基于SOA技术架构 (20) 5.2 采用J2EE技术 (20) 5.3 遵循XML标准 (21) 5.4 采用组件化的设计方法 (22) 5.5 Web Service接口 (22) 第一章概述 近年来,国内环保信息化收到政府和环境保护部门的重视,环境保护事业进入新的发展阶段。为全面深化生态文明体制改革,2月份《关于推进环境监测服务社会化的指导意见》、6月份的《环境监测数据弄虚作假行为处理办法》和8月份的《生态环境监测网络建设方案》等国家政策的出台,全面放开了服务性监测市场,环境自动监测、第三方运营维护和智慧环保领域将出现快速增长。抓住当前国家大力发展大数据产业的政策时机,随着信息技术日益完善普及,环境相关信息及数据的价值将得到显现,将成为推进环境治理体系和治理能力现代化的重要手段,促进环保产业实现智慧化转型。 推进智慧环保建设,是把环保现代化推向新阶段的战略举措,是提升环保执法能力、加快节能减排的目标、提高公共管理服务水平的战略举措。智慧环保建设一方面要认真贯彻《2006-2020年国家信息化发展战略》和《国家综合业务OA 总体框架》,另一方面要按照《国务院关于落实科学发展观加强环境保护的决定》关于“完善环境监测网络,实现‘智慧环保’,加快环境与核安全信息系统建设,实行信息资源共享机制”的要求,全面建立适应经济社会发展和环境保护工作需要的环境信息化体系。

大数据学习环境搭建系列(一)大数据集群平台介绍

大数据集群平台介绍 掌握搭建大数据集群的方法是学习大数据技术的人需要具备的基础技能,因此我会通过接下来的三十余篇文章介绍大数据平台的搭建方法。在本文中我将向小伙伴们介绍一下搭建大数据集群需要哪些知识以及我们接下来搭建的大数据集群平台架构,让大家对平台有个总体的认识并普及一些概念。 首先我们接触的是虚拟机,及在虚拟机中安装Linux操作系统

集群搭建完成后我们总共会有四个虚拟机,其中伪分布集群有一台虚拟机,虚拟机名称为single_node。分布式集群有三个虚拟机名称分别为master、slave1、slave2。各个虚拟机的IP配置及安装软件(含软件运行的模块)如下表所示。 注:hostname:每个节点的主机名称 IP:每个节点的IP地址 NN:NameNode DN:DataNode NM:NodeManager RM:ResourceManager SNN:SecondaryNameNode / :表示不安装 分布式集群的架构如下图所示

slave1 192.168.***.12 slave2 192.168.***.13 Master 192.168.***.11 1、硬件 节点:我们后面会经常提到节点,分布式环境中一个服务器就是一个节点,在我们搭建的集群中服务器指的是通过VMware软件虚拟出来的虚拟机。 操作系统:服务器上运行的操作系统基本上都是Linux操作系统,当然虚拟机中安装的也是Linux系统。 网络:集群中的多个节点之间协同工作需要不断交换数据及状态、命令等信息,因此需要互通的网络环境。我们的集群是通过虚拟机软件虚拟出来的,网络也是由虚拟机软件虚拟出的虚拟网卡来实现数据交换的。 2、软件 集群中的软件主要有hadoop、spark、hive、hbase、zookeeper这几个。Hadoop 虽然大数据集群平台根据具体业务需求不同配置组成不同,但大部分集群都会以hadoop集群为基础。例如大数据仓库Hive及分布式数据库Hbase的存储都会用到hadoop 集群的分布式文件系统HDFS,计算部分默认使用Hadoop原生的MapReduce计算框架。分布式计算框架spark可以使用hadoop内置的通用资源管理模块yarn来提供统一的资源管理和调度。

大数据平台kerberos安装部署文档

大数据平台-kerberos安装部署文档

————————————————————————————————作者: ————————————————————————————————日期: ?

1.环境准备 1.1.操作系统 本次安装部署要求在操作系统为CentOS release 6.5(Final)的版本下进行部署,所以在安装部署kerberos之前请先确保操作系统为以上版本,并且集群 中各机器已做时钟同步。 本次安装部署以csdm-hadoop-04作为主kdc服务器,以csdm-hadoop-05作为从kdc服务器,以csdm-hadoop-03作为客户端。一般不建议在服务器上再 安装其他应用程序,比如hadoop。但为了节省资源本次安装在这三台机器均已安 装hadoop相关软件。 1.2.创建操作用户 创建操作系统hdfs、yarn、mapred用户,并使其归属于hadoop用户组: adduserhdfs -gHadoop adduseryarn -g Hadoop adduser mapred-gHadoop 1.3.配置hosts文件 为各台机器修改/etc/hosts文件,将真实ip与主机名对应配置,服务端与 客户端均需配置,形如:(不能存在127.0.0.1的配置,否则hadoop进行k erberos验证时将会出错) 1.4.关闭防火墙 执行以下命令关闭防火墙: service iptables stop 出现以下界面表示关闭成功 1.5.注册服务与端口的对应 在/etc/service文件最后增加以下信息,以便后续使用: ?krb5_prop754/tcp # Kerberos slave propagation 2.安装配置Kerberos 2.1.安装rpm包 ?以root用户登录并创建目录存放安装包: mkdir /var/kerberos

大数据技术实验一平台搭建

《大数据技术原理与应用》实验报告一 题目:安装Hadoop 姓名:高聪江班级:大数据1533 学号:2015005677 日期:2017.11.01 实验环境: 笔记本电脑一台 Archlinux虚拟机3台 Hadoop 2-7-10 Java 1-8-0 实验内容与完成情况: 下载相关软件已完成 安装虚拟机已完成 配置环境变量已完成 安装Hadoop 已完成 出现的问题: 01 虚拟机运行软件选择 02 虚拟机选择 03 虚拟机的分盘出现问题 04 虚拟机命令不被识别 05 Hadoop版本选择 06 Hadoop无法正常启动 07 结束安装后活节点数是0 解决方案(列出遇到的问题和解决办法,列出没有解决的问题): 01 虚拟机运行软件选择使用了VirtualBox 02 虚拟机选择使用了Archlinux 03 虚拟机的分盘出现问题再分了一次,成功解决 04 虚拟机命令不被识别系统的环境变量出现问题,修改配置文件解决 05 Hadoop版本选择选择了2-7-10这一比较广泛的版本Hadoop 06 Hadoop无法正常启动由于格式化节点的时候没有先把生成文件都删除 07 结束安装后活节点数是0 这个问题原因一直没有找到,重装解决的 报告正文 1.实验内容与步骤 本实验主要内容和步骤如下: 1.1.实验内容

Hadoop集群搭建(由于伪分布比较简单,所以实验报告描述集群搭建),WorldCount实例测试。 1.2.实验步骤 1>下载相关软件。主要是Java,VirtualBox,Hadoop安装包,虚拟机的镜像 文件。 2>安装ArchLinux虚拟机(由于此发行版本比较洁净,系统体积小,运 行比较流畅) 安装结果如图: 3>进行Hadoop集群安装 >>启用网络并安装SSH和JDK >>配置SSH免密登录

教你如何快速搭建一个大数据分析平台

一般的大数据平台从平台搭建到数据分析大概包括以下几个步骤: 1、Linux系统安装 一般使用开源版的Redhat系统--CentOS作为底层平台。为了提供稳定的硬件基础,在给硬盘做RAID和挂载数据存储节点的时,需要按情况配置。比如,可以选择给HDFS的namenode做RAID2以提高其稳定性,将数据存储与操作系统分别放置在不同硬盘上,以确保操作系统的正常运行。 2、分布式计算平台/组件安装 当前分布式系统的大多使用的是Hadoop系列开源系统。Hadoop的核心是HDFS,一个分布式的文件系统。在其基础上常用的组件有Yarn、Zookeeper、Hive、Hbase、Sqoop、Impala、ElasticSearch、Spark等。 使用开源组件的优点:1)使用者众多,很多bug可以在网上找的答案(这往往是开发中最耗时的地方);2)开源组件一般免费,学习和维护相对方便;3)开源组件一般会持续更新;4)因为代码开源,如果出现bug可自由对源码作修改维护。

常用的分布式数据数据仓库有Hive、Hbase。Hive可以用SQL查询,Hbase 可以快速读取行。外部数据库导入导出需要用到Sqoop。Sqoop将数据从Oracle、MySQL等传统数据库导入Hive或Hbase。Zookeeper是提供数据同步服务,Impala是对hive的一个补充,可以实现高效的SQL查询 3、数据导入 前面提到,数据导入的工具是Sqoop。它可以将数据从文件或者传统数据库导入到分布式平台。

4、数据分析 数据分析一般包括两个阶段:数据预处理和数据建模分析。 数据预处理是为后面的建模分析做准备,主要工作时从海量数据中提取可用特征,建立大宽表。这个过程可能会用到Hive SQL,Spark QL和Impala。 数据建模分析是针对预处理提取的特征/数据建模,得到想要的结果。如前面所提到的,这一块最好用的是Spark。常用的机器学习算法,如朴素贝叶斯、逻辑回归、决策树、神经网络、TFIDF、协同过滤等,都已经在ML lib里面,调用比较方便。

生态环境大数据平台建设方案 环境生态大数据监测预警系统建设方案2018版

生态环境大数据平台建设方案2018版 环境生态大数据监测预警系统建设方案

目录 1概述 (1) 1.1项目简介 (1) 1.1.1项目背景 (1) 1.1.2建设目标 (2) 1.1.3建设范围 (3) 1.2手册目的 (3) 2运行环境和配置要求 (3) 3系统通用操作 (5) 3.1系统登录 (5) 3.2系统退出 (6) 4水环境质量 (7) 4.1数据采集 (7) 4.1.1水常规监测 (8) 4.2数据审核 (17) 4.2.1河流断面数据审核 (18) 4.2.2湖库垂线数据审核 (21)

4.2.3地下水数据审核 (21) 4.2.4饮用水地表水数据审核 (22) 4.2.5饮用水地下水数据审核 (22) 4.2.6饮用水地表水全分析审核 (23) 4.2.7饮用水地下水全分析审核 (23) 4.2.8水自动站监测数据审核 (24) 4.2.9县级饮用水地表水数据审核 (24) 4.2.10县级饮用水地下水数据审核 (24) 4.3数据查询 (24) 4.3.1地表水查询 (25) 4.3.2地下水查询 (28) 4.3.3饮用水查询 (30) 4.4报表分析 (35) 4.4.1水质评价报告 (36) 4.4.2地下水水质查询统计 (47) 4.4.3地表水水质查询统计 (53) 4.5基础信息 (58)

4.5.1基础信息 (58) 4.5.2代码信息 (67) 4.6GIS专题图 (71) 5空气环境质量 (72) 5.1数据采集 (72) 5.1.1大气监测 (73) 5.2数据审核 (80) 5.2.1气 (80) 5.2.2降水 (84) 5.2.3降尘 (84) 5.2.4硫酸盐化速率 (85) 5.3数据查询 (85) 5.3.1常规监测数据 (86) 5.4报表分析 (89) 5.4.1空气质量分析综合 (89) 5.5基础信息 (99) 5.5.1测点信息 (100)

大数据环境集群环境搭建

大数据环境搭建 1、CentOS 6.5 2、JDK 1.8 3、Hadoop 2.6 4、Hive 1.1.0 5、ZooKeeper-3.4.9 6、kafka_2.11- 7、Spark 2.1.1 8、flume-ng-1.6.0 CentOS 6.5防火墙和DNS配置 1、关闭防火墙 2、配置yum JDK 1.7安装 1、将jdk-8u131-linux- 2、安装JDK:把压缩包放到/usr/java/目录下

3、配置jdk相关的环境变量 5、rm -f /etc/udev/rules.d/70-persistent-net.rules 安装第二台和第三台服务器 1、安装上述步骤,再安装两台一模一样环境的服务器,因为后面hadoop和spark都是要搭建集群的。 2、集群的最小环境就是三台。因为后面要搭建ZooKeeper、kafka等集群。 3、另外两台机器的hostname分别设置为spark2和spark3即可,ip分别为 4、在安装的时候,另外两台服务器的centos镜像文件必须重新拷贝一份,放在新的目录里,使用各自自己的镜像文件。 5、服务器的硬盘文件也必须重新选择一个新的目录,以更好的区分。 6、安装好之后,记得要在三台机器的/etc/hosts文件中,配置全三台机器的ip地址到hostname 的映射,而不能只配置本机,这个很重要! 7、在windows的hosts文件中也要配置全三台机器的ip地址到hostname的映射。 配置集群ssh免密码登录 1、首先在三台机器上配置对本机的ssh免密码登录

生成本机的公钥,过程中不断敲回车即可,ssh-keygen命令默认会将公钥放在/root/.ssh目录下 ssh-keygen -t rsa 将公钥复制为authorized_keys文件,此时使用ssh连接本机就不需要输入密码了 cd /root/.ssh cp id_rsa.pub authorized_keys 2、接着配置三台机器互相之间的ssh免密码登录 使用ssh-copy-id -i spark命令将本机的公钥拷贝到指定机器的authorized_keys文件中(方便好用) Hadoop 安装hadoop包 1、使用hadoop-,使用W in SCP上传到CentOS的/usr/local目录下。 2、将hadoop包进行解压缩:tar -zxvf hadoop- 3、对hadoop目录进行重命名:mv hadoop-2.4.1 hadoop 4、配置hadoop相关环境变量

大数据分析平台系统开发

大数据分析平台系统开发 1、搭建大数据平台离不开BI。在大数据之前,BI就已经存在很久了,简单把大数据等同于BI,明显就是不恰当的。但两者又就是紧密关联的,相辅相成的。BI就是达成业务管理的应用工具,没有BI,大数据就没有了价值转化的工具,就无法把数据的价值呈现给用户,也就无法有效地支撑企业经营管理决策;大数据则就是基础,没有大数据,BI就失去了存在的基础,没有办法快速、实时、高效地处理数据,支撑应用。所以,数据的价值发挥,大数据平台的建设,必然就是囊括了大数据处理与BI应用分析建设的。 2、大数据拥有价值。来瞧瞧数据使用金字塔模型,从数据的使用角度来瞧,数据基本有以下使用方式: 自上而下,可以瞧到,对数据的要求就是不一样的: ?数据量越来越大,维度越来越多。 ?交互难度越来越大。 ?技术难度越来越大。 ?以人为主,逐步向机器为主。 ?用户专业程度逐步提升,门槛越来越高。

企业对数据、效率要求的逐步提高,也给大数据提供了展现能力的平台。企业构建大数据平台,归根到底就是构建企业的数据资产运营中心,发挥数据的价值,支撑企业的发展。 整体方案思路如下: 建设企业的基础数据中心,构建企业统一的数据存储体系,统一进行数据建模,为数据的价值呈现奠定基础。同时数据处理能力下沉,建设集中的数据处理中心,提供强大的数据处理能力;通过统一的数据管理监控体系,保障系统的稳定运行。有了数据基础,构建统一的BI应用中心,满足业务需求,体现数据价值。 提到大数据就会提到hadoop。大数据并不等同于hadoop,但hadoop的确就是最热门的大数据技术。下面以最常用的混搭架构,来瞧一下大数据平台可以怎么 通过Kafka作为统一采集平台的消息管理层,灵活的对接、适配各种数据源采集(如集成flume),提供灵活、可配置的数据采集能力。 利用spark与hadoop技术,构建大数据平台最为核心的基础数据的存储、处理能力中心,提供强大的数据处理能力,满足数据的交互需求。同时通过sparkstreaming,可以有效满足企业实时数据的要求,构建企业发展的实时指标体系。 同时为了更好的满足的数据获取需求,通过RDBMS,提供企业高度汇总的统计数据,满足企业常规的统计报表需求,降低使用门槛。对大数据明细查询需求,则通过构建HBase集群,提供大数据快速查询能力,满足对大数据的查询获取需求。 一般的大数据平台从平台搭建到数据分析大概包括以下几个步骤:

蒙草搭建农业大数据平台资料

一、 蒙草集团依托20余年的生态科研实践,运用互联网、云计算、物联网等技术,结合实地监测,整理收集指定区域水、土、气、人、草、畜等生态系统相关数据,建立指标分析模型,从而精准指导生态修复实践,科学指导产业发展决策,优化引导农牧民生产生活,成为生态产业、农林牧产业等移动版的“GPS”+“科技110”。作为“生态+农业”大数据的一项实践,五原县农业大数据平台是蒙草依据当地农业生态现状和农业生产实际需求,搭建的以农业大数据为核心的生态公众服务平台。 大数据指导农业生产 五原县农业大数据平台使当地的农业生态实现了农业技术服务“一网覆盖”,农业资源数据“一键获取”,有效监控农畜产品的产量和质量。同时,大数据平台的遥感数据也提供该县农作物种类的空间分布、作物长势的变化以及不同程度的盐碱地分布的各类信息,为该县因地制宜规划农业生产提供依据。 大数据平台中的物联监测,可提供农作物生长环境、生长需求以及不同气候温度条件下病虫害发生情况的信息,提示农业部门及农民及早预防治疗,保证农作物健康生长,并通过精准施肥灌溉,减少水肥浪费,保护生态环境,促进农业可持续发展。 平台可监测家畜疫病的防治。防疫员可通过“智慧农业”APP快速地将牲畜图片、视频、农户和防疫员确认签字情况等防疫信息实时上报,并汇总到大数据平台。平台可对疫苗进行追溯,并做出该地区防疫热区图。2018年2月14日,五原县养羊农户赵瑞花在平台留言,家里的羊腿疼,走路一瘸一拐,不吃草,情况不止出现过一次,且附近几个村子都有类似情况发生。专家王强胜看到提问后回复了有效的治疗措施。平台通过为农户提供与专家沟通的渠道,为农户及时解决问题。 此外,农业信息员也将防灾减灾、土地流转与疫病防控等相关信息发布在农业综合信息平台上。平台信息结合科技服务直通车的

生态环境大数据平台整体解决方案

生态环境大数据平台建设方案V3.0 生态环境大数据平台 建 设 方 案

目录 1概述 (14) 1.1项目简介 (14) 1.1.1项目背景 (14) 1.2建设目标 (15) 1.2.1业务协同化 (16) 1.2.2监控一体化 (16) 1.2.3资源共享化 (16) 1.2.4决策智能化 (16) 1.2.5信息透明化 (17) 2生态环境大数据一体化管理平台 (18) 2.1生态环境大数据一体化平台结构图 (18) 2.2生态环境大数据一体化管理平台架构图 (20) 2.3生态环境大数据一体化管理平台解决方案(3721解决方案)20 2.3.1一张图:“天空地”一体化地理信息平台 .. 21 2.3.2两个中心 (30) 2.3.3三个体系 (32)

2.3.4七大平台 (32) ?高空视频及热红外管理系统 (44) ?激光雷达监测管理系统 (44) ?车载走航管理系统 (44) ?网格化环境监管系统 (45) ?机动车尾气排放监测 (45) ?扬尘在线监测系统 (45) ?餐饮油烟在线监测系统 (46) ?水环境承载力评价系统 (46) ?水质生态监测管理系统 (47) ?湖泊生态管理系统 (47) ?水生态管理系统 (48) ?排污申报与排污费管理系统 (49) ?排污许可证管理系统 (49) ?建设项目审批系统 (49) 3生态环境大数据一体化管理平台功能特点 (51) 3.1管理平台业务特点 (51)

3.1.1开启一证式管理,创新工作模式 (51) 3.1.2拓展数据应用,优化决策管理 (51) 3.1.3增强预警预报、提速应急防控 (52) 3.1.4完善信息公开、服务公众参与 (53) 3.2管理平台技术特点 (54) 3.2.1技术新 (54) 3.2.2规范高 (55) 3.2.3分析透 (55) 3.2.4功能实 (56) 1、污染源企业一源一档 (59) 3.2.5检索平台 (61) 3.2.6消息中心 (62) 3.3管理平台功能 (62) 3.3.1环境质量监测 (63) 3.3.2动态数据热力图 (64) 3.3.3评价模型 (64) 3.3.4感知终端 (65)

相关文档
相关文档 最新文档