Category Archives: 批处理系统

1.多播(Multicast)
组播是将某些节点划分为一个组,然后信息发送者将信息发给组内的每一个节点

2.容错与扩展性(Fault-Tolerance And ScalaBility)
一般而言,进行通讯时要考虑如下因素:

节点可能会出现意外;数据包有可能丢失;1000个节点

3.集中统一(Centralized)
想要实现多播的话,最简单的形式是一种集中的方法。消息发送者有一个收件人列表,然后发送者对列表中的每一个接收者都发送一份消息。它的容缺缺点是,如果在循环发送途中,发送者出错了,那么剩下的一半接收者就不可能收到消息了。此外,该方法的延时很高,因为只有一个发送者在不停发送,所以会导致接收者存在延时,这在接收者名单很长的时候表现尤为明显。

前言
这系列笔记是记录Coursera上伊利诺伊大学厄巴纳香槟分校 Prof. Indranil Gupta 所开设课程“Cloud Computing Concepts”课程内容的。该课程主要涉及的是“云”本身的框架,并不涉及到基于云计算的应用编写,如果需要学习应用编写,可以查看UIUC推出的云计算专项课程。由于水平有限,文中难免会有不准确的地方,在此诚挚欢迎大家指出,共同交流完善。

1、控制台:
进行Hadoop集群任务管理的时候,我们可以通过访问任意一台机器的8088端口

hadoop01:8088/cluster
进入图形界面。

2、驱动分析
我们以WordCount这个jar为例,进行分析,其中的main方法称为驱动:

public class WordCount
{
public static void main(String[] args) throws Exception // 整个main方法是驱动
{
Job job = new Job(conf,”word count”); // 提交job
job.setJarByClass(WordCount.class); // 定义要运行的jar地址
job.setMapperClass(TokenizerMapper.class); // 定义Mapper
job.setCombinerClass(IntSumReducer.class); // 定义Combiner
job.setReducerClass(IntSumReducer.class); // 定义Reducer
job.setOutputKeyClass(Text.class); // 定义输出的key的类,这里是Text
job.setOutputValueClass(IntWritable.class); // 定义输出的Value的类,这里是可序列化的

一、HDFS Java API的使用
操作HDFS的常用api有下面几种:

创建目录、上传文件、下传文件
移动文件、重命名文件、删除文件
查看HDFS存储的文件列表
查看HDFS存储的所有文件信息

一、前言
这个系列的笔记是根据网上的大数据教程记录的。笔记内容以课堂内容为主,方便复习。这个课程主要涉及了Hadoop离线处理框架、Storm实时处理工具、Kafka消息队列等方面的知识,内容不是特别深入,仅供入门学习。限于我仍是初学者,对于课程的笔记难免有不准确的地方,欢迎大家指正。

二、数据部
1、数据部的一般组织架构
对于目前流行的“大数据”一词,其实我个人会倾向于尽量避开,因为它涉及到的内容实在是太宽泛了。

在这里,将企业与数据相关的部门泛称为数据部。首先来看看,这个部门中有哪些岗位/职责。

对于离线平台组:

Hadoop集群运维工程师:Linux运维、Hadoop集群运维调优、服务器运维
Hive工程师:类似于用sql来写分析
ETL工程师:Flume数据收集、数据加载Hadoop、数据标准化
对于实时平台组:

相当于JAVA EE继续往后深入,其中流式计算框架有Storm/JStorm,消息队列有Kafka/Metaq

Insert math as
Block
Inline
Additional settings
Formula color
Text color
#333333
Type math using LaTeX
Preview
\({}\)
Nothing to preview
Insert