欢迎光临IT网Linux学习频道

当前位置: > Linux集群 > Hadoop >
  • [Hadoop] MapReduce应用 日期:2015-10-10 11:06:07 点击:63 好评:0

    目录[-] 1、MapReduce实现矩阵相乘 2、MapReduce实现倒排索引 3、MapReduce实现复杂倒排索引 1、MapReduce实现矩阵相乘 一. 准备数据 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 #!/bin/bash if[$#-ne3] then echotheremustb...

  • [Hadoop] MapReduce简单使用 日期:2015-10-10 11:05:14 点击:186 好评:0

    目录[-] 1、启动hadoop工程 2、MapReduce统计文本单词数量 2、MapReduce排除文本重复数据 3、MapReduce实线文本数据的简单排序 4、MapReduce实线单表连接 1、启动hadoop工程 2、MapReduce统计文本单词数量 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19...

  • [Hadoop] 基本hadoop文件操作 日期:2015-10-10 11:03:24 点击:65 好评:0

    目录[-] 1、启动hadoop工程 2、eclipse导入插件 3、在Map/Reduce的窗口下建立连接(单机版) 4、创建工程,导入jar,配置文件 5、hadoop操作文件 1、启动hadoop工程 2、eclipse导入插件 将hadoop-eclipse-plugin-2.6.0.jar插件导入eclipse中,重启eclipse 3...

  • [Hadoop] ubuntu14.04 安装hadoop 日期:2015-10-10 11:03:06 点击:195 好评:0

    目录[-] 1、下载hadoop,解压 2、配置.bashrc文件 4、配置hadoop-env.sh文件 5、配置mapred-site.xml文件 6、配置core-site.xml文件 7、配置yarn-site.xml文件 8、配置hdfs-site.xml文件 9、设置面密码登录 10、格式化hadoop数据 10、启动hadoop 11、查看had...

  • [Hadoop] hadoop 网站日志分析 日期:2015-10-08 12:49:04 点击:190 好评:0

    一、项目要求 本文讨论的日志处理方法中的日志,仅指Web日志。其实并没有精确的定义,可能包括但不限于各种前端Web服务器apache、lighttpd、nginx、tomcat等产生的用户访问日志,以及各种Web应用程序自己输出的日志。 二、需求分析: KPI指标设计 PV(PageVie...

  • [Hadoop] hadoop-双色球-统计 日期:2015-10-08 12:06:47 点击:79 好评:0

    1/使用hadoop把双色球相邻的红球进行统计: 测试数据在:http://pan.baidu.com/s/1hq82YrU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55...

  • [Hadoop] 基于Eclipse的Hadoop应用开发环境配置 日期:2015-10-08 12:06:43 点击:189 好评:0

    基于Eclipse的Hadoop应用开发环境配置 我的开发环境: 操作系统centos5.5 一个namenode 两个datanode Hadoop版本:hadoop-0.20.203.0 Eclipse版本:eclipse-java-helios-SR2-linux-gtk.tar.gz(使用3.7的版本总是崩溃,让人郁闷) 第一步:先启动hadoop守护进...

  • [Hadoop] Hadoop Namenode不能启动 dfs/name is in an inconsistent 日期:2015-10-08 12:05:42 点击:88 好评:0

    前段时间自己的本机上搭的Hadoop环境(按文档的伪分布式),第一天还一切正常,后来发现每次重新开机以后都不能正常启动,在start-dfs.sh之后jps一下发现namenode不能正常启动,按提示找到logs目录下namenode的启动log发现如下异常 org.apache.hadoop.hdfs.s...

  • [Hadoop] hadoop-streaming 例子 日期:2015-10-08 12:05:12 点击:195 好评:0

    Hadoop Streaming是Hadoop提供的一个编程工具,它允许用户使用任何可执行文件或者脚本文件作为Mapper和Reducer,例如: 采用shell脚本语言中的一些命令作为mapper和reducer(cat作为mapper,wc作为reducer) 1 2 bin/hadoop jar contrib/streaming/hadoop-0....

  • [Hadoop] [Hadoop] Sqoop安装过程详解 日期:2015-10-08 12:04:05 点击:129 好评:0

    Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 Sqoop官方版本:http://apache.dataguru.cn/sqoop/1...

  • [Hadoop] ubuntu 安装hadoop 伪分布模式 日期:2015-10-08 12:03:51 点击:117 好评:0

    1/首先在官网下载hadoop文件,hadoop-0.23.6.tar.gz 2/系统下要安装jdk 我的系统jdk安装在:JAVA_HOME=/usr/lib/jvm/java-6-oracle 3/解压hadoop-0.23.6.tar.gz文件: 1 tar -xvzf hadoop-0.23.6.tar.gz 给文件设置所有者 1 #chown -R tianbx:tianbx title.tx...

  • [Hadoop] hadoop-mapreduce分析 日期:2015-10-08 12:02:42 点击:164 好评:0

    把整个Hadoop看作是容器,那么Mapper和Reduce就是容器里的组件,*Context保存了组件的一些配置信息,同时也是和容器通信的机制。 参数 作用 缺省值 其它实现 InputFormat 将输入的数据集切割成小数据集InputSplits,每一个InputSplit将由一个Mapper负责处理。...

  • [Hadoop] hadoop-Mapper分析 日期:2015-10-08 12:01:33 点击:78 好评:0

    2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 8...

  • [Hadoop] hadoop-reduce分析 日期:2015-10-08 12:01:00 点击:154 好评:0

    Map的结果,会通过partition分发到Reducer上,Reducer做完Reduce操作后,通过OutputFormat,进行输出 Map的结果,会通过partition分发到Reducer上,Reducer做完Reduce操作后,通过OutputFormat,进行输出。 ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18...

  • [Hadoop] hadoop-ID分析 日期:2015-10-08 12:00:18 点击:60 好评:0

    我们开始来分析Hadoop MapReduce的内部的运行机制。用户向Hadoop提交Job(作业),作业在JobTracker对象的控制下执行。Job被分解成为Task(任务),分发到集群中,在TaskTracker的控制下运行。Task包括MapTask和ReduceTask,是MapReduce的Map操作和Reduce操...

  • [Hadoop] Hadoop杂记 日期:2015-10-08 11:56:59 点击:148 好评:0

    namenode(hdfs)+jobtracker(mapreduce)可以放在一台机器上,datanode+tasktracker可以在一台机器上,辅助namenode要单独放一台机器,jobtracker通常情况下分区跟datanode一样(目录最好分布在不同的磁盘上,一个目录对应一个磁盘),namenode存储目录需要...

  • [Hadoop] hadoop 节点正常启动可是50075/50030不能访问 日期:2015-10-08 11:56:25 点击:123 好评:0

    情景描述: 因为以前namenode节点下面的hadoop/lib文件夹加入了一些别的jar包(为了测试一些东西),而datanode节点下面的hadoop/lib文件夹没有增加.导致hadoop启动错误.为了统一,我把namenode节点下面的hadoop/lib文件夹下面的所有文件都删除了,从datanode节点...

  • [Hadoop] Cannot delete .... . Name node is in safe mode 日期:2015-10-08 11:55:52 点击:144 好评:0

    摘要org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot delete /benchmarks/TestDFSIO/io_control. Name node is in safe mode. 如何关闭安全模式呢? 命令为: 1 bin/hadoop dfsadmin -safemode le...

  • [Hadoop] Hadoop序列化中的Writable接口(附部分源码) 日期:2015-10-08 11:37:22 点击:53 好评:0

    序列化是将结构化对象为字节流以便与通过网络进行传输或者写入持久存储。反序列化指的是将字节流转为一系列结构化对象的过程。 序化在分布式数据处理的两列大领域经常出现:进程间通信和永久存储 hadoop中,节点直接的进程间通信是用远程过程调用(RPC)实现...

  • [Hadoop] Hadoop 实现定制的Writable类型(附部分源码) 日期:2015-10-08 11:36:27 点击:190 好评:0

    writeable接口对java基本类型提供了封装,short和char除外。所有的封装包含get()和set()两个方法用于读取和设置值。 Writable的Java基本类封装 Java基本类型 Writable使用序列化大小(字节) 布尔型 BooleanWritable 1 字节型 ByteWritable 1 整型 IntWritab...

  • [Hadoop] hadoop 压缩 日期:2015-10-08 11:34:18 点击:143 好评:0

    编码器和解码器用以执行压缩解压算法。在Hadoop里,编码/解码器是通过一个压缩解码器接口实现的。 Hadoop可用的编码/解码器。 压缩格式 Hadoop压缩编码/解码器 DEFLATE org.apache.hadoop.io.compress.DefaultCodec gzip org.apache.hadoop.io.compress.Gzip...

  • [Hadoop] hadoop 数据一致模型 日期:2015-10-08 11:34:13 点击:110 好评:0

    文件系统的一致模型描述了对文件读写的数据可见性。HDFS为性能牺牲了一些POSIX请求,因此一些操作可能比想像的困难。 在创建一个文件之后,在文件系统的命名空间中是可见的,如下所示: pathp=newPath(p); Fs.create(p); assertThat(fs.exists(p),is(true));...

  • [Hadoop] hadoop常见问题Browse the filesystem链接打不开 日期:2015-10-08 11:31:49 点击:90 好评:0

    现象: 在访问 Master:50070 之后,点击 browse the filesystem 后,该页无法显示。 原因: 点击 browse the filesystem 后,网页转向的地址用的是 hadoop 集群的某一个 datanode 的主机名,由于客户端的浏览器无法解析这个主机名,因此该页无法显示。 解决...

  • [Hadoop] hadoop ClassNotFoundException解决办法 日期:2015-10-08 11:31:12 点击:104 好评:0

    我在测试hadoop时候,自己写了一个类,并且这个类中引用了2个类,运行的时候找不到引用的类。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 5...

  • [Hadoop] hadoop文件读取剖析 日期:2015-10-08 11:31:02 点击:59 好评:0

    文件读取剖析 为了了解客户端及与之交互的HDFS、名称节点和数据节点之间的数据流是怎样的,我们可参考图3-1,其中显示了在读取文件时一些事件的主要顺序。 (点击查看大图)图3-1:客户端从HDFS中读取数据 客户端通过调用FileSystem对象的open()来读取希望打...

  • [Hadoop] hadoop FileSystem查询文件系统 日期:2015-10-08 11:28:51 点击:149 好评:0

    文件元数据:Filestatus 任何文件系统的一个重要特征是定位其目录结构及检索其存储的文件和目录信息的能力。FileStatus类封装了文件系统中文件和目录的元数据,包括文件长度、块大...

  • [Hadoop] hadoop包简介-HDFS的概念 日期:2015-10-08 11:22:37 点击:78 好评:0

    Hadoop的package的介绍: Package Dependences tool 提供一些命令行工具,如 DistCp , archive mapreduce Hadoop 的 Map/Reduce 实现 filecache 提供 HDFS 文件的本地缓存,用于加快 Map/Reduce 的数据访问速度 fs 文件系统的抽象,可以理解为支持多种文件...

  • [Hadoop] hadoop-FileSystem文件写入数据 日期:2015-10-08 11:08:51 点击:152 好评:2

    FileSystem类有一系列创建文件的方法。最简单的是给拟创建的文件指定一个路径对象,然后返回一个用来写的输出流: 1 public FSDataOutputStream create(Path f) throws IOException 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 2...

栏目列表
推荐内容