Groups
Groups
Sign in
Groups
Groups
Hadoop In China
Conversations
About
Send feedback
Help
Hadoop In China
1–30 of 189
Mark all as read
Report group
0 selected
infoc...@gmail.com
11/1/16
Hadoop online training
Technology has increased rapidly and this creates the space for IT industries to take equal steps
unread,
Hadoop online training
Technology has increased rapidly and this creates the space for IT industries to take equal steps
11/1/16
infoc...@gmail.com
7/22/16
Big Data Analyst Training
The amount of data produced across the globe has been going on increasing quickly and will continue
unread,
Big Data Analyst Training
The amount of data produced across the globe has been going on increasing quickly and will continue
7/22/16
Info Cim
7/21/16
Hadoop Training In Bay Area
Hadoop is a very common and powerful (raised, flat supporting surface) for working with data, but it
unread,
Hadoop Training In Bay Area
Hadoop is a very common and powerful (raised, flat supporting surface) for working with data, but it
7/21/16
zhang辉张
, …
Hailang You
7
2/3/16
请问如何增加一个map的输入量?
直接使用CombineTextInputFormat ,可以将小文件合并。 job.setInputFormatClass(CombineTextInputFormat.class); job.
unread,
请问如何增加一个map的输入量?
直接使用CombineTextInputFormat ,可以将小文件合并。 job.setInputFormatClass(CombineTextInputFormat.class); job.
2/3/16
Shuoling Deng
5/12/14
MR 1.x 中Scheduler能否阻塞
因科研需要,需要重新设计MapReduce的调度器。 现在想在调度器中调用阻塞(网络访问)的方法,是否会对调度器的效能造成巨大影响?或者MR 1.x 不支持阻塞调用。
unread,
MR 1.x 中Scheduler能否阻塞
因科研需要,需要重新设计MapReduce的调度器。 现在想在调度器中调用阻塞(网络访问)的方法,是否会对调度器的效能造成巨大影响?或者MR 1.x 不支持阻塞调用。
5/12/14
aoxiang
,
Huang Yifei
2
4/3/14
一淘招聘高级分布式hadoop开发工程师
我是一个离职老码农(混迹过BAT之中两家),目前搞了一个公众号,主要探讨码农人生路上遇到的各类一手&二手话题,定期与码农分享人生思考、感悟以及启迪! PS:同时提供招聘服务,直接对接各大互联网
unread,
一淘招聘高级分布式hadoop开发工程师
我是一个离职老码农(混迹过BAT之中两家),目前搞了一个公众号,主要探讨码农人生路上遇到的各类一手&二手话题,定期与码农分享人生思考、感悟以及启迪! PS:同时提供招聘服务,直接对接各大互联网
4/3/14
Liqi Gao
,
Huang Yifei
2
3/31/14
TaskLogAppender.flush()中的NullPointerException问题
程序员之家-微信公众号上线啦。。。。【微信号】:programmer_club 关注程序员之家,与你探讨码农人生路上遇到的各类一手&二手话题,定期为你推荐码农人生思考、感悟以及启迪! On
unread,
TaskLogAppender.flush()中的NullPointerException问题
程序员之家-微信公众号上线啦。。。。【微信号】:programmer_club 关注程序员之家,与你探讨码农人生路上遇到的各类一手&二手话题,定期为你推荐码农人生思考、感悟以及启迪! On
3/31/14
张国泽
3/5/14
Flume + Logback
有没有谁试过Flume和Logback结合? Flume官方只支持Log4j,但出于性能考虑项目用的是Logback,github上面也有几个Flume Logback Appender,但fork的
unread,
Flume + Logback
有没有谁试过Flume和Logback结合? Flume官方只支持Log4j,但出于性能考虑项目用的是Logback,github上面也有几个Flume Logback Appender,但fork的
3/5/14
Sairam Shankar
1/17/14
Best Informatica Online Training By Vast IT Expert trainers in Hyderabad | India | UK| USA
Informatica Online Training by Sunitlabs We are providing excellent Informatica Training by real-time
unread,
Best Informatica Online Training By Vast IT Expert trainers in Hyderabad | India | UK| USA
Informatica Online Training by Sunitlabs We are providing excellent Informatica Training by real-time
1/17/14
Sairam Shankar
1/11/14
Best Hadoop Online Training with vast experience trainers in Hyderabad
SunItLabs provides the best Software's training for various Computer IT courses through Webex,
unread,
Best Hadoop Online Training with vast experience trainers in Hyderabad
SunItLabs provides the best Software's training for various Computer IT courses through Webex,
1/11/14
Sairam Shankar
1/11/14
Best Hadoop Online Training with vast experience trainers in Hyderabad
SunItLabs provides the best Software's training for various Computer IT courses through Webex,
unread,
Best Hadoop Online Training with vast experience trainers in Hyderabad
SunItLabs provides the best Software's training for various Computer IT courses through Webex,
1/11/14
Zhichao Han
11/17/13
关于从源build hadoop 2.2.0 遇到的问题 hadoop-auth 出错
$mvn clean install -DskipTests /home/andy/Downloads/hadoop-2.2.0-src/hadoop-common-project/hadoop-
unread,
关于从源build hadoop 2.2.0 遇到的问题 hadoop-auth 出错
$mvn clean install -DskipTests /home/andy/Downloads/hadoop-2.2.0-src/hadoop-common-project/hadoop-
11/17/13
iqtrain...@gmail.com
10/9/13
Hadoop Online Training
Hadoop is written in the Java programming language and is a top-level Apache project being built and
unread,
Hadoop Online Training
Hadoop is written in the Java programming language and is a top-level Apache project being built and
10/9/13
Chris Yuan
, …
白伯纯
5
8/29/13
能否可以对单一datanode进行 Rebalancing
就把这个进程停掉,然后把dfs目录的文件从一个盘平行移动到另外一个盘上,再启动起来就可以了。 2013/8/29 Chris Yuan <yys....@gmail.com> 怎么手工做
unread,
能否可以对单一datanode进行 Rebalancing
就把这个进程停掉,然后把dfs目录的文件从一个盘平行移动到另外一个盘上,再启动起来就可以了。 2013/8/29 Chris Yuan <yys....@gmail.com> 怎么手工做
8/29/13
china baby
, …
gmail
7
7/25/13
Hadoop 集群的内存不释放问题
感谢你的回信,我不是从头开始搭建一个集群,一个在线运行了很久,并且很多业务都是基于这个版本的,不是换个版本就行的事情。并且该patch的体现会在 Target Version/s: 3.0.0 所以我
unread,
Hadoop 集群的内存不释放问题
感谢你的回信,我不是从头开始搭建一个集群,一个在线运行了很久,并且很多业务都是基于这个版本的,不是换个版本就行的事情。并且该patch的体现会在 Target Version/s: 3.0.0 所以我
7/25/13
Steven Cheng
7/18/13
开源力量公开课第二十四期-为何Hadoop是分布式大数据处理的未来&如何掌握Hadoop?
16_副本 详情:http://www.osforce.cn/?p=1216 课程题目:开源力量公开课第二十四期-为何Hadoop是分布式大数据处理的未来&如何掌握Hadoop? 开课时间:
unread,
开源力量公开课第二十四期-为何Hadoop是分布式大数据处理的未来&如何掌握Hadoop?
16_副本 详情:http://www.osforce.cn/?p=1216 课程题目:开源力量公开课第二十四期-为何Hadoop是分布式大数据处理的未来&如何掌握Hadoop? 开课时间:
7/18/13
soma gupta
7/8/13
Cassandra Online Training
Hi All, Intellipaat is Starting new Batches from 12th july 2013 on the following Technology. 1.
unread,
Cassandra Online Training
Hi All, Intellipaat is Starting new Batches from 12th july 2013 on the following Technology. 1.
7/8/13
dong.yajun
, …
Eric zhang
4
5/30/13
如何在eclipse上对Hive进行单步调试
改了Hive的两个功能: 1,支持hadoop-0.21 2,让external table支持location到文件。 都是在linux下面去修改和测试的;没有一步一步去跟。 只是通过eclipse去
unread,
如何在eclipse上对Hive进行单步调试
改了Hive的两个功能: 1,支持hadoop-0.21 2,让external table支持location到文件。 都是在linux下面去修改和测试的;没有一步一步去跟。 只是通过eclipse去
5/30/13
zhang辉张
, …
Clark Yang (杨卓荦)
4
10/17/12
自己写mapreduce如何使用本地文件?
是滴 在 2012-10-17 下午10:31,"Wei Wu" <woo...@gmail.com>写道: > > hadoop jar ... -
unread,
自己写mapreduce如何使用本地文件?
是滴 在 2012-10-17 下午10:31,"Wei Wu" <woo...@gmail.com>写道: > > hadoop jar ... -
10/17/12
zhang辉张
,
dong.yajun
5
10/15/12
hdfs备份因子问题
这个太难了,没有恢复文件的命令么? 在 2012-10-16 上午11:23,"dong.yajun" <dong...@gmail.com>写道: 不行。 当然,有一
unread,
hdfs备份因子问题
这个太难了,没有恢复文件的命令么? 在 2012-10-16 上午11:23,"dong.yajun" <dong...@gmail.com>写道: 不行。 当然,有一
10/15/12
zhang辉张
, …
Wei Wu
4
10/15/12
如何查看hdfs文件的副本数?
[hadoop@gateway1 ~]$ hadoop fs -help stat -stat [format] <path>: Print statistics about the
unread,
如何查看hdfs文件的副本数?
[hadoop@gateway1 ~]$ hadoop fs -help stat -stat [format] <path>: Print statistics about the
10/15/12
dongyajun
, …
feng lu
7
9/19/12
Hadoop DataNode抛出java.net.SocketTimeoutException: 480000 millis timeout while waiting for channel to be ready for write, 求解.
http://search-hadoop.com/m/0BOOh17ugmD 上面的可以参考一下。 On Wed, Sep 19, 2012 at 3:38 PM, gavingeng <
unread,
Hadoop DataNode抛出java.net.SocketTimeoutException: 480000 millis timeout while waiting for channel to be ready for write, 求解.
http://search-hadoop.com/m/0BOOh17ugmD 上面的可以参考一下。 On Wed, Sep 19, 2012 at 3:38 PM, gavingeng <
9/19/12
Qiankun ZHAO
8/27/12
flume问题求教
麻烦帮忙问问,谢谢! 1、flume传输到hadoop里做了zip压缩,当传输过程中和hadoop连接不成功后,当前传输的这个压缩文件就不能使用了。重新恢复通信后,也不会续传的,导致之前整个文件都不能
unread,
flume问题求教
麻烦帮忙问问,谢谢! 1、flume传输到hadoop里做了zip压缩,当传输过程中和hadoop连接不成功后,当前传输的这个压缩文件就不能使用了。重新恢复通信后,也不会续传的,导致之前整个文件都不能
8/27/12
dong.yajun
8/9/12
(info) 关于Cassandra的问题请教
Hi list 最近遇到一个诡异的问题: 我四台节点作为研发环境,首先保证这四台节点都是up状态,然后此时,kill(kill进程)其中一台,(可能是seed),然后再重启这一台机器,那么用
unread,
(info) 关于Cassandra的问题请教
Hi list 最近遇到一个诡异的问题: 我四台节点作为研发环境,首先保证这四台节点都是up状态,然后此时,kill(kill进程)其中一台,(可能是seed),然后再重启这一台机器,那么用
8/9/12
Jingui Lee
,
feng lu
2
8/6/12
[Share]关于Hadoop0.23-MapReduce部分的一点注释
不错啊,不知道你怎么对MapReduce进行优化,可以大概说不下不,0.23与0.20在架构上变化还是很大的,不知道你转到0.20后会不会有问题,因为感觉0.23使用了新的MR架构,在效率上还是有不少
unread,
[Share]关于Hadoop0.23-MapReduce部分的一点注释
不错啊,不知道你怎么对MapReduce进行优化,可以大概说不下不,0.23与0.20在架构上变化还是很大的,不知道你转到0.20后会不会有问题,因为感觉0.23使用了新的MR架构,在效率上还是有不少
8/6/12
feng lu
, …
ransom.hezhiqiang
9
7/29/12
MR的工作依赖
这个其实就是MR的任务流,可以看作一个DAG图。 目前,Hive,Pig都可以解决这个问题,这两个一个从sql一个从脚本都解决了这个问题。 还有,oozie也是专门解决这个问题的,这个呢,就是纯粹的MR
unread,
MR的工作依赖
这个其实就是MR的任务流,可以看作一个DAG图。 目前,Hive,Pig都可以解决这个问题,这两个一个从sql一个从脚本都解决了这个问题。 还有,oozie也是专门解决这个问题的,这个呢,就是纯粹的MR
7/29/12
leon...@gmail.com
, …
zhang辉张
6
7/19/12
答复: 对于输入是大批量小文件如何处理
重新设置了maxSplitSize之后,出现io错误。 错误日志包含一下内容: R/W/S=150/147/0 in:6=150/24 [rec/s] out:6=147/24 [rec/s] 这是神马
unread,
答复: 对于输入是大批量小文件如何处理
重新设置了maxSplitSize之后,出现io错误。 错误日志包含一下内容: R/W/S=150/147/0 in:6=150/24 [rec/s] out:6=147/24 [rec/s] 这是神马
7/19/12
zhang辉张
7/19/12
hadoop权限问题
hi all, 各位大神,有木有用到kerberos来控制hadoop访问权限的? 现在的状况是这样滴: 1.正常使用kerberos来控制hadoop访问权限 2.对于每个hadoop客户端,可以正常
unread,
hadoop权限问题
hi all, 各位大神,有木有用到kerberos来控制hadoop访问权限的? 现在的状况是这样滴: 1.正常使用kerberos来控制hadoop访问权限 2.对于每个hadoop客户端,可以正常
7/19/12
dong.yajun
7/5/12
请问哪位清楚cassandra的复制策略
Hi list 最近在测试cassandra,对其提供的副本策略比较感兴趣,我们知道hdfs的复制,是一种流式复制,每个节点的压力是一样的,但cassandra是不是把一条记录写在一个node上,然后再
unread,
请问哪位清楚cassandra的复制策略
Hi list 最近在测试cassandra,对其提供的副本策略比较感兴趣,我们知道hdfs的复制,是一种流式复制,每个节点的压力是一样的,但cassandra是不是把一条记录写在一个node上,然后再
7/5/12
zhang辉张
7/4/12
大家都用hadoop来干嘛~
用hadoop已经有半年了,主要用来存储,同时会把之前mysql由于量太大解决不了的问题放到hive上面。 再就是用mapreduce做一些大批量小文件解码的工作。 想请问下大家都用hadoop做些什么
unread,
大家都用hadoop来干嘛~
用hadoop已经有半年了,主要用来存储,同时会把之前mysql由于量太大解决不了的问题放到hive上面。 再就是用mapreduce做一些大批量小文件解码的工作。 想请问下大家都用hadoop做些什么
7/4/12