 
        
         
        2016年8月9日
    
 
        
        
摘要:        
private static String concat(String tag,String Time) { // TODO Auto-generated method stub // return new StringBuilder(tag.length() + Time.length()) // .append(tag).append(Time).toString(); retu...    
阅读全文
            posted @ 2016-08-09 17:28
山高似水深
阅读(879)
推荐(0)
        
            
        
        
摘要:        
public static boolean isAngle(String str){ if(str.getBytes().length==str.length()){ //全是半角 return true; } return false; ...    
阅读全文
            posted @ 2016-08-09 17:27
山高似水深
阅读(2085)
推荐(1)
        
            
        
        
摘要:        
public static int appearNumber(String srcText, String findText) { int count = 0; int index = 0; while ((index = srcText.indexOf(findText, index)) != -1) { index...    
阅读全文
            posted @ 2016-08-09 17:26
山高似水深
阅读(1967)
推荐(0)
        
            
        
        
摘要:        
public static boolean isContainChinese(String str) { Pattern p = Pattern.compile("[\u4e00-\u9fa5a-zA-Z]"); Matcher m = p.matcher(str); if (m.find()) { return t...    
阅读全文
            posted @ 2016-08-09 17:25
山高似水深
阅读(267)
推荐(0)
        
            
        
        
摘要:        
public static boolean isMobile(String str) { Pattern p = null; Matcher m = null; boolean b = false; p = Pattern.compile("^[1][3,4,5,8][0-9]{9}$"); // 验证手机号 ...    
阅读全文
            posted @ 2016-08-09 17:00
山高似水深
阅读(358)
推荐(0)
        
            
        
        
摘要:        
Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问。而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询。 这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooK    
阅读全文
            posted @ 2016-08-09 16:50
山高似水深
阅读(6204)
推荐(1)
        
            
        
        
摘要:        
core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml hadoop-env.sh hive-env.sh hive-site.xml hbase-site.xml zoo.cfg    
阅读全文
            posted @ 2016-08-09 16:39
山高似水深
阅读(1323)
推荐(0)
        
            
        
        
摘要:        
之前在网上搜索到的全部单位好像都是byte的,看起来很麻烦,然后自己看了下 hadoop fs -help hadoop fs -du -h / hadoop fs -du -h /tmp 很简单明了,前面的数字即为目录所占空间的大小,后面的因为我前期 备份数为3 后期改为2 所以可能会不一样    
阅读全文
            posted @ 2016-08-09 16:26
山高似水深
阅读(70160)
推荐(5)
        
            
        
        
摘要:        
两天时间,知道现在才把这个东西解决 解决的灵感来源于百度知道一句话谢谢这个哥们 谢谢这个哥们! 谢谢这个哥们! 我的目录是在/home/hadoop/tmp 大家如果遇到这个问题,希望能按照我的办法去试一下 2016年1月18日04:00:49    
阅读全文
            posted @ 2016-08-09 16:06
山高似水深
阅读(2725)
推荐(0)