一、安装配置
1、安装、配置JDK,Hadoop(略)
2、下载Mahout,http://mahout.apache.org/ ,非源码下载解压即可用(src为源码包,需要用maven编译)。
3、添加环境变量修改/etc/profile 或者 ~/.bashrc ,添加export JAVA_HOME=/opt/java/jdk1.7.0_05
export JAVA_HOME=/home/alan/hadoop/hadoop-1.0.3
export HADOOP_CONF_DIR=/home/alan/hadoop/hadoop-1.0.3
export MAHOUT_HOME=/home/alan/mahout/mahout-distribution-0.7
#export HADOOP_HOME_WARN_SUPPRESS=1
通过$MAHOUT_HOME/bin/mahout 命令检测是否安装成功。
二、运行示例
1、启动 Hadoop (hadoop namenode -format;start-all.sh)
2、下载测试输入数据
3、把数据导入HDFS中
4、运行示例如:Kmeans聚类算法
$bin/hadoop jar $MAHOUT_HOME/mahout-examples-0.6-job.jar org.apache.mahout.clustering.
syntheticcontrol.kmeans.Job
他会启动多个job,输出output/大致如:
clusteredPoints/ clusters-2/ clusters-6/ data/ clusters-0/ clusters-3/ clusters-7/ clusters-1/ clusters-4/ clusters-8/ clusters-10-final/ clusters-5/ clusters-9/