打包运行 项目部署 startalone模式 和 yarn模式

打包运行  项目部署  startalone模式  和 yarn模式
1:把local 本地运行删掉    输入输出路径改为args(0) args(1)  删除左边target文件    
顶部 bulid->bulid project  然后右侧打包package   在target下拷贝jar包到桌面上 
2:必须启动 hdfs(hadoop)  spark
3:进入hdfs的sbin目录    执行:  hadoop fs -ls /  查看hdfs目录     hadoop fs -mkdir /wcdata  创建单词统计的文件夹  
hadoop fs -put  /usr/local/xujunqi/aa.txt  /wcdata  把文件上传到wcdata 目录下   netstat -tunl(表示看一下释放的端口)
hadoop  fs -cat   hdfs://hadoop101:9000/wcdata/aa.txt  查看txt文件内容

hadoop  fs -ls /wcresult     hadoop  fs -cat /wcresult2/part-00000
Standalone模式     在spark的bin目录下运行

 #Linux单核、代码删除设置setMaster("spark://hdp1:7077")
 ./spark-submit14  --class com.xiangmu_bushu.Stream_WordCount15  --master spark://hadoop101:7077\
 --executor-memory 1G17  --total-executor-cores 318  /opt/module/jars/monthlycheck-1.0-SNAPSHOT.jar19   hdfs://hadoop101:9000/wcdata/aa.txt\
 hdfs://hadoop101:9000/wcresult/
 
 

 3:Yarn模式将
 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 追加到spark-env.sh
./spark-submit27  --class com.xiangmu_bushu.Stream_WordCount28  --master yarn --deploy-mode cluster29  --executor-memory 1G30  --executor-cores 331  /opt/module/jars/monthlycheck-1.0-SNAPSHOT.jar32  hdfs://hadoop101:9000/wcdata/aa.txt\
 hdfs://hadoop101:9000/wcresult2/