Para ello, podemos usar estas configuraciones en Hortonworks para configurarlas correctamente
export JAVA_HOME=$(grep 'java.home' /etc/ambari-server/conf/ambari.properties | sed -n -e 's/^.*java.home=//p')
export HADOOP_CONF_DIR=/etc/hadoop/conf/
export SPARK_HOME=/usr/hdp/current/spark2-client/
Luego, podemos llamar a nuestro Spark-Shell, como
spark-shell --master yarn --driver-memory 512m --executor-memory 512m
El indicador, que todo correrá sobre YARN es esta línea:
Spark context available as 'sc' (master = yarn, app id = application_XXX)
No hay comentarios.:
Publicar un comentario