毎回spark-shellを立ち上げてimportするようなことを毎回しているなら、
例えばこんなscalaファイルを用意しておく
vi sparkShellInit.scala import org.apache.spark.sql.functions._ import org.apache.spark.sql.types._ import org.apache.spark.sql._ import org.apache.spark.storage.StorageLevel import java.io.File import scala.collection.JavaConversions._ val sparkSession = SparkSession.builder(). appName("my-spark-shell"). enableHiveSupport(). getOrCreate()
そしてそのファイルを指定する
spark-shell -i ~/sparkShellInit.scala --master yarn --num-executors 10 --driver-memory 8g --executor-memory 8g
すると、
指定したファイルの中身が初期化時に実行されるので楽です。
以上です