apache-spark                
            Migration de Spark 1.6 vers Spark 2.0
        
        
            
    Recherche…
Introduction
Spark 2.0 a été publié et contient de nombreuses améliorations et nouvelles fonctionnalités. Si vous utilisez Spark 1.6 et que vous souhaitez maintenant mettre à niveau votre application pour utiliser Spark 2.0, vous devez prendre en compte certaines modifications de l'API. Vous trouverez ci-dessous certaines des modifications à apporter au code.
Mettre à jour le fichier build.sbt
Mettre à jour build.sbt avec:
scalaVersion := "2.11.8" // Make sure to have installed Scala 11
sparkVersion := "2.0.0"  // Make sure to have installed Spark 2.0
 Notez que lors de la compilation avec le sbt package , le .jar sera maintenant créé dans target/scala-2.11/ , et le nom du .jar sera également modifié. La commande spark-submit doit également être mise à jour. 
Mettre à jour les bibliothèques vectorielles ML
 ML Transformers génère désormais org.apache.spark.ml.linalg.VectorUDT au lieu de org.apache.spark.mllib.linalg.VectorUDT . 
 Ils sont également associés localement aux sous-classes de org.apache.spark.ml.linalg.Vector . Celles-ci ne sont pas compatibles avec l'ancienne API MLLib qui évolue vers la dépréciation de Spark 2.0.0. 
//import org.apache.spark.mllib.linalg.{Vector, Vectors} // Depreciated in Spark 2.0 
import org.apache.spark.ml.linalg.Vector // Use instead