apache-spark
Migration von Spark 1.6 zu Spark 2.0
Suche…
Einführung
Spark 2.0 wurde veröffentlicht und enthält viele Verbesserungen und neue Funktionen. Wenn Sie Spark 1.6 verwenden und jetzt Ihre Anwendung für die Verwendung von Spark 2.0 aktualisieren möchten, müssen Sie einige Änderungen in der API berücksichtigen. Nachfolgend sind einige Änderungen am Code aufgeführt, die vorgenommen werden müssen.
Aktualisieren Sie die Datei build.sbt
Aktualisieren Sie build.sbt mit:
scalaVersion := "2.11.8" // Make sure to have installed Scala 11
sparkVersion := "2.0.0" // Make sure to have installed Spark 2.0
Beachten Sie, dass beim Kompilieren mit dem sbt package die .jar sbt package jetzt in target/scala-2.11/ wird und auch der .jar Name geändert wird. .jar muss auch der Befehl spark-submit aktualisiert werden.
Aktualisieren Sie ML Vector-Bibliotheken
ML Transformers generiert jetzt org.apache.spark.ml.linalg.VectorUDT anstelle von org.apache.spark.mllib.linalg.VectorUDT .
Sie werden auch lokal den Unterklassen von org.apache.spark.ml.linalg.Vector . Diese sind nicht mit der alten MLLib-API kompatibel, die sich in Spark 2.0.0 in Richtung einer Veraltetung bewegt.
//import org.apache.spark.mllib.linalg.{Vector, Vectors} // Depreciated in Spark 2.0
import org.apache.spark.ml.linalg.Vector // Use instead