Sök…


Introduktion

Spark 2.0 har släppts och innehåller många förbättringar och nya funktioner. Om du använder Spark 1.6 och nu vill uppgradera din applikation för att använda Spark 2.0 måste du ta hänsyn till vissa ändringar i API: n. Nedan följer några av ändringarna i koden som måste göras.

Uppdatera filen build.sbt

Uppdatera build.sbt med:

scalaVersion := "2.11.8" // Make sure to have installed Scala 11
sparkVersion := "2.0.0"  // Make sure to have installed Spark 2.0

Observera att när kompilering med sbt package kommer .jar nu att skapas i target/scala-2.11/ , och .jar namnet kommer också att ändras, så att spark-submit kommandot också måste uppdateras.

Uppdatera ML-vektorbibliotek

ML Transformers genererar nu org.apache.spark.ml.linalg.VectorUDT istället för org.apache.spark.mllib.linalg.VectorUDT .

De mappas också lokalt till underklasser av org.apache.spark.ml.linalg.Vector . Dessa är inte kompatibla med gamla MLLib API som går mot depreciering i Spark 2.0.0.

//import org.apache.spark.mllib.linalg.{Vector, Vectors} // Depreciated in Spark 2.0 
import org.apache.spark.ml.linalg.Vector // Use instead


Modified text is an extract of the original Stack Overflow Documentation
Licensierat under CC BY-SA 3.0
Inte anslutet till Stack Overflow