Spark 3.5.0へのデータ・フローの移行

データ・フローをSpark 3.5.0の使用に移行するには、次のステップに従います。

Delta Lakes 3.1.0でデータ・フローを使用し、Condaパックと統合するには、データ・フローでバージョン3.5.0以上のSparkを使用する必要があります。

Spark 3.5.0にアップグレードするには、Spark 3.5.0移行ガイドの手順に従います。

「データ・フローを開始する前に」でサポートされているバージョンの情報に加え、Spark 3.5.0およびSpark 3.2.1のデータ・フローでサポートされている最小バージョンのみが含まれます。
ノート

Spark 3.5.0に移行する前に、Spark 3.2.1にリストされているバージョンを使用してアプリケーションを構築します。
Spark 3.5.0およびSpark 3.2.1のサポートされているバージョン。
ライブラリ Spark 3.5.0 Spark 3.2.1
Python 3.11.5 3.8.13
Java 17.0.10 11
Hadoop (最小バージョン) 3.3.4 3.3.1
Scala 2.12.18 2.12.15
oci-hdfs (最小バージョン) 3.3.4.1.4.2 3.3.1.0.3.2
oci-java-sdk (最小バージョン) 3.34.1 2.45.0
ノート

デフォルトでは、OCI Java SDKはApacheConnectorを使用します。次の設定でJersey HttpurlConnectorに切り替えます。
spark.executorEnv.OCI_JAVASDK_JERSEY_CLIENT_DEFAULT_CONNECTOR_ENABLED=true
spark.driverEnv.OCI_JAVASDK_JERSEY_CLIENT_DEFAULT_CONNECTOR_ENABLED=true