Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Gunakan notebook multi-bahasa dengan kernel Spark

Mode fokus
Gunakan notebook multi-bahasa dengan kernel Spark - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Setiap kernel notebook Jupyter memiliki bahasa default. Misalnya, bahasa default kernel Spark adalah Scala, dan bahasa default PySpark kernel adalah Python. Dengan Amazon EMR 6.4.0 dan yang lebih baru, EMR Studio mendukung notebook multi-bahasa. Ini berarti bahwa setiap kernel di EMR Studio dapat mendukung bahasa berikut selain bahasa default: Python, Spark, R, dan Spark SQL.

Untuk mengaktifkan fitur ini, tentukan salah satu dari berikut ini magic perintah di awal sel apa pun.

Bahasa Perintah
Python

%%pyspark

Skala

%%scalaspark

R

%%rspark

Tidak didukung untuk beban kerja interaktif dengan EMR Tanpa Server.

Spark SQL

%%sql

Saat dipanggil, perintah ini menjalankan seluruh sel dalam sesi Spark yang sama menggunakan penerjemah bahasa yang sesuai.

%%pysparkSel magic memungkinkan pengguna untuk menulis PySpark kode di semua kernel Spark.

%%pyspark a = 1

%%sqlSel magic memungkinkan pengguna untuk mengeksekusi kode Spark-SQL di semua kernel Spark.

%%sql SHOW TABLES

%%rsparkSel magic memungkinkan pengguna untuk mengeksekusi kode SparkR di semua kernel Spark.

%%rspark a <- 1

%%scalasparkSel magic memungkinkan pengguna untuk mengeksekusi kode Spark Scala di semua kernel Spark.

%%scalaspark val a = 1

Bagikan data di seluruh penerjemah bahasa dengan tabel sementara

Anda juga dapat berbagi data antar penerjemah bahasa menggunakan tabel sementara. Contoh berikut menggunakan %%pyspark dalam satu sel untuk membuat tabel sementara di Python dan menggunakan %%scalaspark dalam sel berikut untuk membaca data dari tabel itu di Scala.

%%pyspark df=spark.sql("SELECT * from nyc_top_trips_report LIMIT 20") # create a temporary table called nyc_top_trips_report_view in python df.createOrReplaceTempView("nyc_top_trips_report_view")
%%scalaspark // read the temp table in scala val df=spark.sql("SELECT * from nyc_top_trips_report_view") df.show(5)
PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.