Saya menggunakan buku catatan jupyter.
Saya ingin menggunakan kueri dsl untuk menyiapkan Dataframe awal.
Saya menggunakan conf.set("es.query", dsl_query)
untuk itu. (https://www.elastic.co/guide/en/elasticsearch/hadoop/current/configuration.html#_querying)
Tapi kemudian, saya ingin menerapkan kueri berbeda untuk menyiapkan Dataframe lain, dan saya tidak dapat menemukan cara untuk menerapkan dsl_query baru tanpa membuat SparkContext
baru
Tapi saya juga tidak menemukan cara untuk membuat ulang SparkContext
di dalam lingkungan jupyter.
Saya ingin menjalankan analisis menggunakan QueryDSL-1 sebagai dasar kemudian menjalankan analisis lain menggunakan QueryDSL-2 sebagai dasar lainnya
Apakah ada cara untuk melakukan ini tanpa membuat dua buku catatan?
spark.read.option("es.query", dsl_query).option("...", "...")
... - person eliasah   schedule 13.02.2019