Ada kolom bernama RDD
blok di Spark UI di tab pelaksana. Salah satu pengamatan yang dilakukan adalah jumlah RDD
blok terus meningkat untuk tugas streaming tertentu yang mana pesan dialirkan dari Kafka.
Pelaksana tertentu dihapus secara otomatis dan aplikasi melambat setelah dijalankan lama dengan sejumlah besar RDD
blok. DStreams
dan RDDs
tidak disimpan secara manual di mana pun.
Akan sangat membantu jika seseorang menjelaskan kapan blok ini dibuat dan atas dasar apa blok tersebut dihapus (apakah ada parameter yang perlu diubah?).