اكثر اسئلة واجوبة المقابلات طلبا والاختبارات عبر الإنترنت
منصة تعليمية للتحضير للمقابلات والاختبارات عبر الإنترنت والدروس والتدريب المباشر

طوّر مهاراتك من خلال مسارات تعلم مركزة واختبارات تجريبية ومحتوى جاهز للمقابلات.

يجمع WithoutBook أسئلة المقابلات حسب الموضوع والاختبارات العملية عبر الإنترنت والدروس وأدلة المقارنة في مساحة تعلم متجاوبة واحدة.

التحضير للمقابلة

الاختبارات التجريبية

اجعلها الصفحة الرئيسية

احفظ هذه الصفحة في المفضلة

الاشتراك عبر البريد الإلكتروني
مقابلات تجريبية مباشرة من WithoutBook PySpark موضوعات مقابلات ذات صلة: 13

Interview Questions and Answers

تعرّف على اهم اسئلة واجوبة مقابلات PySpark للمبتدئين واصحاب الخبرة للاستعداد لمقابلات العمل.

إجمالي الاسئلة: 30 Interview Questions and Answers

افضل مقابلة تجريبية مباشرة يجب مشاهدتها قبل المقابلة

تعرّف على اهم اسئلة واجوبة مقابلات PySpark للمبتدئين واصحاب الخبرة للاستعداد لمقابلات العمل.

Interview Questions and Answers

ابحث عن سؤال لعرض الاجابة.

اسئلة واجوبة مستوى الخبير / ذوي الخبرة

سؤال 1

How can you perform the join operation in PySpark?

You can use the 'join' method on DataFrames. For example, df1.join(df2, df1['key'] == df2['key'], 'inner') performs an inner join on 'key'.

Example:

result = df1.join(df2, df1['key'] == df2['key'], 'inner')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 2

What is the role of the 'broadcast' variable in PySpark?

A 'broadcast' variable is used to cache a read-only variable in each node of a cluster to enhance the performance of joins.

Example:

from pyspark.sql.functions import broadcast

result = df1.join(broadcast(df2), 'key')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 3

Explain the significance of the 'window' function in PySpark.

The 'window' function in PySpark is used for defining windows over data based on partitioning and ordering, often used with aggregation functions.

Example:

from pyspark.sql.window import Window
from pyspark.sql.functions import row_number

window_spec = Window.orderBy('column')
result = df.withColumn('row_num', row_number().over(window_spec))
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 4

Explain the concept of 'checkpointing' in PySpark.

'Checkpointing' is a mechanism in PySpark to truncate the lineage of a RDD or DataFrame by saving it to a reliable distributed file system.

Example:

spark.sparkContext.setCheckpointDir('hdfs://path/to/checkpoint')
df_checkpointed = df.checkpoint()
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 5

How can you handle skewed data in PySpark?

You can use techniques like salting, bucketing, or using the 'broadcast' hint to handle skewed data in PySpark.

Example:

df.write.option('skew_hint', 'true').parquet('output_path')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 6

Explain the purpose of the 'window' function in PySpark.

The 'window' function is used for defining windows over data based on partitioning and ordering, often used with aggregation functions.

Example:

from pyspark.sql.window import Window
from pyspark.sql.functions import sum

window_spec = Window.partitionBy('category').orderBy('value')
result = df.withColumn('sum_value', sum('value').over(window_spec))
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 7

Explain the concept of 'broadcast' variables in PySpark.

'Broadcast' variables are read-only variables cached on each node of a cluster to efficiently distribute large read-only data structures.

Example:

from pyspark.sql.functions import broadcast

result = df1.join(broadcast(df2), 'key')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 8

Explain the role of the 'broadcast' variable in PySpark.

A 'broadcast' variable is used to cache a read-only variable in each node of a cluster to enhance the performance of joins.

Example:

from pyspark.sql.functions import broadcast

result = df1.join(broadcast(df2), 'key')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 9

What is the purpose of the 'accumulator' in PySpark?

An 'accumulator' is a variable that can be used in parallel operations and is updated by multiple tasks. It is typically used for implementing counters or sums in distributed computing.

Example:

accumulator = spark.sparkContext.accumulator(0)

# Inside a transformation or action
accumulator.add(1)
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 10

Explain the use of the 'broadcast' hint in PySpark.

The 'broadcast' hint is used to explicitly instruct PySpark to use a broadcast join strategy for better performance, especially when one DataFrame is significantly smaller than the other.

Example:

from pyspark.sql.functions import broadcast

result = df1.join(broadcast(df2), 'key')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 11

How can you handle data skewness in PySpark?

Data skewness can be handled by using techniques like salting, bucketing, or using the 'broadcast' hint to distribute data more evenly across partitions.

Example:

df.write.option('skew_hint', 'true').parquet('output_path')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات

الاكثر فائدة حسب تقييم المستخدمين:

حقوق النشر © 2026، WithoutBook.