PySpark で DataFrame のサイズや形状を調べるにはどうすればいいですか? 質問する

PySpark で DataFrame のサイズや形状を調べるにはどうすればいいですか? 質問する

PySpark で DataFrame のサイズ/形状を調べようとしています。これを実行できる関数は 1 つも見つかりません。

Python では、次のようにできます:

data.shape()

PySparkに同様の機能はありますか?これが私の現在の解決策ですが、要素1を探しています

row_number = data.count()
column_number = len(data.dtypes)

列数の計算は理想的ではありません...

ベストアンサー1

以下の方法で入手できますshape:

print((df.count(), len(df.columns)))

おすすめ記事