PySpark で DataFrame のサイズ/形状を調べようとしています。これを実行できる関数は 1 つも見つかりません。
Python では、次のようにできます:
data.shape()
PySparkに同様の機能はありますか?これが私の現在の解決策ですが、要素1を探しています
row_number = data.count()
column_number = len(data.dtypes)
列数の計算は理想的ではありません...
ベストアンサー1
以下の方法で入手できますshape
:
print((df.count(), len(df.columns)))