Amazon EC2 で Spark マスターを実行しています。次のように別の EC2 インスタンスから pyspark を使用して接続しようとしました。
spark = SparkSession.builder.appName("MyApp") \
.master("spark_url_as_obtained_in_web_ui") \
.getOrCreate()
エラーは次の通りです:
ログ レベルを調整するには、sc.setLogLevel(newLevel) を使用します。SparkR の場合は、setLogLevel(newLevel) を使用します。
2018-04-04 20:03:04 警告 ユーティリティ:66 - サービス「sparkDriver」はランダムな空きポートにバインドできませんでした。適切なバインド アドレスが設定されているかどうかを確認してください。
............
java.net.BindException: 要求されたアドレスを割り当てることができません: サービス 'sparkDriver' は 16 回の再試行 (ランダムな空きポートで) 後に失敗しました。サービス 'sparkDriver' の適切なバインディング アドレス (たとえば、SparkDriver の場合は spark.driver.bindAddress) を正しいバインディング アドレスに明示的に設定することを検討してください。
ここで説明されているすべての解決策を試しましたが、効果はありませんでした。
何が間違っているのでしょうか??
ベストアンサー1
spark.driver.bindAddress
のようにローカル IPを設定します127.0.0.1
。
pyspark -c spark.driver.bindAddress=127.0.0.1