タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

hadoopとインストールに関するshunmatsuのブックマーク (1)

  • Windows上にApache Spark環境を作ってみた - Qiita

    はじめに Apache Spark勉強用に、Windows上にSpark環境作ってアプリケーション(とりあえずScala)を作成/コンパイル/実行する、という所までやってみます。 色々眺めていると開発環境としてはIntelliJ, Eclipseあたりが主流なようです。あとはJupyter Notebook? 合わせてビルドツールとしてsbt, mavenなどが使われたりするようです。が、素人には初モノの要素が盛りだくさんすぎてアワアワしはじめたので、最低限sbtだけ使ってまずは動かす所までの手順を整理しておきます。 環境構築 Apache Sparkのインストール この辺の記事を参考にSparkをインストールします。 Sparkアプリケーションの基と、はじめに押さえておきたい重要な概念 まずはApacheのサイトからダウンロード。 https://spark.apache.org/do

    Windows上にApache Spark環境を作ってみた - Qiita
  • 1