在eclipse中,依次选择“File”–>“New”–>“Other…”–>“ScalaWizard”–>“ScalaProject”,创建一个Scala工程,并命名为“SparkScala”。右击“SaprkScala”工程,选择“Properties”,在弹出的框中,按照下图所示,依次选择“JavaBuildPath”–>“Li
在eclipse中,依次选择“file” –>“new” –> “other…” –> “scala wizard” –> “scala project”,创建一个scala工程,并命名为“sparkscala”。
右击“saprkscala”工程,选择“properties”,在弹出的框中,按照下图所示,依次选择“java build path” –>“libraties” –>“add external jars…”,导入文章“apache spark:将spark部署到hadoop 2.2.0上”中给出的
assembly/target/scala-2.9.3/目录下的spark-assembly-0.8.1-incubating- hadoop2.2.0.jar,这个jar包也可以自己编译spark生成,放在spark目录下的assembly/target/scala- 2.9.3/目录中。
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....