您当前的位置: 首页 >  段智华 Java

本地模式使用JAVA SACLA 开发 Spark SQL DataFrame

段智华 发布时间:2016-03-14 21:34:35 ,浏览量:3

原文件:

{"name":"Michael"}
{"name":"Andy", "age":30}
{"name":"Justin", "age":19}

java

 

package com.dt.sparkApps.sql;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.SQLContext;

public class DataFrameOps {

 public static void main(String[] args) {
  // TODO Auto-generated method stub
  
  SparkConf conf=new SparkConf().setAppName("DataFrameOps").setMaster("local");
  
  JavaSparkContext sc=new JavaSparkContext(conf);
  
  SQLContext sqlContext=new SQLContext(sc);
  
  //DataFrame df=sqlContext.read().json("hdfs://master:9000/library/people.json");
  DataFrame df=sqlContext.read().json("G://IMFBigData

关注
打赏
查看更多评论

段智华

暂无认证

  • 3浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录