大数据中为什么使用scala?

原因:

  • 开发大数据应用程序 (Spark程序、Flink程序 )

Hadoop已经是我们大数据领域的事实标准了。Spark生态并不是要取代Hadoop生态,而是为了更好的拓展大数据生态,两者结合。而Spark由我们Scala开发的,我们学习Scala为了更好的去学习Spark。

  • 表达能力强,一行代码抵得上Java多行,开发速度快。 优雅,代码简介逻辑更加清晰。

  • 兼容Java,可以访问庞大的Java类库,例如:操作mysql、redis、freemarker、activemq等等

 案例对比:

假设定义三个实体类(用户、订单、商品)

java代码实现:

用户实体类:

/**
 * 用户实体类
 */
public class User {
    private String name;
    private List<Order> orders;

    public String getName() {
    	return name;
    }

    public void setName(String name) {
    	this.name = name;
    }

    public List<Order> getOrders() {
    	return orders;
    }

    public void setOrders(List<Order> orders) {
    	this.orders = orders;
    }
}

 订单实体类:

/**
 * 订单实体类
 */
public class Order {
    private int id;
    private List<Product> products;

    public int getId() {
    	return id;
    }

    public void setId(int id) {
    	this.id = id;
    }

    public List<Product> getProducts() {
    	return products;
    }

    public void setProducts(List<Product> products) {
    	this.products = products;
    }
}

商品实体类:

/**
 * 商品实体类
 */
public class Product {
    private int id;
    private String category;

    public int getId() {
    	return id;
    }

    public void setId(int id) {
    	this.id = id;
    }

    public String getCategory() {
    	return category;
    }

    public void setCategory(String category) {
    	this.category = category;
    }
}

Scala代码:

case class User(var name:String, var orders:List[Order])	// 用户实体类
case class Order(var id:Int, var products:List[Product])	// 订单实体类
case class Product(var id:Int, var category:String)  		// 商品实体类

总结

    看到这里是不是已经对scala爱不释手了,在接下来的几天,我会把系统的把scala的基础用法介绍一下。

发布了453 篇原创文章 · 获赞 70 · 访问量 12万+

猜你喜欢

转载自blog.csdn.net/longyanchen/article/details/104762694