机器学习python还是spark,机器学习 python

kodinid 16 0

大家好,今天小编关注到一个比较意思的话题,就是关于机器学习python还是spark的,于是小编就整理了2个相关介绍机器学习Python还是spark的解答,让一起看看吧。

  1. presto和spark的区别?

机器学习实践如何将Spark与Python结合

1.Spark Context设置内部服务并建立到Spark执行环境连接

2.驱动程序中的Spark Context对象协调所有分布式进程并允许进行***分配

机器学习python还是spark,机器学习 python-第1张图片-安济编程网
图片来源网络,侵删)

3.集群管理器执行程序,它们是具有逻辑的JVM进程。

4.Spark Context对象将应用程序发送给执行者。

5.Spark Context在每个执行器中执行任务

机器学习python还是spark,机器学习 python-第2张图片-安济编程网
(图片来源网络,侵删)

presto和spark的区别

区别在于设计架构数据处理方式、数据处理速度使用场景编程接口等方面。详细区别如下:

1. 设计架构:Presto是一个基于sql的分布式查询引擎,它使用自定义计算引擎来执行查询。Spark是一个通用的大数据处理框架,它支持多种计算模型包括批处理、实时流处理和机器学习等。

2. 数据处理方式:Presto将数据存储在外部数据源中,包括Hadoop HDFS、Amazon S3、MySQL等。Spark则使用分布式内存计算引擎来处理数据,它通常将数据存储在内存中,以提高处理速度。

机器学习python还是spark,机器学习 python-第3张图片-安济编程网
(图片来源网络,侵删)

3. 数据处理速度:Presto在处理大型数据集时非常快,因为它使用的是自定义计算引擎,它可以轻松地处理数十亿行数据。Spark处理速度也很快,特别是在处理内存中的数据时,但是在处理大型数据集时可能会遇到瓶颈。

4. 使用场景:Presto适用于需要快速查询大量数据的场景,特别是在需要使用多个数据源的情况下。Spark适用于需要进行复杂数据处理的场景,例如批处理、实时流处理和机器学习等。

5. 编程接口:Presto使用标准的SQL查询语言,使得用户可以轻松地编写和执行查询语句。Spark使用Scala、Java、Python等编程语言来编写应用程序,用户需要编写代码来处理数据。

总之,Presto和Spark都是强大的大数据处理框架,但是它们的设计和使用方式有很大的不同。用户应该根据自己的需求和场景来选择最合适的框架。

Presto和Spark都是大数据处理的开源框架,但是它们的设计和使用方式有很大的不同。

很难说Presto肯定比Spark SQL更快或更慢,取决于您正在执行的查询类型,环境和引擎调整参数。关于presto和spark sql对比的文章很少,主要原因是Presto没有那么主流,但已用了presto,那就有必要对比分析一下。

相同点

        presto和spark sql都是MPP(massively parallel processing)架构(Presto/Impala/SparkSQL/Drill等),有很好的数据量和灵活性支持,都是基于内存(spark基于内存和磁盘),但是对响应时间是没有保证的。当数据量和计算复杂度增加后,响应时间会变慢,从秒级到分钟级,甚至小时级都有可能。

不同点

重点不同:presto强调查询,spark sql强调计算

架构不同:Presto架构相当简单,有一个协调器,可以执行SQL解析计划、调度,和一组执行物理***的工作节点;Spark核心之间有更多层,框架更复杂,RDD的弹性构建,为作业进行***管理和协商等等

内存存储:两者都是内存计算,当内存不够时,presto直接OOM,spark会落地磁盘

***申请:presto预先申请好CPU和内存,coordinator和worker一直运行;spark任务实时申请***,需要多少***申请多少

到此,以上就是小编对于机器学习python还是spark的问题就介绍到这了,希望介绍关于机器学习python还是spark的2点解答对大家有用。

标签: spark presto 数据处理