oracle – 在不增加Cores的情况下增加Spark Executor中的并行度

oracle – 在不增加Cores的情况下增加Spark Executor中的并行度,第1张

概述我正在运行一个Spark-Kafka Streaming作业,有4个执行器(每个1个核心).而kafka源主题有50个分区. 在流式java程序的foreachpartition中,我正在连接到oracle并做一些工作. Apache DBCP2用于连接池. Spark-streaming程序与数据库建立4个连接 – 每个执行程序可能为1.但是,我的期望是 – 由于有50个分区,应该有50个线程在 我正在运行一个Spark-Kafka Streaming作业,有4个执行器(每个1个核心).而kafka源主题有50个分区.

在流式java程序的foreachpartition中,我正在连接到oracle并做一些工作. Apache DBCP2用于连接池.

Spark-streaming程序与数据库建立4个连接 – 每个执行程序可能为1.但是,我的期望是 – 由于有50个分区,应该有50个线程在运行并且存在50个数据库连接.

如何在不增加内核数量的情况下增加并行度.

解决方法 你的期望是错误的.一个核心是Spark命名法中的一个可用线程和一个可以在当时处理的分区.

4“核心” – > 4个主题 – > 4个分区经过精心处理.

总结

以上是内存溢出为你收集整理的oracle – 在不增加Cores的情况下增加Spark Executor中的并行度全部内容,希望文章能够帮你解决oracle – 在不增加Cores的情况下增加Spark Executor中的并行度所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址:https://www.54852.com/sjk/1165829.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-06-01
下一篇2022-06-01

发表评论

登录后才能评论

评论列表(0条)

    保存