spark为什么弃用akka
时间: 2023-08-05 14:50:01 浏览: 198
基于Akka模拟实现Spark Standalone.pdf
Spark并没有完全弃用Akka,而是在其内部使用了自己开发的基于Netty的RPC框架。这是因为Spark的应用场景和Akka的应用场景有所不同。Spark主要用于大规模数据处理,需要高性能和低延迟的网络传输,而Akka更适用于构建分布式应用程序,需要高可用和高并发的消息传递。因此,Spark选择使用自己开发的RPC框架来满足其特定的需求。同时,Spark的开发团队也在不断探索和尝试新的技术,以提高Spark的性能和扩展性。
阅读全文