如果没有worker节点,可以考虑将所有任务都分配给master节点来执行。可以通过调整Spark配置文件中的spark.executor.instances参数来限制只在master节点上启动executor实例。这样虽然会影响并行处理能力,但至少可以保证任务能够在集群中顺利执行。另外,也可以尝试在集群中添加新的worker节点,以增加集群的计算资源。
spark.executor.instances