Java中的“Lambdifying”scala函数
使用Java和Apache Spark(已经在Scala中重写),面对旧的API方法( org.apache.spark.rdd.JdbcRDD
构造函数),它有AbstractFunction1作为它的参数:
abstract class AbstractFunction1[@scala.specialized -T1, @scala.specialized +R]() extends scala.AnyRef with scala.Function1[T1, R] {}
因为AbstractFunction1
是一个抽象类,所以我不能使用Java8 lambdas,所以我决定用scala.Function1 trait包装java.util.functions.Function
是相同的但是没有实现andThen
和compose
方法。 结果,我创建了thes接口:
import scala.Function1; @FunctionalInterface public interface Funct extends Function1, Serializable { @Override default Function1 compose(Function1 before) { return null; } @Override default Function1 andThen(Function1 g) { return null; } }
IDE对此接口没有任何问题,但在编译时,get:
[ERROR] Funct is not a functional interface [ERROR] multiple non-overriding abstract methods found in interface Funct
是否有可能包装Scala的特性,我可以使用lambdas方法:
void doMagic(scala.Function1 arg)
那么你想要一个scala函数特性的function接口版本,这样你就可以用java8 lambda语法调用它们吗? 你不必自己做。 看看https://github.com/scala/scala-java8-compat 。 它不如直接使用java8 lambda语法那么好,因为你仍然需要这样做
import static scala.compat.java8.JFunction.*; doMagic(func(x => ...));
代替
doMagic(x => ...);
但在Scala 2.12中,一个很大的主题是Java8兼容性。 scala FunctionX类本身将作为SAM接口重做,因此当scala 2.12出现时,您将能够执行后者。 至少那是我上次检查时的计划。
- Spark spark-submit –jars参数需要逗号列表,如何声明jar的目录?
- 线程主java.lang.exceptionininitializerError中的exception当没有hadoop安装spark时
- Apache Spark Streaming的失败集成测试
- 使用mapPartition和迭代器保存spark RDD
- Spark SQL:镶嵌错误的嵌套类
- 使用已安装的spark和maven将Spark Scala Program编译为jar文件
- 在Apache spark中,使用mapPartitions和组合使用广播变量和map之间的区别是什么
- 加入一个dataframespark java
- 如何修复java.lang.ClassCastException:无法将scala.collection.immutable.List的实例分配给字段类型scala.collection.Seq?