Java中的“Lambdifying”scala函数

使用Java和Apache Spark(已经在Scala中重写),面对旧的API方法( org.apache.spark.rdd.JdbcRDD构造函数),它有AbstractFunction1作为它的参数:

 abstract class AbstractFunction1[@scala.specialized -T1, @scala.specialized +R]() extends scala.AnyRef with scala.Function1[T1, R] {} 

因为AbstractFunction1是一个抽象类,所以我不能使用Java8 lambdas,所以我决定用scala.Function1 trait包装java.util.functions.Function是相同的但是没有实现andThencompose方法。 结果,我创建了thes接口:

 import scala.Function1; @FunctionalInterface public interface Funct extends Function1, Serializable { @Override default  Function1 compose(Function1 before) { return null; } @Override default  Function1 andThen(Function1 g) { return null; } } 

IDE对此接口没有任何问题,但在编译时,get:

 [ERROR] Funct is not a functional interface [ERROR] multiple non-overriding abstract methods found in interface Funct 

是否有可能包装Scala的特性,我可以使用lambdas方法:

 void doMagic(scala.Function1 arg) 

那么你想要一个scala函数特性的function接口版本,这样你就可以用java8 lambda语法调用它们吗? 你不必自己做。 看看https://github.com/scala/scala-java8-compat 。 它不如直接使用java8 lambda语法那么好,因为你仍然需要这样做

 import static scala.compat.java8.JFunction.*; doMagic(func(x => ...)); 

代替

 doMagic(x => ...); 

但在Scala 2.12中,一个很大的主题是Java8兼容性。 scala FunctionX类本身将作为SAM接口重做,因此当scala 2.12出现时,您将能够执行后者。 至少那是我上次检查时的计划。