运行binpyspark 时显示Unsupported major.minor version 52.0错误

    xiaoxiao2022-07-07  187

    问题一般是spark的java版本与作业编译的java版本不一致,建议将本地java版本改为与spark一致的版本,目前集群是1.7.0。

    各JDK版本对应的版本数字编号如下所示:

    J2SE 8 = 52,

    J2SE 7 = 51,

    J2SE 6.0 = 50,

    J2SE 5.0 = 49,

    JDK 1.4 = 48,

    JDK 1.3 = 47,

    JDK 1.2 = 46,

    JDK 1.1 = 45

     

    解决方法:

    ->安装jdk1.8

    ->下载对应位数的jdk,解压,移动到/usr/local/java下

    ->修改/etc/profile文件java -version还是1.7

    ->配置软连接

    sudo update-alternatives --install /usr/bin/java java /usr/local/java/jdk1.8.0_201/bin/java 300 sudo update-alternatives --install /usr/bin/javac javac /usr/local/java/jdk1.8.0_201/bin/javac 300

    ->切换Java版本

    sudo update-alternatives --config java sudo update-alternatives --config javac

    ->java -version显示1.8版本

    ->进入spark安装目录 bin/pyspark正常进入spark shell

    最新回复(0)