Hadoop教程

ubuntu20桌面版编译hadoop3.3.1源码

本文主要是介绍ubuntu20桌面版编译hadoop3.3.1源码,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

前言
主要是记录下新的体会
准备系统
最好是新装的系统,当前使用的是ubuntu20.lts

工具安装
看源码中的build.txt文件中建议使用的ubuntu14.04版本,本地使用的20版本一样的。工具准备参考如下章节猛装就行。
需要注意的是安装的时候用户的使用,保持一致性,否则会给后面编译造成问题。

Installing required packages for clean install of Ubuntu 14.04 LTS Desktop:

* Oracle JDK 1.8 (preferred)
  $ sudo apt-get purge openjdk*
  $ sudo apt-get install software-properties-common
  $ sudo add-apt-repository ppa:webupd8team/java
  $ sudo apt-get update
  $ sudo apt-get install oracle-java8-installer
* Maven
  $ sudo apt-get -y install maven
* Native libraries
  $ sudo apt-get -y install build-essential autoconf automake libtool cmake zlib1g-dev pkg-config libssl-dev libsasl2-dev
* Protocol Buffers 3.7.1 (required to build native code)
  $ curl -L -s -S https://github.com/protocolbuffers/protobuf/releases/download/v3.7.1/protobuf-java-3.7.1.tar.gz -o protobuf-3.7.1.tar.gz
  $ mkdir protobuf-3.7-src
  $ tar xzf protobuf-3.7.1.tar.gz --strip-components 1 -C protobuf-3.7-src && cd protobuf-3.7-src
  $ ./configure
  $ make -j$(nproc)
  $ sudo make install

Optional packages:

* Snappy compression (only used for hadoop-mapreduce-client-nativetask)
  $ sudo apt-get install snappy libsnappy-dev
* Intel ISA-L library for erasure coding
  Please refer to https://01.org/intel%C2%AE-storage-acceleration-library-open-source-version
  (OR https://github.com/01org/isa-l)
* Bzip2
  $ sudo apt-get install bzip2 libbz2-dev
* Linux FUSE
  $ sudo apt-get install fuse libfuse-dev

编译
安装build.txt文件中描述编译就行

Building distributions:

Create binary distribution without native code and without documentation:

  $ mvn package -Pdist -DskipTests -Dtar -Dmaven.javadoc.skip=true

Create binary distribution with native code and with documentation:

  $ mvn package -Pdist,native,docs -DskipTests -Dtar

Create source distribution:

  $ mvn package -Psrc -DskipTests

Create source and binary distributions with native code and documentation:

  $ mvn package -Pdist,native,docs,src -DskipTests -Dtar

Create a local staging version of the website (in /tmp/hadoop-site)

  $ mvn clean site -Preleasedocs; mvn site:stage -DstagingDirectory=/tmp/hadoop-site

Note that the site needs to be built in a second pass after other artifacts.

总结

  1. 使用ubuntu20.0LTS桌面系统一样的能编译,最好时新安装。
  2. 编译之前安装build.txt中把工具全部装完,包括option部分。
  3. 编译的时候尽量使用权限高的用户编译,最开始使用like用户编译老是出错,报什么java的环境变量找不到等等,最后使用root编译瞬间就对了。
  4. 导入idea时如果遇到包报错不全,可以删除重新maven reimport。
  5. idea如果下载一来报权限不足的时候,可以给本地repository文件夹777的权限。
  6. 导入idea的时候遇到很多依赖不全的时候,多reimport几次就好了,不用修改项目中的依赖或者idea配置。这个整对了,全世界就和谐了。
这篇关于ubuntu20桌面版编译hadoop3.3.1源码的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!