Tecnologías grande de datos Hadoop HDFS (5) - operaciones HDFS API

Capítulo V: operaciones de API HDFS

5.2 para cargar archivos desde los locales HDFS

Paso 1: Crear formularios con idea de proyecto Maven Java

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

Paso dos: añadir Maven se basa

Añadir coordenadas de HDFS en pom.xml,

<dependencies>
    <dependency>
         <groupId>junit</groupId>
         <artifactId>junit</artifactId>
         <version>4.12</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-client</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-common</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-hdfs</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-yarn-common</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-yarn-client</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-yarn-server-resourcemanager</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-mapreduce-client-core</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-mapreduce-client-jobclient</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-mapreduce-client-common</artifactId>
         <version>3.1.2</version>
     </dependency>
     <dependency>
         <groupId>net.minidev</groupId>
         <artifactId>json-smart</artifactId>
         <version>2.3</version>
     </dependency>
     <dependency>
         <groupId>org.apache.logging.log4j</groupId>
         <artifactId>log4j-core</artifactId>
         <version>2.12.1</version>
     </dependency>
     <dependency>
         <groupId>org.anarres.lzo</groupId>
         <artifactId>lzo-hadoop</artifactId>
         <version>1.0.6</version>
     </dependency>
</dependencies>

Paso tres: Añadir el archivo de registro en el directorio de recursos

log4j.properties

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

El cuarto paso: Registros de disco D código java escritura subido a HDFS

/**
     * 从本地中上传文件到HDFS
     * @throws URISyntaxException
     * @throws IOException
     */
    @Test
    public void put() throws URISyntaxException, IOException, InterruptedException {
        //虚拟机连接名,必须在本地配置域名,不然只能IP地址访问
        String hdfs = "hdfs://hadoop101:9000";
        //1、读取一个HDFS的抽象封装对象
        Configuration configuration = new Configuration ();
        FileSystem fileSystem = FileSystem.get (URI.create (hdfs), configuration, "zhangyong");

        //用这个对象操作文件系统
        fileSystem.copyFromLocalFile (new Path ("d:\\logs"),new Path ("/"));

        System.out.println ("上传完成");
        //关闭文件系统
        fileSystem.close ();
    }

Paso cinco: resultados de la ejecución

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

5.3 Descarga de archivos HDFS a lo local

El primer paso: parte superior de la primera, dos, tres pasos como

Paso dos: Compruebe el archivo HDFS

Aquí Insertar imagen Descripción

El tercer paso: escribir el código de Java, elegimos wcinput descarga en el local de

/**
     * 从HDFS中下载文件
     * @throws URISyntaxException
     * @throws IOException
     */
    @Test
    public void get() throws URISyntaxException, IOException, InterruptedException {
        //虚拟机连接名,必须在本地配置域名,不然只能IP地址访问
        String hdfs = "hdfs://hadoop101:9000";
        //1、读取一个HDFS的抽象封装对象
        Configuration configuration = new Configuration ();
        FileSystem fileSystem = FileSystem.get (URI.create (hdfs), configuration, "zhangyong");

        //用这个对象操作文件系统
        fileSystem.copyToLocalFile (new Path ("/wcinput"),new Path ("d:\\"));

        System.out.println ("下载完成");
        //关闭文件系统
        fileSystem.close ();
    }

Paso cuatro: resultados de la ejecución

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

5.4 Cambio de nombre de archivo HDFS

El primer paso: parte superior de la primera, dos, tres pasos como

Paso dos: el código de Java escritura, registros de cambios a logs2

 /**
     * 更改HDFS文件的名称
     * @throws URISyntaxException
     * @throws IOException
     */
    @Test
    public void rename() throws URISyntaxException, IOException, InterruptedException {
        //虚拟机连接名,必须在本地配置域名,不然只能IP地址访问
        String hdfs = "hdfs://hadoop101:9000";
        //1、读取一个HDFS的抽象封装对象
        Configuration configuration = new Configuration ();
        FileSystem fileSystem = FileSystem.get (URI.create (hdfs), configuration, "zhangyong");

        //用这个对象操作文件系统
        fileSystem.rename (new Path ("/logs"),new Path ("/logs2"));

        System.out.println ("更改完成");
        //关闭文件系统
        fileSystem.close ();
    }

Paso 3: Ejecutar resultados

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

5.5 HDFS Eliminar carpeta

Paso 1: Comprobar las carpetas HDFS, logs2 de HDFS de borrado

Aquí Insertar imagen Descripción

Paso dos: escribir código Java

	 /** HDFS文件夹删除
     * @throws IOException
     * @throws InterruptedException
     * @throws URISyntaxException
     */
    @Test
    public void Delete() throws IOException, InterruptedException, URISyntaxException {
        //虚拟机连接名,必须在本地配置域名,不然只能IP地址访问
        String hdfs = "hdfs://hadoop101:9000";
        // 1 获取文件系统
        Configuration configuration = new Configuration ();
        FileSystem fs = FileSystem.get (new URI (hdfs), configuration, "zhangyong");
        // 2 执行删除
        fs.delete (new Path ("/logs2/"), true);
        // 3 关闭资源
        fs.close ();
        System.out.println ("删除完成");
    }

El tercer paso: Resultados de la prueba

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

Detalles del 5,6 archivo HDFS Ver

Paso 1: Compruebe el nombre de archivo, permisos, longitud, información de bloque

Aquí Insertar imagen Descripción

Paso dos: escribir código Java

	  /**
     * 查看文件名称、权限、长度、块信息
     * @throws IOException
     * @throws InterruptedException
     * @throws URISyntaxException
     */
    @Test
    public void ListFiles() throws IOException, InterruptedException, URISyntaxException {
        //虚拟机连接名,必须在本地配置域名,不然只能IP地址访问
        String hdfs = "hdfs://hadoop101:9000";
        // 1获取文件系统
        Configuration configuration = new Configuration ();
        FileSystem fileSystem = FileSystem.get (new URI (hdfs), configuration, "zhangyong");
        // 2 获取文件详情
        RemoteIterator<LocatedFileStatus> listFiles = fileSystem.listFiles (new Path ("/"), true);
        while (listFiles.hasNext ()) {
            LocatedFileStatus status = listFiles.next ();
            // 输出详情
            // 文件名称
            System.out.println ("文件名称="+status.getPath ().getName ());
            // 长度
            System.out.println ("文件长度="+status.getLen ());
            // 权限
            System.out.println ("文件权限="+status.getPermission ());
            // 分组
            System.out.println ("文件分组="+status.getGroup ());
            // 获取存储的块信息
            BlockLocation[] blockLocations = status.getBlockLocations ();
            for (BlockLocation blockLocation : blockLocations) {
                // 获取块存储的主机节点
                String[] hosts = blockLocation.getHosts ();

                for (String host : hosts) {
                    System.out.println (host);
                }
            }
            System.out.println ("-----------分割线----------");
        }
        // 3 关闭资源
        fileSystem.close ();
    }

El tercer paso: Resultados de la prueba

Aquí Insertar imagen Descripción

5.7 HDFS archivos y carpetas juicio

Paso 1: Compruebe el archivo HDFS

Aquí Insertar imagen Descripción

Paso dos: escribir código Java

	/**
     * 查看HDFS的判断是文件还是文件夹
     * @throws IOException
     * @throws InterruptedException
     * @throws URISyntaxException
     */
    @Test
    public void ListStatus() throws IOException, InterruptedException, URISyntaxException{
        //虚拟机连接名,必须在本地配置域名,不然只能IP地址访问
        String hdfs = "hdfs://hadoop101:9000";
        // 1 获取文件配置信息
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI(hdfs), configuration, "zhangyong");
        // 2 判断是文件还是文件夹
        FileStatus[] listStatus = fileSystem.listStatus(new Path("/"));
        for (FileStatus fileStatus : listStatus) {
            // 如果是文件
            if (fileStatus.isFile()) {
                System.out.println("文件:"+fileStatus.getPath().getName());
            }else {
                System.out.println("文件夹:"+fileStatus.getPath().getName());
            }
        }
        // 3 关闭资源
        fileSystem.close();
    }

El tercer paso: Resultados de la prueba

Aquí Insertar imagen Descripción

Publicado 37 artículos originales · ganado elogios 7 · vistas 1180

Supongo que te gusta

Origin blog.csdn.net/zy13765287861/article/details/104646501
Recomendado
Clasificación