Preguntas de la entrevista de Big Data de la Universidad de Beijing Yinghua

China británica

 

 

1. Preguntas de opción múltiple (opción única o múltiple)

1. ¿Qué programa a continuación es responsable del almacenamiento de datos HDFS ()

a) NameNode b) Jobtracker c) Datanode d) secundarioNameNode e) tasktracker

2. ¿Cuál de los siguientes programas suele iniciarse en el mismo nodo que NameNode ()?

a) SecondaryNameNode b) DataNode c) TaskrTracker d) Jobtracker

3. ¿Cuál de los siguientes suele ser el principal cuello de botella del clúster ()

a) CPU b) Red c) Disco d) Memoria

4. ¿Qué elemento es correcto sobre SecondaryNameNode? ()

a) Es una copia de seguridad en caliente de Namewode

b) No tiene requisitos de memoria

c) Su propósito es ayudar a NameNode a fusionar los registros de edición y reducir el tiempo de inicio de NameNode

d) El SecondaryNameNode debe implementarse en el mismo nodo que el NameNode

5. Con respecto a la diferencia entre hashMap y hashTable, la declaración correcta es ()

a) Tanto hashMap como hashTable implementan la interfaz Map

b) HashMap no está sincronizado, mientras que HashTable está sincronizado

c) HashTable usa la enumeración, HashMap usa Iterator

d) HashTable usa directamente el código hash del objeto, HashMap para recalcular el valor hash, y usa y en lugar de módulo

6. La siguiente declaración es correcta ()

a) Para las clases internas locales, no puede agregar ningún modificador (público predeterminado protegido privado) antes de la clase para modificar

b) Siempre que no haya un constructor definido sin parámetros, la JVM generará un constructor predeterminado para la clase

c) En la transformación ascendente, cuando la clase padre y la subclase tienen métodos ordinarios con el mismo nombre, se accede a los métodos miembros de la subclase

d) El método de construcción de la clase en el modo singleton se modifica con privado y se declara como privado, por lo que la nueva palabra clave no se puede usar fuera de la clase para crear objetos de instancia.

7. La descripción de las clases abstractas en JAVA es correcta ()

a) Se pueden crear instancias de clases abstractas

B) Si un método en una clase se declara como abstracto, la clase debe ser una clase abstracta

c) El método de la clase abstracta debe ser abstracto

d) Declare que la clase abstracta debe tener la palabra clave abstracta

8. ¿Cuál de las siguientes opciones es correcta al cargar archivos en el lado del cliente?

a) Los datos se pasan a DataNode a través de NameNode

b) El lado del cliente divide el archivo en bloques y los carga secuencialmente

c) El cliente solo carga datos en un Datalode, y luego el NameNode es responsable de la replicación de bloques

9. La siguiente declaración es correcta ()

a) Hadoop está desarrollado en Java, por lo que MapReduce solo admite la escritura en lenguaje Java

b) Hadoop admite la lectura y escritura aleatoria de datos

c) Los ganglios no solo pueden monitorear, sino también alarmar

d) El tamaño del bloque no se puede modificar

10. ¿Cuál de los siguientes programas puede implementar correctamente la conversión de un flujo de bytes codificado en GBK a un flujo de bytes codificado en UTF-8:
byte [] src, dst; ()
a) dst = String.fromBytes (src, "GBK") .getBytes ("UTF-8")
b) dst = nueva cadena (src, "GBK"). getBytes ("UTF-8")
c) dst = nueva cadena ("GBK", src) .getBytes ()
d) dst = String.encode (String.decode (src, "GBK")), "UTF-8)
11. La siguiente declaración es correcta ()
a) El nodo esclavo necesita almacenar datos, así que cuanto más grande sea el disco, mejor.
b) La estrategia predeterminada del programador de Hadoop es FIFO
c) La división de entrada de Mapreduce es un bloque
d) Cada nodo del clúster debe estar equipado con RAID, para evitar daños en un solo disco que afecten el funcionamiento de todo el nodo
12. Las siguientes afirmaciones sobre Kafka son correctas ()
a) El productor envía eventos al corredor
b) El consumidor consume eventos del corredor
c) Los eventos están separados por tema y cada consumidor pertenece a un grupo
d) Los consumidores del mismo grupo no pueden consumir eventos repetidamente y el mismo evento se enviará a todos Un
consumidor de un grupo diferente
13. ¿Cuál de las siguientes operaciones debe ser amplia dependiente ()
A. mapa B.flatMap C. reduceByKey D. muestra
14. ¿Cuál de los siguientes puertos no es el puerto de servicio propio de la chispa ()
A. 8080 B. 4040 C. 8090 D. 18080
15. Cuál de las siguientes es la operación de acción de la chispa
a) mapa b) recopilación c) filtro d) countByKey
16. Lo que está mal es ()
a) Iniciar un nuevo hilo es llamar directamente al método run ()
b) CyclicBarrier y CountDownLatch pueden usarse para hacer que un grupo de hilos espere a otros hilos
c) Si finaliza manualmente un hilo, puede usar una variable booleana volátil para salir ejecutar () método, ciclo
o cancelar la tarea para interrumpir el hilo
d) esperar y notificar métodos deben ser llamados en el bloque de sincronización
17. ¿Cuál es la diferencia entre los metadatos de hive almacenados en derby y MySQL ()
A. No hay diferencia B. Muchos Sesión C. Soporte para el entorno de red D. Diferencia en la base de datos
18. Nivel de almacenamiento predeterminado de Spark ()
A MEMORY_ONLY B MEMORY_ONLY_SER
C MEMORY_AND_DISK D MEMORY_AND_DISK_SER
19. Qué determina el número de tareas de Stape en Spark ()
A Partición B Trabajo C Etapa D TaskScheduler
20. La salida del siguiente código es ()

public class Person{
private String name = "Person";
int age = 0;
}
public class Child extends Person{
public String grade;
public static void main(String[] args){
Person p = new Child();
System.out.println(p.name);
}
}


A) Salida: Persona
B) Sin salida
C) Error de compilación
D) Error de ejecución

Segundo, la parte de respuesta corta

1. ¿Cuáles son las palabras clave de las funciones implícitas en scala?

2. ¿Cómo se optimiza Hbase?

3. ¿Cuál es el papel de la función de combinación en hadoop?

4. ¿Cómo destruye Hadoop un trabajo?

5. ¿El concepto de linaje Spark?

6. Escriba el comando en la base shel1:

a) La tabla de consulta en hbase se denomina test, cuyo valor = 001

b) El nombre de la tabla de consulta en hbase es prueba, y la clave de fila comienza con userl

Entrenamiento de big data

Supongo que te gusta

Origin blog.csdn.net/msjhw_com/article/details/109044025
Recomendado
Clasificación