El ingeniero de base de datos de cuarto nivel elimina las preguntas reales y las preguntas incorrectas (1) La selección principal del sistema operativo

1. Para mejorar la "corrección", la "flexibilidad", la "facilidad de mantenimiento" y la "capacidad de expansión" del sistema operativo, al diseñar la estructura de los sistemas operativos modernos, incluso en un entorno de un solo procesador, la mayoría de ellos son basado en La estructura microkernel divide el sistema operativo en dos partes: el microkernel y varios servidores. Al diseñar un sistema operativo, el método de construcción del sistema operativo debe comenzar con la estructura del sistema operativo. Solo hay tres tipos de arquitecturas de sistema operativo: estructura monolítica, estructura jerárquica y estructura de micronúcleo.

2. El procesamiento por lotes es para agrupar trabajos de acuerdo con sus propiedades y luego enviarlos al sistema informático en grupos, y la computadora completará automáticamente y luego generará los resultados, reduciendo así el tiempo perdido en el proceso de creación y finalización del trabajo. Su desventaja es que no es interactivo , una vez que el usuario envía el trabajo, pierde el control sobre su operación y se procesa por lotes, el tiempo de respuesta del trabajo es largo y el usuario es incómodo de usar.

3. En la protección de almacenamiento del procesador, existen principalmente dos estados de permiso, uno es el estado central (estado de administración), también conocido como estado privilegiado, el otro es el estado de usuario (estado de ojo). El modo central es el modo en el que se ejecuta el kernel del sistema operativo. El código que se ejecuta en este modo puede acceder al almacenamiento del sistema y dispositivos externos sin restricciones. El enmascaramiento de interrupciones solo se puede hacer en modo kernel , de lo contrario, causará problemas. (Las interrupciones de máscara son instrucciones privilegiadas y solo se pueden ejecutar en el modo kernel del sistema).

4. Para permitir que el sistema responda y procese todas las interrupciones que ocurran de manera oportuna, el sistema divide las fuentes de interrupción en varios niveles por hardware de acuerdo con la importancia y urgencia del evento de interrupción, denominado prioridad de interrupción . Para permitir que el sistema responda y procese interrupciones urgentes que ocurren de manera oportuna sin pérdida de señales de interrupción, en las primeras etapas de desarrollo de la computadora, al diseñar el hardware del sistema de interrupción, se hicieron arreglos en la línea de acuerdo con la severidad de varias interrupciones, para que la respuesta a la interrupción pueda ser efectiva.

5. La función principal del sistema operativo es administrar los recursos de hardware y proporcionar un buen entorno para que los desarrolladores de aplicaciones hagan que las aplicaciones sean más compatibles. Para lograr este propósito, el kernel proporciona una serie de funciones multi-kernel con funciones predeterminadas. Presentado al usuario a través de un conjunto de interfaces llamadas llamadas al sistema. La llamada al sistema pasa la solicitud del programa de aplicación al kernel, llama a la función del kernel correspondiente para completar el procesamiento requerido y devuelve el resultado del procesamiento al programa de aplicación.

6. La única interfaz proporcionada por el sistema operativo al usuario para la programación de aplicaciones es la llamada al sistema .

7. Bloque de control de procesos (PCB) , una estructura de datos especial configurada por el sistema para gestionar el proceso, utilizarla para registrar las características externas del proceso y describir el proceso de movimiento y cambio del proceso. El sistema utiliza el PCB para controlar y gestionar el proceso, por lo que el PCB es la única señal de que el sistema percibe la existencia del proceso. Existe una correspondencia uno a uno entre proceso y PCB .

8. Un proceso en ejecución puede tener los siguientes tres estados básicos. 1) Estado listo (Ready): El proceso ha obtenido los recursos requeridos excepto el procesador, y está esperando la asignación de recursos del procesador, mientras el procesador esté asignado, el proceso puede ejecutarse.

2) Estado Running (Running): El proceso ocupa recursos del procesador, el número de procesos en este estado es menor o igual al número de procesadores.

3) Estado bloqueado (Blocked): debido a que el proceso está esperando una determinada condición (como la operación de E/S o la sincronización del proceso), no puede continuar ejecutándose hasta que se cumpla la condición.

9. La función de horquilla () en la programación de computadoras. Valor devuelto: si se llama con éxito una vez, devolverá dos valores, el proceso secundario devuelve 0 y el proceso principal devuelve la marca de proceso secundario; de lo contrario, un error devuelve -1. Suponiendo que el programa se ejecuta correctamente y el proceso secundario se crea correctamente, el pid del proceso secundario obtiene un valor de retorno de 0 y el pid del proceso principal obtiene un valor de retorno del número del proceso secundario. salida, y el proceso hijo ejecuta una salida.

10. La función pthread_join () espera el final del hilo especificado por hilo de forma bloqueante. Cuando la función regresa, se reclaman los recursos del subproceso en espera. Si el proceso ha terminado, la función regresa inmediatamente. Y el subproceso especificado por th read debe ser unible.

11. Causas de la programación de procesos:

(1) Se completa el proceso que se está ejecutando.

(2) Durante la ejecución, el proceso llama a las primitivas de bloqueo para bloquearse y entrar en suspensión y otros estados.

(3) El proceso llama a la operación de la primitiva de bloqueo y se bloquea por insuficiencia de recursos, o llama a la operación de la primitiva de despertar para activar el proceso en espera de recursos.

(4) La franja de tiempo se ha agotado en el sistema de tiempo compartido.

(5) La prioridad de un proceso en la columna de par listo es mayor que la del proceso que se está ejecutando actualmente.

La razón principal para la programación de procesos es: si hay recursos de CPU para liberar, y si hay recursos de CPU para liberar, la programación puede no ocurrir necesariamente, pero si no hay recursos de CPU para liberar, la programación de procesos definitivamente no ocurrirá. .

12. Dado que el valor inicial de la exclusión mutua es 1, significa que solo un proceso puede ingresar al área crítica al mismo tiempo, y hay k procesos en la cola de espera de la exclusión mutua, por lo que actualmente hay k +
1 procesos que necesitan acceder al área crítica, y cada proceso Al acceder a la exclusión mutua, el valor de la exclusión mutua se reduce en 1, por lo que el valor de la exclusión mutua en este momento es - k

13. Administración de almacenamiento de paginación virtual : antes de que el proceso comience a ejecutarse, no carga todas las páginas, sino que carga una o cero páginas, y luego carga dinámicamente otras páginas de acuerdo con las necesidades del proceso, cuando el espacio de memoria está lleno y cuando se necesita cargar una nueva página, una determinada página se reemplaza de acuerdo con un cierto algoritmo para que se pueda cargar una nueva página. La paginación virtual es expandir dinámicamente la capacidad de la memoria. La idea básica de la tecnología de almacenamiento de paginación virtual es utilizar un almacenamiento externo de gran capacidad para expandir la memoria. Utilice la tecnología de intercambio para expandir dinámicamente la capacidad de la memoria.

14. El llamado fenómeno Belady se refiere a: en la gestión de memoria virtual de paginación, cuando el algoritmo de reemplazo cuando ocurre una falla de página usa el algoritmo FIFO (primero en entrar, primero en salir), si un proceso no asigna todas las páginas que requiere, a veces lo hará Hay un fenómeno anormal en el que aumenta el número de páginas asignadas pero, en cambio, aumenta la tasa de errores de página.

15. En la gestión de almacenamiento de paginación de solicitudes, puede ocurrir que se vuelva a acceder inmediatamente a la página que se acaba de sustituir. Debe transferirse, porque no hay memoria libre para reemplazar otra página, y esta última es la página a la que se debe acceder, por lo que el sistema debe pasar mucho tiempo ocupado con este intercambio frecuente de páginas, lo que resulta en la eficiencia real. del sistema Muy bajo, causando parálisis grave del sistema, este fenómeno se denomina fenómeno de fluctuación. Es decir, un algoritmo de reemplazo de página irrazonable causará inestabilidad en el sistema .

16. El método de acceso al archivo depende de la estructura física del archivo y de las características físicas del dispositivo que almacena el archivo. El método de acceso al archivo depende de las características físicas del dispositivo que almacena el archivo, y las características físicas del medio de almacenamiento también determinan la estructura de almacenamiento físico del archivo, por lo que el método de acceso al archivo está determinado por la estructura física y el medio de almacenamiento. Si el medio de almacenamiento es una cinta, la estructura física del archivo solo puede ser una estructura de almacenamiento continuo, por lo que solo puede ser un método de acceso secuencial.

17. La gestión del directorio realiza el acceso por nombre, es decir, el usuario solo necesita proporcionar el nombre del archivo al que se accede al sistema, y ​​puede ubicar rápidamente la ubicación de almacenamiento del archivo que se busca en el almacenamiento externo; mejorar la velocidad de recuperación del directorio; compartir archivos; se permite cambiar el nombre de los archivos.

18. Un descriptor de archivo tiene la forma de un número entero no negativo. De hecho, es un valor de índice que apunta a la tabla de registros de los archivos abiertos del proceso que mantiene el kernel para cada proceso. Cuando un programa abre un archivo existente o crea un archivo nuevo, el kernel devuelve un descriptor de archivo al proceso. En programación, algunos programas de bajo nivel a menudo giran en torno a descriptores de archivos. Sin embargo, el concepto de descriptores de archivos a menudo solo se aplica a sistemas operativos como UNIX y Linux.

19. Cuando el dispositivo de disco está funcionando, gira a una velocidad constante. Para leer y escribir, el cabezal debe poder moverse a la pista requerida y esperar a que la posición de inicio del sector requerido gire debajo del cabezal. , y luego comenzar a leer y escribir Write, por lo que el tiempo de acceso al disco se divide en tres partes: tiempo de búsqueda Ts, tiempo de retardo de rotación Tr y tiempo de transmisión Tt . Entre ellos, el tiempo de búsqueda Ts puede afectar más el rendimiento de lectura y escritura del disco .

20. Para lograr la independencia del dispositivo, el sistema debe configurar una tabla de dispositivos lógicos, que se utiliza para asignar el nombre del dispositivo lógico utilizado en el programa de aplicación al nombre del dispositivo físico. Hay tres elementos en cada entrada de esta tabla: nombre de dispositivo lógico, nombre de dispositivo físico y dirección de entrada de controlador de dispositivo. La tabla de dispositivos del sistema SDT, en la que cada dispositivo conectado al sistema tiene una entrada. Se registra el nombre del dispositivo y se identifica la información relevante, como la dirección de entrada de la tabla de control de dispositivos DCT. Refleja completamente la situación de los recursos periféricos en el sistema y la relación correspondiente entre los dispositivos lógicos y los dispositivos físicos.

21. La tecnología de búfer es para coordinar el trabajo de transmisión de datos entre dispositivos con velocidades de rendimiento muy diferentes. En el sistema operativo, las principales razones para introducir el almacenamiento en búfer se pueden atribuir a los siguientes puntos:

1. Mejore el desajuste de velocidad entre la CPU y los dispositivos de E/S;

2. Puede reducir la frecuencia de interrupción de la CPU y relajar la restricción del tiempo de respuesta a la interrupción;

3. Para mejorar el paralelismo entre la CPU y los dispositivos de E/S, la introducción del almacenamiento en búfer puede aumentar significativamente el grado de funcionamiento paralelo de la CPU y los dispositivos, y mejorar el rendimiento del sistema y la tasa de utilización de los dispositivos.

22. Cada proceso en el conjunto está esperando un evento que solo puede ser causado por otros procesos en el conjunto, luego el conjunto de procesos se bloquea. Las causas de interbloqueo son: 1. Los recursos que compiten provocan un punto muerto en el proceso; 2. La secuencia de avance incorrecta de los procesos provoca un punto muerto.

23. El estado seguro significa que si hay una secuencia segura (P1... Pn } compuesta por todos los procesos en el sistema, el sistema está en un estado seguro; si no hay una secuencia segura, el sistema está en un estado inseguro Si el sistema está en un estado seguro, no se producirá un interbloqueo y un estado inseguro conducirá definitivamente al interbloqueo, pero un estado inseguro no es necesariamente un estado de interbloqueo.

e880cf8adf074716b66ff574d9f58862.jpg

 

 

Supongo que te gusta

Origin blog.csdn.net/qq_52045638/article/details/129753098
Recomendado
Clasificación