Conceptos básicos del motor Unity

Movimiento de perspectiva de escena

Botón derecho del ratón para rotar la escena.

Después de seleccionar la herramienta de visualización, mueva la escena con el botón izquierdo del mouse.

Mantenga presionado el botón derecho y haga clic en W/S/A/D/Q/R para recorrer la escena.

Seleccione el objeto y mantenga presionada la tecla Alt (opción). Utilice el botón izquierdo del mouse para rotar la escena alrededor del objeto. Haga clic derecho para ampliar la escena.

Seleccione el objeto y presione la tecla F o haga doble clic en el objeto en el panel Jerarquía para tratarlo como el centro de la escena.

Herramientas de transformación rápida

Escena móvilQ

Objeto en movimiento W

Objeto giratorio E

Objeto de escala R

·Consejos prácticos

Adsorción de vértice: después de seleccionar el objeto, presione y mantenga presionado V, seleccione el vértice y arrástrelo hasta el vértice objetivo.

Cámara (cámara)

Sólo se pueden realizar imágenes dentro del frustum de visualización.

Audio Listener oyente de audio: recibe el sonido de la fuente de audio de entrada de escena y reproduce la música a través de los parlantes de la computadora.

banderas claras: manejar partes en blanco (donde no hay objetos)

skybox Un envoltorio alrededor de toda la escena, utilizado para simular el material del cielo, material reemplazable.

Ctrl+Mayús+F posicionamiento rápido

Arrastra la cámara al grupo para seguir el movimiento.

Sólo puede haber un oyente de audio

La perspectiva en proyección es 3D. La ortográfica es 2D.

Es mejor usar 2D para la cámara del mapa (las banderas claras se configuran en profundidad solo para no representar la parte en blanco)

*Coloca una pieza en la cabeza del personaje y agrégala al grupo para mostrar la geometría en la cámara del mapa. La cámara principal no se muestra:

1. Agregue la marca de Capa a la pieza y el modelo de Capa al objeto y selecciónelo.

2. Seleccione el modelo en la máscara de sacrificio de la cámara principal y cancele la marca.

3. Seleccione la marca en la cámara del mapa Máscara de selección y cancele el modelo.

Material

Crea un nuevo material en el panel del proyecto.

Mesh Renderer en el panel Inspector es responsable de renderizar

Modo de renderizado

modo predeterminado opaco opaco

El recorte elimina el canal transparente.

El modo transparente cambia la A en Albedo para ajustar la transparencia.

gradiente de desvanecimiento

Mapas principales

El mapa básico de Albedo determina la textura y el color de la superficie del objeto.

Metallic utiliza propiedades metálicas para simular la apariencia.

Reflexión especular

Suavidad

El mapa normal describe la concavidad y convexidad de la superficie del objeto.

Autoiluminación de emisión (ninguna no afecta el medio ambiente, en tiempo real y cambia dinámicamente el efecto de horneado respaldado en tiempo real)

Mosaico El número de mosaicos de textura a lo largo de diferentes ejes.

Textura deslizante compensada

sombreador

Un programa integrado en el proceso de renderizado que controla el algoritmo de la GPU para calcular los efectos de la imagen.
Relación del objeto material del sombreador
Shader determina si tiene ciertas funciones, como el color de la textura.

El material es solo un panel con valores específicos.

InstantOC

Insertar descripción de la imagen aquí

canalización de renderizado

Insertar descripción de la imagen aquí
La CPU es responsable del cálculo y la GPU es responsable del renderizado.

llamada de dibujo: la cantidad de veces que un objeto debe representarse en un cuadro

Después de ejecutar, los lotes en las estadísticas son llamadas de sorteo (generalmente una llamada de sorteo por objeto, y la luz es más complicada), Tris es el número de triángulos y Verts es el número de vértices.

Procesamiento de vértices: 1. Recibir datos de vértices del modelo (la CPU se los envía) [Cualquier gráfico está compuesto por puntos y líneas (compuesto por varios triángulos)] 2. Conversión del sistema de coordenadas

Conjunto de fuente de imagen: las superficies de los componentes conectan vértices adyacentes para dibujar superficies triangulares

Rasterización: calcule los píxeles en la cara del triángulo y proporcione parámetros de interpolación razonables para la etapa de sombreado posterior

Procesamiento de píxeles: sombrear cada área de píxel y escribirla en el caché

cache

Un bloque de memoria que almacena datos de píxeles (los búferes más importantes son el búfer de cuadros y el búfer de profundidad)

Búfer de cuadros: almacena el color de cada píxel, es decir, la imagen renderizada. El búfer de cuadros siempre está en la memoria de video. La tarjeta gráfica lo lee y lo envía continuamente a la pantalla.

Búfer z de caché de profundidad: almacena la información de profundidad del píxel (la distancia desde el objeto a la cámara). Al rasterizar, se calcula el valor de profundidad de cada píxel. Si el nuevo valor de profundidad está más cerca que el valor existente (más cerca de la cámara), el color del píxel se escribe en el framebuffer y reemplaza el buffer de profundidad.

Eliminación de oclusión

Antes de enviar los objetos al proceso de renderizado, se eliminan los objetos que no se pueden ver dentro de la perspectiva de la cámara, lo que reduce la cantidad de datos de renderizado y mejora el rendimiento del renderizado. (Desventaja: determinar si un objeto está ocluido consume CPU adicional)

paso:

1. Crea capas

2. Especifique la capa y la etiqueta para el objeto del juego (que participará en la eliminación de la oclusión) y la etiqueta (el script IOClod se adjuntará automáticamente)

3. Agregue un componente colisionador al objeto.

4. Script adicional de cámara IOCcam

Lod (múltiples niveles de detalle)

De acuerdo con la ubicación y la importancia de los nodos del modelo de objetos en el entorno de visualización, se determina la asignación de recursos para la representación de objetos y se reduce el número de caras y detalles de objetos no importantes para obtener operaciones de representación eficientes. (La llamada al sorteo no cambiará si el molde preciso se usa para una posición cercana y el molde simple se usa para una posición lejana)

Sistema de iluminación

Insertar descripción de la imagen aquí

Iluminación global (iluminación global GI)

Un sistema de iluminación capaz de calcular la luz directa, la luz indirecta, la luz ambiental y la luz reflejada.

El algoritmo GI se puede utilizar para hacer que el efecto de iluminación renderizado sea más realista.
Insertar descripción de la imagen aquí

luz directa

A través del componente de luz (máscara de selección, puede seleccionar el objeto de iluminación) (puede agregar una fuente de luz a la escena)

Sombras: puede cambiar las sombras proyectadas y recibir sombras en Mesh Renderer. Desactive las sombras innecesarias para optimizar el renderizado.

* Calidad de ajuste de calidad en la configuración del proyecto en edición

Selección de sombras (establecer distancia de sombra): edición—configuración del proyecto—calidad—distancias de sombras

luz ambiental

Iluminación que actúa sobre todos los objetos de la escena (establecida mediante Windows-Rendering-iluminación-iluminación ambiental)

Fuente ambiental Fuente de luz ambiental:

sky box establece la iluminación ambiental a través del color de sky box

Degradado Color de degradado: cielo Color del cielo Color del horizonte del ecuador Color de fondo del suelo

Color ambiental color sólido

Intensidad ambiental Intensidad de la luz ambiental

Luz ambiental GI Modo GI: 1. La fuente de luz ambiental actualizada en tiempo real cambiará la selección de este elemento 2. La fuente de luz ambiental de horneado respaldada no cambiará la selección de este elemento

Luz reflejada

Efecto de reflexión calculado en todos los objetos basado en skybox o cubemap, controlado por Reflection in Environment Lightings

Fuente de reflexión fuente de reflexión

luz indirecta

La luz reflejada desde la superficie de un objeto después de recibir luz.

(Controlado por la intensidad del rebote en el componente de luz)

(La iluminación indirecta se puede ver a través del modo Irradiancia del panel Escena)

Marcar objetos inamovibles como estáticos (Inspector—Estático). Solo los objetos marcados con Lightmaping Static pueden producir iluminación de rebote indirecto.

IG en tiempo real

Pasos:

1.Establece el objeto del juego en Lightmaping Static.

2. Inicie el GI en tiempo real precalculado del panel de iluminación.

3. Haga clic en el botón Construir (si está marcado Auto, el editor detectará automáticamente los cambios en la escena y reparará los efectos de iluminación)

editar-preferencia-GI caché puede modificar el caché

IG en tiempo real precalculada:

Resolución en tiempo real Cálculo de resolución en tiempo real

Uso de CPU: cuanto mayor sea el valor de utilización de la CPU, mayor será la eficiencia de renderizado en tiempo real.

IG para hornear

Cuando la escena contiene una gran cantidad de objetos, la iluminación y las sombras en tiempo real tienen un gran impacto en el rendimiento del juego. Utilizando la tecnología de horneado, los efectos de luz se pueden pre-renderizar en texturas y luego aplicar a los objetos para simular luces y sombras. mejorando así el rendimiento y adecuado para juegos de bajo rendimiento Programas que se ejecutan en el dispositivo.

sonido

Unity admite formatos: mp3, ogg, wav, aif, mod, it, s3m, xm

El sonido se divide en 2D y 3D.

2D: adecuado para música de fondo

3D: Hay una sensación de espacio, grande cerca y pequeño lejos

La producción de sonido en una escena se basa principalmente en dos componentes:

Oyente de audio El oyente de audio recibe el sonido emitido por la fuente de audio Fuente de audio en la escena y lo reproduce a través de los parlantes de la computadora.

Clip de audio: recursos de audio que deben reproducirse

silencio silencio

Play on Awake se reproducirá automáticamente cuando comience la escena.

Reproducción en bucle

Paso

Panorámica estéreo: ajustes 2D para canales izquierdo y derecho

Mezcla espacial: conmutación 2D y 3D

En la configuración de sonido 3D, el método de atenuación de volumen de reducción de volumen generalmente se selecciona como reducción lineal (el eje x es la distancia desde la fuente de sonido y el eje y es el volumen).

Distancia mínima Distancia de atenuación inicial

Distancia máxima de caída final

Supongo que te gusta

Origin blog.csdn.net/m0_73241844/article/details/131504196
Recomendado
Clasificación