Directorio de artículos
Movimiento de perspectiva de escena
Botón derecho del ratón para rotar la escena.
Después de seleccionar la herramienta de visualización, mueva la escena con el botón izquierdo del mouse.
Mantenga presionado el botón derecho y haga clic en W/S/A/D/Q/R para recorrer la escena.
Seleccione el objeto y mantenga presionada la tecla Alt (opción). Utilice el botón izquierdo del mouse para rotar la escena alrededor del objeto. Haga clic derecho para ampliar la escena.
Seleccione el objeto y presione la tecla F o haga doble clic en el objeto en el panel Jerarquía para tratarlo como el centro de la escena.
Herramientas de transformación rápida
Escena móvilQ
Objeto en movimiento W
Objeto giratorio E
Objeto de escala R
·Consejos prácticos
Adsorción de vértice: después de seleccionar el objeto, presione y mantenga presionado V, seleccione el vértice y arrástrelo hasta el vértice objetivo.
Cámara (cámara)
Sólo se pueden realizar imágenes dentro del frustum de visualización.
Audio Listener oyente de audio: recibe el sonido de la fuente de audio de entrada de escena y reproduce la música a través de los parlantes de la computadora.
banderas claras: manejar partes en blanco (donde no hay objetos)
skybox Un envoltorio alrededor de toda la escena, utilizado para simular el material del cielo, material reemplazable.
Ctrl+Mayús+F posicionamiento rápido
Arrastra la cámara al grupo para seguir el movimiento.
Sólo puede haber un oyente de audio
La perspectiva en proyección es 3D. La ortográfica es 2D.
Es mejor usar 2D para la cámara del mapa (las banderas claras se configuran en profundidad solo para no representar la parte en blanco)
*Coloca una pieza en la cabeza del personaje y agrégala al grupo para mostrar la geometría en la cámara del mapa. La cámara principal no se muestra:
1. Agregue la marca de Capa a la pieza y el modelo de Capa al objeto y selecciónelo.
2. Seleccione el modelo en la máscara de sacrificio de la cámara principal y cancele la marca.
3. Seleccione la marca en la cámara del mapa Máscara de selección y cancele el modelo.
Material
Crea un nuevo material en el panel del proyecto.
Mesh Renderer en el panel Inspector es responsable de renderizar
Modo de renderizado
modo predeterminado opaco opaco
El recorte elimina el canal transparente.
El modo transparente cambia la A en Albedo para ajustar la transparencia.
gradiente de desvanecimiento
Mapas principales
El mapa básico de Albedo determina la textura y el color de la superficie del objeto.
Metallic utiliza propiedades metálicas para simular la apariencia.
Reflexión especular
Suavidad
El mapa normal describe la concavidad y convexidad de la superficie del objeto.
Autoiluminación de emisión (ninguna no afecta el medio ambiente, en tiempo real y cambia dinámicamente el efecto de horneado respaldado en tiempo real)
Mosaico El número de mosaicos de textura a lo largo de diferentes ejes.
Textura deslizante compensada
sombreador
Un programa integrado en el proceso de renderizado que controla el algoritmo de la GPU para calcular los efectos de la imagen.
Shader determina si tiene ciertas funciones, como el color de la textura.
El material es solo un panel con valores específicos.
InstantOC
canalización de renderizado
La CPU es responsable del cálculo y la GPU es responsable del renderizado.
llamada de dibujo: la cantidad de veces que un objeto debe representarse en un cuadro
Después de ejecutar, los lotes en las estadísticas son llamadas de sorteo (generalmente una llamada de sorteo por objeto, y la luz es más complicada), Tris es el número de triángulos y Verts es el número de vértices.
Procesamiento de vértices: 1. Recibir datos de vértices del modelo (la CPU se los envía) [Cualquier gráfico está compuesto por puntos y líneas (compuesto por varios triángulos)] 2. Conversión del sistema de coordenadas
Conjunto de fuente de imagen: las superficies de los componentes conectan vértices adyacentes para dibujar superficies triangulares
Rasterización: calcule los píxeles en la cara del triángulo y proporcione parámetros de interpolación razonables para la etapa de sombreado posterior
Procesamiento de píxeles: sombrear cada área de píxel y escribirla en el caché
cache
Un bloque de memoria que almacena datos de píxeles (los búferes más importantes son el búfer de cuadros y el búfer de profundidad)
Búfer de cuadros: almacena el color de cada píxel, es decir, la imagen renderizada. El búfer de cuadros siempre está en la memoria de video. La tarjeta gráfica lo lee y lo envía continuamente a la pantalla.
Búfer z de caché de profundidad: almacena la información de profundidad del píxel (la distancia desde el objeto a la cámara). Al rasterizar, se calcula el valor de profundidad de cada píxel. Si el nuevo valor de profundidad está más cerca que el valor existente (más cerca de la cámara), el color del píxel se escribe en el framebuffer y reemplaza el buffer de profundidad.
Eliminación de oclusión
Antes de enviar los objetos al proceso de renderizado, se eliminan los objetos que no se pueden ver dentro de la perspectiva de la cámara, lo que reduce la cantidad de datos de renderizado y mejora el rendimiento del renderizado. (Desventaja: determinar si un objeto está ocluido consume CPU adicional)
paso:
1. Crea capas
2. Especifique la capa y la etiqueta para el objeto del juego (que participará en la eliminación de la oclusión) y la etiqueta (el script IOClod se adjuntará automáticamente)
3. Agregue un componente colisionador al objeto.
4. Script adicional de cámara IOCcam
Lod (múltiples niveles de detalle)
De acuerdo con la ubicación y la importancia de los nodos del modelo de objetos en el entorno de visualización, se determina la asignación de recursos para la representación de objetos y se reduce el número de caras y detalles de objetos no importantes para obtener operaciones de representación eficientes. (La llamada al sorteo no cambiará si el molde preciso se usa para una posición cercana y el molde simple se usa para una posición lejana)
Sistema de iluminación
Iluminación global (iluminación global GI)
Un sistema de iluminación capaz de calcular la luz directa, la luz indirecta, la luz ambiental y la luz reflejada.
El algoritmo GI se puede utilizar para hacer que el efecto de iluminación renderizado sea más realista.
luz directa
A través del componente de luz (máscara de selección, puede seleccionar el objeto de iluminación) (puede agregar una fuente de luz a la escena)
Sombras: puede cambiar las sombras proyectadas y recibir sombras en Mesh Renderer. Desactive las sombras innecesarias para optimizar el renderizado.
* Calidad de ajuste de calidad en la configuración del proyecto en edición
Selección de sombras (establecer distancia de sombra): edición—configuración del proyecto—calidad—distancias de sombras
luz ambiental
Iluminación que actúa sobre todos los objetos de la escena (establecida mediante Windows-Rendering-iluminación-iluminación ambiental)
Fuente ambiental Fuente de luz ambiental:
sky box establece la iluminación ambiental a través del color de sky box
Degradado Color de degradado: cielo Color del cielo Color del horizonte del ecuador Color de fondo del suelo
Color ambiental color sólido
Intensidad ambiental Intensidad de la luz ambiental
Luz ambiental GI Modo GI: 1. La fuente de luz ambiental actualizada en tiempo real cambiará la selección de este elemento 2. La fuente de luz ambiental de horneado respaldada no cambiará la selección de este elemento
Luz reflejada
Efecto de reflexión calculado en todos los objetos basado en skybox o cubemap, controlado por Reflection in Environment Lightings
Fuente de reflexión fuente de reflexión
luz indirecta
La luz reflejada desde la superficie de un objeto después de recibir luz.
(Controlado por la intensidad del rebote en el componente de luz)
(La iluminación indirecta se puede ver a través del modo Irradiancia del panel Escena)
Marcar objetos inamovibles como estáticos (Inspector—Estático). Solo los objetos marcados con Lightmaping Static pueden producir iluminación de rebote indirecto.
IG en tiempo real
Pasos:
1.Establece el objeto del juego en Lightmaping Static.
2. Inicie el GI en tiempo real precalculado del panel de iluminación.
3. Haga clic en el botón Construir (si está marcado Auto, el editor detectará automáticamente los cambios en la escena y reparará los efectos de iluminación)
editar-preferencia-GI caché puede modificar el caché
IG en tiempo real precalculada:
Resolución en tiempo real Cálculo de resolución en tiempo real
Uso de CPU: cuanto mayor sea el valor de utilización de la CPU, mayor será la eficiencia de renderizado en tiempo real.
IG para hornear
Cuando la escena contiene una gran cantidad de objetos, la iluminación y las sombras en tiempo real tienen un gran impacto en el rendimiento del juego. Utilizando la tecnología de horneado, los efectos de luz se pueden pre-renderizar en texturas y luego aplicar a los objetos para simular luces y sombras. mejorando así el rendimiento y adecuado para juegos de bajo rendimiento Programas que se ejecutan en el dispositivo.
sonido
Unity admite formatos: mp3, ogg, wav, aif, mod, it, s3m, xm
El sonido se divide en 2D y 3D.
2D: adecuado para música de fondo
3D: Hay una sensación de espacio, grande cerca y pequeño lejos
La producción de sonido en una escena se basa principalmente en dos componentes:
Oyente de audio El oyente de audio recibe el sonido emitido por la fuente de audio Fuente de audio en la escena y lo reproduce a través de los parlantes de la computadora.
Clip de audio: recursos de audio que deben reproducirse
silencio silencio
Play on Awake se reproducirá automáticamente cuando comience la escena.
Reproducción en bucle
Paso
Panorámica estéreo: ajustes 2D para canales izquierdo y derecho
Mezcla espacial: conmutación 2D y 3D
En la configuración de sonido 3D, el método de atenuación de volumen de reducción de volumen generalmente se selecciona como reducción lineal (el eje x es la distancia desde la fuente de sonido y el eje y es el volumen).
Distancia mínima Distancia de atenuación inicial
Distancia máxima de caída final