Profundidad | Un artículo para comprender el desarrollo de aplicaciones de "informática emocional" en el comercio minorista

Los minoristas necesitan mejorar continuamente la experiencia de compra de los clientes a través de servicios innovadores, y la informática emocional tiene una ventaja única en este campo. Su aplicación en la industria minorista se centra principalmente en servicios que mejoran la experiencia de compra.

Orientación | Ji Huaiyuan Xu Liqun Wang Junjie

Autor | Dr. Huang Chengwei, Liu Gang, Dr. Bao Fei, Dr. Yang Xian, Dr. Sun Hao, Dr. Shen Yi

Fuente | Este artículo está autorizado para ser transferido del Suning Retail Technology Research Institute

头 图 | CSDN Descargar de VCG

En este mundo donde la tecnología está cambiando vidas gradualmente, Spike Jones, director de "Her", ha creado un hermoso y nuevo amor de ciencia ficción para nosotros con su aguda visión y gentil imaginación. Y Scarlett, la actriz que jugó solo en voz, también se convirtió en la primera actriz en ganar una voz.

"Ella" cuenta la historia de amor del escritor otaku Theodore y el sistema de inteligencia artificial "Samantha". El director declaró que esta es una película que explora la "intimidad". Cuando las personas anhelan el miedo a la intimidad, la inteligencia artificial facilita la comunicación. "Samantha" no solo no tiene la cara fría de la tecnología, sino que también comprende, aprecia y alienta al protagonista masculino. Al mismo tiempo, tiene un cerebro fuerte y también es muy hábil en la escritura, la música y la pintura. Ella puede acompañar y ayudar al frágil anfitrión masculino a conocerse y sobrevivir a la crisis de la vida.

Fotogramas de la película "Su"

Esta película alguna vez fue considerada la prueba más hermosa de la relación futura entre el hombre y la máquina. Los avances tecnológicos también hacen que esta película sea una realidad.

Marvin Minsky, el padre de la inteligencia artificial, una vez mencionó: "Si una máquina no puede simular bien las emociones, entonces la gente nunca sentirá que la máquina es inteligente". Las expresiones faciales, el habla, el texto, los movimientos corporales, las señales fisiológicas, etc. son las principales formas de expresión de las emociones humanas, que contienen mucha información sobre los cambios en las actividades internas humanas. En la cognición de las personas, si hay emoción es la línea divisoria entre el hombre y la máquina.

La exploración humana de la ciencia y la tecnología siempre es difícil. La investigación popular actual sobre computación emocional es tratar de crear un sistema informático que pueda percibir, reconocer y comprender las emociones humanas, y que pueda dar respuestas inteligentes, sensibles y amigables en consecuencia, es decir, Le da a las computadoras la capacidad de observar, comprender y generar diversas características emocionales como los humanos.

La investigación psicológica muestra que las emociones incluyen tres etapas:

  • Etapa de experiencia subjetiva: la experiencia personal del individuo en diferentes estados emocionales;

  • Etapa de expresión externa: la forma cuantificada de los movimientos de varias partes del cuerpo cuando ocurre el estado emocional, es decir, la expresión;

  • Etapa de excitación fisiológica: la reacción fisiológica producida por la emoción.

Ya en 1997, el profesor Picard del MIT propuso el concepto de "informática afectiva". El desarrollo de la investigación en computación afectiva depende en gran medida del progreso realizado por la psicología y la ciencia cognitiva en la investigación de la inteligencia y las emociones humanas.

Análisis de algoritmos de computación de sentimientos

En la investigación de la computación emocional, el reconocimiento emocional es uno de los contenidos más básicos e importantes. El reconocimiento de emociones se basa principalmente en las expresiones faciales, el habla, el texto, las señales fisiológicas y otros datos modales para identificar diversas emociones humanas, que incluyen: felicidad, sorpresa, tristeza, miedo, asco, desprecio, ira, frustración, fatiga, Espera pacífica

En los últimos años, han surgido varios métodos y tecnologías para reconocer las emociones de los usuarios, como el reconocimiento de expresiones faciales, el reconocimiento de gestos, el procesamiento del lenguaje natural, el reconocimiento de señales fisiológicas humanas, el reconocimiento de emociones multimodo, el reconocimiento de voz, etc.

La interacción emocional humano-computadora incluye interacción de expresión facial, interacción emocional de voz, interacción emocional de comportamiento físico, interacción emocional de información de texto, agente biónico emocional, interacción emocional multimodal, etc.

1. El reconocimiento de las expresiones faciales y el reconocimiento de los comportamientos físicos utilizan el método de análisis biométrico para extraer las características emocionales de la persona observada. Los cambios emocionales de la persona observada se expresarán a través del cambio de expresión y levantando la mano, y esta expresión a menudo es más real.

El reconocimiento de expresiones faciales es el uso del análisis de información facial para determinar las expresiones faciales.Los métodos tradicionales incluyen métodos de análisis de imágenes estáticas basados ​​en características globales o locales; métodos dinámicos de múltiples cuadros basados ​​en cambios de flujo óptico, formas activas o reglas geométricas, como los más clásicos. AAM, métodos ASM.

Fuente: CSDN descargado de Oriental IC

El aumento del aprendizaje profundo también ha promovido en gran medida el avance de los algoritmos de reconocimiento de expresiones faciales y ha reducido la complejidad de la ingeniería de características. Tanto la precisión de la extracción de información de puntos clave como la precisión de la clasificación de expresiones faciales han mejorado enormemente. En la actualidad, el reconocimiento simple de la expresión facial ha sido relativamente maduro, y las aplicaciones técnicas como la captura de sonrisas y el juicio de conducción de la fatiga han penetrado en nuestra vida diaria.

Con la profundización de la investigación, los investigadores se han centrado en el reconocimiento de microexpresión más complejo, que tiene una duración más corta y expresa las verdaderas emociones que el observador está tratando de ocultar. El reconocimiento de microexpresión se utiliza en seguridad, finanzas y justicia. El campo también tiene un gran valor de investigación.

2. La interacción emocional de la voz , como su nombre lo indica, es obtener y transmitir la información de la dimensión emocional a ambas partes de la interacción a través de la interacción de la voz. En el campo de la interacción humano-computadora, el núcleo de la interacción emocional de la voz es cómo obtener con precisión la información emocional de la voz del usuario, y cómo la máquina utiliza la respuesta de voz para procesar la información emocional.

Suning Xiao Biu Audio con función de interacción de voz inteligente (Fuente: cortesía del autor)

El algoritmo de reconocimiento de la información de la emoción del habla tiene muchas cosas en común con los algoritmos de reconocimiento de voz, reconocimiento de huellas de voz y reconocimiento de eventos de habla anormales, es decir, el entrenamiento del modelo requerido por el clasificador se logra al extraer y procesar las características de la señal de sonido. El clasificador se usa para predecir el tipo de emoción reconocido.

Desde los métodos de minería y diseño de clasificadores en el siglo pasado, hasta el marco de aprendizaje profundo que se ha vuelto cada vez más convencional, la tasa de precisión del reconocimiento de emociones también se ha mejorado continuamente. Sin embargo, en comparación con otros campos de reconocimiento, bajo el desarrollo del aprendizaje profundo, la mayoría de ellos ya no prestan atención a la selección de características. Muchos investigadores de reconocimiento de emociones del habla aún conservan esquemas de extracción de características que son diferentes del reconocimiento y la huella de voz. Por ejemplo, Munich La extracción de espacio de funciones de medios de código abierto (openSMILE) sigue siendo una herramienta clásica en el campo del reconocimiento de emociones del habla.

Dado que se trata de interacción, que trata el reconocimiento de la emoción del habla, debe mencionarse la expresión de la emoción del habla, que también es un indicador técnico importante en la síntesis del habla. Después del advenimiento de los esquemas de síntesis de voz de extremo a extremo, el atractivo de la gente para el timbre de síntesis de voz se satisface básicamente, y se presentan nuevos requisitos para la "emocionalización" del ritmo, ritmo y otros detalles.

Cómo excavar los cambios sutiles en las emociones del hablante en el habla y habilitar rápidamente la síntesis del habla a través de métodos como el aprendizaje por transferencia y el aprendizaje por refuerzo es un punto caliente que los investigadores están explorando y resolviendo.

3. El análisis del sentimiento del contenido del texto siempre ha sido un tema importante en la comprensión del lenguaje natural y el cálculo del sentimiento. A diferencia del cálculo de sentimientos de imágenes y discurso, el análisis de sentimientos basado en texto puede realizar análisis detallados desde múltiples dimensiones y múltiples niveles, y obtener resultados de análisis claros.

Análisis de la tendencia del sentimiento basado en las opiniones de los usuarios (Fuente: Baidu AI)

Las emociones humanas no son solteras, sino que tienen grandes dimensiones, tales como: miedo, ira, pérdida, emoción, etc. Para cada emoción, hay diferentes fortalezas emocionales. Capta con precisión el estado emocional y la intensidad emocional de la otra parte durante el proceso de interacción, puede guiar el sistema de respuesta, ajustar el método de respuesta a tiempo y darle a la otra parte una mayor respuesta de temperatura.

En escenarios como el servicio al cliente, identificar las emociones negativas de los usuarios y brindar comodidad específica puede mejorar en gran medida la experiencia del usuario y reducir las quejas de los usuarios. Al mismo tiempo, el análisis de sentimientos del texto puede comenzar desde múltiples niveles de diálogo, oraciones y atributos. El cálculo de la emoción en el nivel de diálogo obtiene la tendencia emocional del usuario durante todo el proceso de diálogo, lo que refleja los sentimientos generales del usuario. La computación de sentimiento a nivel de oración puede detectar los cambios de las emociones de los usuarios a tiempo, para hacer ajustes rápidos. El cálculo del sentimiento en el nivel de atributo puede extraer el punto de vista del usuario.

Por ejemplo, el usuario puede tener el siguiente diálogo en el diálogo postventa: "La entrega urgente es muy rápida, y el hermano pequeño también es muy agradable, es decir, la batería de este teléfono móvil es demasiado mala, no es buena en absoluto". El análisis de sentimientos a nivel de atributo puede encontrar que el usuario no Estoy satisfecho con la batería y aprecio el servicio de mensajería. Luego, al responder, podemos brindar consuelo específico en lugar de decir "Lo siento" en general.

Este es el aspecto único e interesante del análisis de sentimientos de texto. Además de percibir las emociones del usuario, puede saber claramente por qué es feliz y por qué es sentimental. Esto proporciona la base para una respuesta más inteligente.

4. Reconocimiento de emociones multimodales. La mayor parte de la tecnología de reconocimiento de emociones existente es reconocida por los datos unimodales, y la sensibilidad de los datos unimodales a las diferentes emociones es diferente, existen ciertas restricciones en el reconocimiento preciso de las emociones, y a menudo no pueden expresar completamente la información emocional transmitida por los humanos. Por lo tanto, la investigación sobre el reconocimiento de emociones multimodales ha recibido cada vez más atención.

Sistema inteligente de interacción multimodal entre bambúes

Con el advenimiento de la era 5G, la relación entre terminales inteligentes móviles y la vida, el trabajo y el aprendizaje de las personas se está acercando cada vez más, de modo que los datos multimodales necesarios para la computación emocional se pueden recopilar a través de una variedad de terminales inteligentes, lo que facilitará la capacitación de modos múltiples El modelo de algoritmo de reconocimiento de emoción modal y la fusión de datos multimodal pueden complementarse entre sí con información de emoción, lo que puede garantizar la precisión del reconocimiento de emoción.

El proceso de reconocimiento de emociones multimodal existente se puede dividir aproximadamente en dos categorías: una es la fusión de cada información modal en el nivel de característica, y la otra es la fusión de cada información modal en el nivel de decisión.

Para la fusión a nivel de características , primero preprocese cada información modal, luego extraiga la información de cada característica modal, luego fusione cada característica modal y finalmente use un algoritmo de clasificación para clasificar y predecir las características unificadas después de la fusión. Al realizar la fusión de nivel de característica, es necesario prestar atención a la sincronización entre varias características modales y el problema de la redundancia de información.

Para la fusión a nivel de decisión , solo se requiere el procesamiento previo y la extracción de características de cada información modal. La diferencia con respecto a la fusión a nivel de características es que en lugar de realizar la fusión de características, se selecciona un algoritmo de clasificación para cada modo para obtener la información de cada modo. El resultado final de la clasificación previa finalmente se decide utilizando el método de fusión de la capa de decisión para obtener el resultado final de la clasificación. Los algoritmos de fusión a nivel de decisión incluyen principalmente: método de valor máximo (maxmin), método de producto, método de suma, método promedio, método de votación, etc.

En la actualidad, la tecnología de reconocimiento de emociones multimodal relativamente precisa utiliza algoritmos de fusión de nivel de característica. La red de creencias profundas se utiliza para integrar señales fisiológicas, características de expresión facial y características de comportamiento en video y características de señales de voz para identificar con precisión las emociones, entre ellas, las señales fisiológicas incluyen características de ECG, características de SCL y características de tMEG. Además, mediante el uso de máquinas de vectores de soporte para clasificar las características de la fusión multimodal, se obtiene el resultado final del reconocimiento de emociones.

Análisis de mercado de computación emocional

1. El status quo del desarrollo de la industria de la computación sentimental

Con el rápido desarrollo de la tecnología de computación emocional, el reconocimiento de expresiones faciales, el reconocimiento de huellas de voz y la interacción emocional humano-computadora se han convertido en puntos críticos de investigación en el campo de la inteligencia artificial, y son ampliamente utilizados en el comercio minorista, educación, medicina clínica, análisis psicológico, monitoreo de vehículos y otros campos comerciales. Una gran cantidad de empresas nuevas con tecnología informática afectiva como núcleo han surgido en la aplicación de Affectiva, Bamboo Room Intelligence, Reading Technology y Honey Date Network.

Affectiva utiliza una red neuronal profunda y tecnología de voz para recopilar datos faciales y de sonido a través de la cámara y el micrófono en el automóvil para identificar las emociones de las personas en el vehículo. Se puede lograr: controlar la fatiga y la distracción del conductor, determinar si se requiere o no la conducción automática. Conducción manual, monitoreo del estado de ira del conductor, etc.

Entre ellos, el cálculo de datos se procesa localmente. La red neuronal profunda analiza los datos faciales para clasificar las expresiones faciales y las emociones a nivel de píxeles. La tecnología del habla analiza las características de la prosodia acústica (tono, ritmo, volumen, modo de pausa) para identificar las emociones del habla.

ReadFace, el motor de reconocimiento emocional lanzado por la Tecnología Yianmeng, está compuesto de nube y final, está integrado en cualquier dispositivo con una cámara para percibir y reconocer expresiones, generar unidad de movimiento de expresión básica humana, partículas emocionales y estado cognitivo humano. . Su motor de cognición emocional es ampliamente utilizado en robots inteligentes de juegos interactivos (o hardware inteligente), análisis de efectos de publicidad en video, autos inteligentes, compañía emocional artificial y otros campos.

Lectura de las características de la serie de cámaras AI

A través de la investigación inteligente y el desarrollo de la tecnología PNL, la tecnología de interacción humano-computadora (a través de la interacción de texto, voz e imagen) y el "modelo de reconocimiento de emociones multimodales", Takema Intelligent puede leer, comprender y comprender, con memoria, autoaprendizaje y comprensión. Lenguaje humano y emoción. En la actualidad, su tecnología se ha utilizado ampliamente en el servicio inteligente al cliente, enseñando comentarios de calidad, evaluación de efectividad publicitaria y otros escenarios.

Mizuo.com integra tecnologías innovadoras como la computación en la nube, big data e Internet de las cosas. En la plataforma de nube inteligente de Azure, utiliza las API de "reconocimiento facial" y "reconocimiento de emociones" en servicios cognitivos para implementar capacidades de inteligencia artificial en la industria minorista. Solución: el sistema de análisis inteligente de Ruizhiyan Consumer Experience, que puede dar a los centros comerciales la capacidad de percibir la satisfacción del consumidor, realizar ajustes oportunos de la estrategia de operación en función del tráfico del cliente, el sentimiento del cliente, etc., digitalizar la experiencia del consumidor para el comercio minorista Trae innovación revolucionaria de gestión.

Además, dentro de Suning, el análisis de sentimientos basado en texto también ha tenido muchas aplicaciones. Por ejemplo, en un escenario de servicio al cliente, al identificar las emociones del lenguaje del personal de servicio al cliente, se encuentra una descripción hostil. Para los comentarios de compra del usuario, el punto de vista del usuario se extrae a través del análisis del sentimiento a nivel de atributo, se descubren las ventajas principales del producto y se entienden los puntos a mejorar en el servicio.

Suning y Zhuma Intelligent lanzaron a la asistente virtual de compras de inteligencia artificial Sue en el CES

Por lo tanto, se puede ver que la computación emocional utiliza principalmente redes neuronales convolucionales y tecnología de PNL para identificar emociones, y sus aplicaciones en la conducción, el comercio minorista, la educación y otras industrias son relativamente maduras. Entre ellos, los escenarios de aplicación en la industria minorista son relativamente ricos, que incluyen: mejora de la experiencia de compra del consumidor, mejora de la calidad del servicio de asistente de tienda, optimización de la publicidad, servicio inteligente al cliente y otros escenarios.

2. La predicción del valor de la informática del sentimiento para la industria minorista

Según la investigación de mercado del Suning Retail Technology Research Institute, la computación emocional se encuentra en una etapa ascendente en China y, con el poder y los datos informáticos existentes como soporte, promoverá el desarrollo y la aplicación de la computación emocional.

En la industria minorista, con el desarrollo continuo y la aplicación de la computación emocional, promoverá el crecimiento continuo de las ventas minoristas. Entre ellos, el estado emocional del cliente conduce directamente al crecimiento del consumo, y el servicio interactivo del empleado al cliente conduce directamente a la mejora de la experiencia del cliente, lo que aumentará la tasa de recompra y las ventas de la tienda. Según la investigación y predicción del Suning Retail Technology Research Institute, la tecnología de computación emocional traerá un aumento significativo en las ventas de la tienda.

Aplicación de la informática afectiva en la industria minorista.

El único producto en el comercio minorista es el servicio. Los minoristas necesitan mejorar continuamente la experiencia de compra de los clientes a través de servicios innovadores. La informática emocional tiene una ventaja en este campo. La aplicación de la informática afectiva en la industria minorista se concentra principalmente en servicios que mejoran la experiencia de compra, por ejemplo: mejora de la experiencia de compra del consumidor, gestión de la calidad del servicio del personal de la tienda, detección del interés del consumidor, etc.

1. Cartelera basada en el interés del consumidor

En la entrada de las tiendas fuera de línea, se utilizan vallas publicitarias de pantalla grande para lograr el efecto de drenaje y promoción. Cuando diferentes clientes pasan por la puerta de la tienda, el enfoque tradicional es colocar anuncios preestablecidos independientemente del sexo, la edad o el sexo. En este caso, debido a la baja proporción de audiencias objetivo, la proporción de recursos de inventario inactivos es alta.

El uso de la tecnología de cálculo de emociones, de acuerdo con los atributos del grupo de clientes del cliente, cambia entre varios tipos de contenido publicitario, de modo que la proporción de audiencia en el período publicitario específico aumenta considerablemente, mejora el efecto de promoción y facilita a los clientes ver lo que les interesa. Publicidad para mejorar el efecto de drenaje.

Arquitectura de negocios de vallas publicitarias

2. Mejora de la experiencia del consumidor basada en la ley del pico final

Investigaciones relacionadas han encontrado que los sentimientos de los consumidores sobre la experiencia del consumidor están determinados por dos factores: los sentimientos máximos y finales, ya sean buenos o malos, en el momento en que nos sintamos más profundos, impresionaremos cualitativamente la experiencia, El "pico" y el "fin" aquí son en realidad los llamados "momentos críticos MOT". Esta es también una ley interesante relacionada con la experiencia del usuario propuesta por el ganador del Premio Nobel en 2002, el psicólogo Daniel Kahneman, llamada la regla del fin del pico.

En resumen, la ley proporciona una base teórica para la idea de afectar indirectamente la experiencia del usuario al manipular la distribución de estímulo de secuencias interactivas. Ha sido ampliamente utilizado en el campo del servicio.

De acuerdo con la ley de punta, el Instituto de Investigación de Tecnología Minorista de Suning descubrió que los nodos de punta de los consumidores cuando compran en las tiendas incluyen: visitar, ingresar, almacenar, usar la cesta de la compra, consulta previa a la compra, compra, servicios de valor agregado, servicios públicos , Liquidación y salida. Entre ellos, el punto culminante es la compra y la liquidación, por lo que los minoristas deben centrarse en mejorar la experiencia de compra de los consumidores en estos dos nodos, lo que mejorará la experiencia del consumidor durante toda la etapa de compra y logrará un efecto multiplicador.

El nodo final de la tienda de compras

La investigación cuantitativa es el punto de partida para estudiar el mundo objetivo, y la medición de los sentimientos y experiencias internas de las personas puede cambiar la relación entre la tecnología y los consumidores, de modo que cada vínculo en la tienda pueda servir a los clientes de manera precisa, oportuna y eficiente.

Desde la entrada a la tienda, a través del video y el sonido, registre los datos de comportamiento del usuario en la tienda, identifique los fenómenos aparentes de la experiencia del usuario, como la sonrisa, la ansiedad y la indecisión, y analice en profundidad el papel rector de la ley del pico y el final detrás del fenómeno. Cambie la configuración de los nodos de servicio y vea directamente el cambio de la experiencia máxima a partir de los datos de flujo de pasajeros del día, y realice la digitalización de la gestión e investigación de la experiencia.

Mejora la arquitectura empresarial de la experiencia del consumidor

3. Gestión de la calidad del servicio de los dependientes basados ​​en el reconocimiento de emociones.

Los cálculos emocionales basados ​​en la imagen del cliente y los datos de video en la tienda son actualmente un campo emergente de investigación. Puede obtener la información de la cara del cliente a través de imágenes, incluidos el sexo, la edad y especialmente la información de expresión facial, que puede usarse como la expresión más directa de las emociones. Además, la información sobre el movimiento de las extremidades también es un método de referencia importante para obtener emociones humanas.

El lenguaje corporal es una proyección subconsciente de las personas y, a menudo, las personas lo pasan por alto. Por ejemplo, el movimiento de las piernas abiertas expresa información que quiere atraer la atención de los demás, mientras que cruzar las piernas expresa emociones negativas y alertas.

Los estudios han demostrado que la información expresada por una persona al mundo exterior es solo el 7% del idioma, el 38% es a través de la entonación y el 55% de la información se expresa mediante información de postura no verbal.

Por lo tanto, el lenguaje corporal puede analizarse y la información emocional puede extraerse mediante la detección de movimientos del cuerpo humano en el video y los medios de seguimiento. El video contiene rica información espacio-temporal. La combinación de esta información espacio-temporal y algoritmos de aprendizaje profundo puede extraer y rastrear eficientemente las líneas óseas de las extremidades humanas. Incluso en el caso de oclusión parcial, puede extraer mejor la información de la extremidad y luego construir la extremidad. El modelo de mapeo de la información y la información de la emoción emocional proyecta los movimientos físicos coherentes en las categorías emocionales correspondientes para obtener información emocional humana.

Además, también puede extraer la trayectoria, el ritmo y la frecuencia de las personas en el video para ayudar en el análisis de sentimientos. Para mejorar la precisión del cálculo de la emoción, la información de la emoción extraída de estos videos puede ser una fusión de información multimodal con información de atributos, como expresiones faciales, edad y género en la imagen, y otra información modal.

Este método de fusión puede usar fusión de nivel de característica o fusión de nivel de decisión. Es decir, después de que las características extraídas por cada modelo de red modal se combinan en un método en cascada, superposición, etc., el cálculo de la emoción se realiza más o los resultados del análisis de sentimientos de cada modelo de red modal se ponderan para obtener una decisión unificada.

La comunicación entre el cliente y el empleado es un momento muy importante de la experiencia de compra: cuando el cliente y el empleado están hablando, el audio de la conversación entre el empleado y el cliente se recopila a través del micrófono para analizar las emociones del cliente y el empleado. , Apropiarse adecuadamente de las emociones de los clientes, aumentar el entusiasmo de los clientes por comprar y ayudar a los dependientes a controlar las emociones durante el servicio.

Estructura empresarial para mejorar la calidad del servicio de los empleados de la tienda

Perspectivas futuras

La computación emocional es un campo altamente integrado de investigación y tecnología. Mediante la combinación de la ciencia computacional, la ciencia psicológica y la ciencia cognitiva, estudiaremos las características emocionales de la interacción humano-humano y la interacción humano-computadora, y diseñaremos el entorno interactivo de la interacción humano-computadora con la retroalimentación emocional. Será posible realizar las emociones humano-computadora. Interacción

La investigación en computación emocional continuará profundizando la comprensión de los estados y mecanismos emocionales humanos, y mejorará la armonía entre las interfaces humanas y de la computadora, es decir, la capacidad de las computadoras para percibir el contexto, comprender las emociones e intenciones humanas y dar las respuestas apropiadas.

Suning Retail Technology Research Institute cree que la investigación de la informática afectiva se centrará en los siguientes aspectos:

1. La fuente y las características esenciales de las emociones. En el proceso de cálculo de sentimientos, las diferentes características de clasificación de sentimientos reflejan todas las características esenciales del sentimiento. En el futuro, a través de los resultados de la investigación de la ciencia del cerebro, la ciencia cognitiva, la psicología y otros estudios interdisciplinarios, entenderemos profundamente la fuente del sentimiento y el reconocimiento del afecto Las características esenciales del conocimiento.

2. Cálculo emocional en condiciones multimodales. En la actualidad, la mayoría de los cálculos de sentimientos se llevan a cabo bajo la condición de un tipo de datos específico, y el método de adquisición de características de sentimiento y el método de representación de características son relativamente simples. Sin embargo, en situaciones reales, las emociones a menudo implican la interacción de diferentes fuentes de datos y varios factores relacionados, es decir, el cálculo de emociones multimodales, cómo integrar, reconocer y comprender la información emocional desde una perspectiva multimodal. La realización de una interacción humano-computadora natural y armoniosa se ha convertido en un punto clave de tecnología clave.

3. Medida personalizada de la emoción. En el proceso de reconocimiento de emociones y cognición, las diferencias en las características personalizadas, como diferentes regiones, culturas, diferentes géneros, diferentes edades o diferentes niveles de educación, tendrán un impacto significativo en el reconocimiento y la medición de las emociones.

4. El algoritmo de cálculo de sentimientos basado en la expresión de sentimientos sutiles continúa mejorando. El cálculo del sentimiento es diferente del problema de clasificación general. El sentimiento se ve fácilmente afectado por el entorno externo. El DNN utilizado actualmente no solo requiere una gran cantidad de datos, sino que tampoco puede comprender el proceso de cálculo. En el futuro, la investigación sobre la computación sentimental, el marco de algoritmo GAN, Transfer Learning, Never Ending Learning, Lifelong Learning será el foco de la investigación sobre la computación sentimental.

Por lo tanto, durante la interacción entre el humano y la computadora, la computadora necesita capturar información clave, identificar el estado emocional del usuario, detectar cambios emocionales humanos y usar pistas efectivas para seleccionar el modelo de usuario apropiado (de acuerdo con el modo de operación del usuario y las características de expresión facial) , Preferencias de actitud, estilo cognitivo, antecedentes de conocimiento, etc.) y anticipar la intención detrás del cambio emocional del usuario, y luego activar la base de datos correspondiente para proporcionar la nueva información que el usuario necesita de manera oportuna y proactiva.

【FINAL】

Más recomendaciones interesantes

Vaya nozen

Luhan tiene polvo de IA, ¿por qué el efecto del drama de cambio de cara de AI sigue siendo tan escoria?

☞Inteligencia circular Yang Zhilin: "El acoplamiento humano-máquina" será una nueva tendencia en la aplicación de la semántica del diálogo.

☞El magnate 360 ​​que fue bloqueado por Zhou Hongyi de toda la red: ¡el trabajo de base para el contraataque de 36 años!

detalles Kubernetes calculan en la zona marginal del desarrollo

☞Después del brote, ¡la comunidad global de cifrado ha hecho muchas cosas para combatir el coronavirus!

☞Un artículo para comprender el desarrollo de aplicaciones de "computación emocional" en el comercio minorista

Cada "observación" que pides, me lo tomo en serio

Artículos originales publicados en 1951 · Más de 40,000 elogios · 18.16 millones de visitas

Supongo que te gusta

Origin blog.csdn.net/csdnnews/article/details/105501900
Recomendado
Clasificación