Información y entropía [Parte 1] La vida se alimenta de información

No sé si es correcto entenderlo, sea lo que sea, siempre que pueda remodelar la conexión cerebral y reducir el costo de la memoria.

Recuerdo que en el examen de ingreso de posgrado de su alma mater de un año, la última proposición de "Teoría de la probabilidad" fue así:

El cabrón Xiaoming está haciendo una pregunta de opción múltiple. Dado que Xiaoming no puede hacerlo en absoluto, solo puede obtener una respuesta de ABCD. En este momento, Xiaoming vio que Xiaohong en la misma mesa eligió C para esta pregunta. Dado que Xiaohong tampoco es un maestro de escuela , Xiaoming piensa que la probabilidad de que la respuesta correcta sea C es solo del 50%.

¿Cuánta información trae Xiaohong a Xiaoming? (11 puntos)

Por supuesto, Xiao Ming elegirá al final C. Después de todo, él está 50% seguro ¿Cómo deberían los estudiantes graduados que son "candidatos distintos de candidatos" analizar esta pregunta? La respuesta correcta es 0,21 bits. Para mí, que no había estado en contacto con la teoría de la información en ese momento, ver el número 0.21 fue una expresión abrumadora. De hecho, 0.21 es un valor aproximado y la expresión precisa es 1.5-log2 (6) * 0.5, y entonces estoy aún más confundido.

Esta pregunta es realmente muy simple y ni siquiera puede ser la última gran pregunta para el examen de ingreso de posgrado. El 0.21 bit que Xiaohong trajo a Xiaoming redujo la entropía de información de esa pregunta de opción múltiple. La entropía de Xiaoming se redujo, por lo que naturalmente se atrevió a elegir C. En cuanto a cómo surgió 1.5-log2 (6) * 0.5, no se preocupe todavía. Ÿ

Supongo que te gusta

Origin blog.csdn.net/github_38885296/article/details/104666886
Recomendado
Clasificación