TEORÍA DE LA COMUNICACIÓN
La
imagen menciona tres capacidades fundamentales para la supervivencia de los
seres vivos, basadas en la teoría de Shannon y las ideas de Wagensberg. A
continuación, se explica cada punto con ejemplos:
- Cambiar
frente a nuevas circunstancias :
Esta habilidad implica adaptarse a un entorno cambiante para sobrevivir.
Ejemplo : - Los
camaleones cambian de color para camuflarse y evitar a los depredadores.
- En los
humanos, aprender nuevas habilidades laborales cuando las tecnologías
evolucionan es un ejemplo de adaptación.
- Cambie el
entorno para hacerlo más favorable :
Aquí, los seres vivos no solo se adaptan, sino que transforman su entorno para beneficiar su supervivencia.
Ejemplo : - Los
castores construyen diques para crear estanques donde pueden vivir y
protegerse.
- Los
humanos cultivan la tierra y construyen viviendas para protegerse de las
inclemencias del clima.
- Moverse
buscando nuevas oportunidades :
Si el cambio o la modificación del entorno no son suficientes, los seres vivos pueden migrar en busca de condiciones más favorables.
Ejemplo: - Las aves
migratorias viajan largas distancias para encontrar alimentos o climas
más cálidos.
- En la
historia humana, los grupos nómadas se desplazaron constantemente en
busca de agua y alimentos.
La fórmula al
final de la imagen representa la entropía de Shannon, que mide la
incertidumbre o cantidad de información en un sistema. Se puede aplicar a
sistemas biológicos o sociales para entender la variedad de opciones posibles
en la toma de decisiones.
La fórmula que
aparece en la imagen corresponde a la entropía de Shannon, un concepto
clave en la teoría de la información. Esta fórmula mide la cantidad de
incertidumbre o información contenida en un sistema.
Explicación
paso a paso:
- Probabilidades:
Si tienes un sistema con varios eventos posibles (por ejemplo, lanzar un dado), cada evento tiene una probabilidad (PAG(incógnita i) P(xi)de ocurrir. - Logaritmo:
El logaritmo mide cuánta información genera ese evento. Los eventos más raros generan más información. - Promedio
ponderado:
La fórmula combina las probabilidades de todos los eventos y calcula el promedio ponderado de la información que aportan. - Resultado:
El resultado es una medida de la incertidumbre total del sistema. Si todos los eventos son igualmente probables, la entropía es máxima. Si un evento es mucho más probable que los demás, la entropía es menor.
- Alta
entropía: Un sistema donde todos los eventos tienen
probabilidades iguales (ejemplo: lanzar un dado) tiene mucha incertidumbre
porque todos los resultados son igualmente posibles.
- Baja
entropía: Un sistema donde un resultado es mucho más probable
(ejemplo: una moneda que cae cara el 99% de las veces) tiene menor
incertidumbre.
En términos
biológicos o sociales, la entropía se puede usar para medir la diversidad o
la incertidumbre en un sistema y cómo los seres vivos adaptan estrategias
para reducir esa incertidumbre.
No hay comentarios.:
Publicar un comentario