jueves, diciembre 05, 2024

CAMBIAR PARA LA TEORÍA DE LA COMUNICACIÓN

 

TEORÍA DE LA COMUNICACIÓN  



La imagen menciona tres capacidades fundamentales para la supervivencia de los seres vivos, basadas en la teoría de Shannon y las ideas de Wagensberg. A continuación, se explica cada punto con ejemplos:

  1. Cambiar frente a nuevas circunstancias :
    Esta habilidad implica adaptarse a un entorno cambiante para sobrevivir.
    Ejemplo :
    • Los camaleones cambian de color para camuflarse y evitar a los depredadores.
    • En los humanos, aprender nuevas habilidades laborales cuando las tecnologías evolucionan es un ejemplo de adaptación.
  2. Cambie el entorno para hacerlo más favorable :
    Aquí, los seres vivos no solo se adaptan, sino que transforman su entorno para beneficiar su supervivencia.
    Ejemplo :
    • Los castores construyen diques para crear estanques donde pueden vivir y protegerse.
    • Los humanos cultivan la tierra y construyen viviendas para protegerse de las inclemencias del clima.
  3. Moverse buscando nuevas oportunidades :
    Si el cambio o la modificación del entorno no son suficientes, los seres vivos pueden migrar en busca de condiciones más favorables.
    Ejemplo:
    • Las aves migratorias viajan largas distancias para encontrar alimentos o climas más cálidos.
    • En la historia humana, los grupos nómadas se desplazaron constantemente en busca de agua y alimentos.

La fórmula al final de la imagen representa la entropía de Shannon, que mide la incertidumbre o cantidad de información en un sistema. Se puede aplicar a sistemas biológicos o sociales para entender la variedad de opciones posibles en la toma de decisiones.

La fórmula que aparece en la imagen corresponde a la entropía de Shannon, un concepto clave en la teoría de la información. Esta fórmula mide la cantidad de incertidumbre o información contenida en un sistema.

Explicación paso a paso:

  1. Probabilidades:
    Si tienes un sistema con varios eventos posibles (por ejemplo, lanzar un dado), cada evento tiene una probabilidad (PAG(incógnita i) P(xi)de ocurrir.
  2. Logaritmo:
    El logaritmo mide cuánta información genera ese evento.
    Los eventos más raros generan más información.
  3. Promedio ponderado:
    La fórmula combina las probabilidades de todos los eventos y calcula el promedio ponderado de la información que aportan.
  4. Resultado:
    El resultado es una medida de la incertidumbre total del sistema. Si todos los eventos son igualmente probables, la entropía es máxima. Si un evento es mucho más probable que los demás, la entropía es menor.

 

  • Alta entropía: Un sistema donde todos los eventos tienen probabilidades iguales (ejemplo: lanzar un dado) tiene mucha incertidumbre porque todos los resultados son igualmente posibles.
  • Baja entropía: Un sistema donde un resultado es mucho más probable (ejemplo: una moneda que cae cara el 99% de las veces) tiene menor incertidumbre.

En términos biológicos o sociales, la entropía se puede usar para medir la diversidad o la incertidumbre en un sistema y cómo los seres vivos adaptan estrategias para reducir esa incertidumbre.

 

No hay comentarios.: