En un sentido amplio, la Teoría de la Información trata acerca de la cantidad de información que es transmitida por la fuente al receptor al enviar un determinado mensaje, sin considerar el significado o propósito de dicho

Enviado por Programa Chuletas y clasificado en Informática y Telecomunicaciones

Escrito el en español con un tamaño de 10,79 KB

 
La redundancia es la que permite reconstruir la información y la que ayuda a entenderla.

+ originalidad


Trabajar en el máximo de información posible, llegar a lo inteligible.

- banalidad

Extremada redundancia, muy poca información.
Son los dos polos con los que funcionamos, siempre va a estar referida a la comunicación con la que tratamos. Hay que intentar dar el máximo de información posible, pero que no sea inteligible.
El soporte donde esta la información(radio, TV, periódico) marca el grado de originalidad o repetición con la que se escriba dicha información. Ejem: el periódico tiene mas originalidad porque permite volver a leerlo; en la radio mas banalidad porque no se puede volver a oír.
También depende del publico, si se lo dices a gente experta no hace falta repetir tanto, si es gente normal es necesario repetir mas. Un discurso banal para unas personas puede dejar de serlo para otras.
Shanon llama entropía a la cantidad de información que se pierde.
Entropía
La probabilidad que interviene es a priori, la termodinámica estudia los procesos irreversibles que la entropía lleva al desorden.
En información es una metáfora de la entropía física, aunque ambas miden el desorden.

--LA Teoría DE LA Información COMO CAMPO Científico: FUNDAMENTOS Teóricos Y Metodológicos

En cuanto a la metodología de investigación se establecen dos tipologías de estudios. Los teóricos, que incluyen las categorías de conceptuales, ilustrativos, y de conceptos aplicados; y una segunda tipología referida a los análisis empíricos, formados por estudios de casos, trabajo de campo, experimentos de campo y de laboratorio.

ENTRIOPIA

DE UN SISTEMA INFORMATIVO. Los elementos naturales de la información encuentran su equivalente en termodinámica en el concepto de entropía.
ENTROPÍA. Se mide por el grado de azar de una situación, y la tendencia de los sistemas físicos a hacerse cada vez menos organizados y mas aleatorios. La información se mide por la entropía, ya que la información se asocia al grado de libertad de elección que se tiene al construir los mensajes. Entropía relativa. La relación existente entre la entropía real y la máxima

--EL MODELO DE SHANONN Y WEAVER

El modelo comunicacional desarrollado por Shannon y Weaver se basa en un sistema de comunicación general que puede ser representado de la siguiente manera: FUENTE DE Información: selecciona el mensaje deseado de un conjunto de mensajes posibles. TRANSMISOR: transforma o codifica esta información en una forma apropiada al canal. SEÑAL: mensaje codificado por el transmisor. CANAL: medio a través del cual las señales son transmitidas al punto de recepción. FUENTE DE RUIDO: conjunto de distorsiones o adiciones no deseadas por la fuente de información que afectan a la señal. Pueden consistir en distorsiones del sonido (radio, teléfono), distorsiones de la imagen (T.V.), errores de transmisión (telégrafo). RECEPTOR: decodifica o vuelve a transformar la señal transmitida en el mensaje original o en una aproximación de este haciéndolo llegar a su destino. Este sistema de comunicación es lo suficientemente amplio como para Incluir los diferentes contextos en que se da la comunicación (conversación, T.V., danza, etc.). Tomemos como ejemplo lo que ocurre en el caso de la radio. La fuente de información corresponde a la persona que habla por el micrófono.
El mensaje son las palabras y sonidos que esta persona emite. El micrófono y el resto del equipo electrónico constituyen el transmisor que transforma este mensaje en ondas electromagnéticas, las cuales corresponden a la señal. El espacio que existe entre las antenas transmisoras y receptoras es el canal, mientras que lo que altera la señal original constituye la fuente de ruido. El aparato de radio de cada hogar es el receptor y el sonido que éste emite corresponde al mensaje recobrado. Las personas que escuchan este mensaje radial son los destinatarios. Es importante considerar que el problema del significado del mensaje no es relevante en este contexto. El interés principal de la Teoría de la Información lo constituye todo aquello relacionado con la capacidad y fidelidad para transmitir información de los diferentes sistemas de comunicación. En el ejemplo anterior, el mensaje podría haber consistido en una secuencia de letras carentes de todo significado e igualmente el problema de cuánta información es transmitida estaría presente. En un sentido amplio, la Teoría de la Información trata acerca de la cantidad de información que es transmitida por la fuente al receptor al enviar un determinado mensaje, sin considerar el significado o propósito de dicho mensaje. No interesa tanto la pregunta: "¿Qué tipo de información?" sino más bien, "¿Cuánta información?" es la que transmite la fuente. Shanon y Weaver en “la teoría matemática de la comunicación”, tiene en cuenta la codificación en 2 categorías:

Canales silenciosos


Es la forma mas corta estadísticamente de codificar el mensaje mediante la transmisión a través de un canal de comunicación, haciendo abstracción del problema de la distorsión.

Canales ruidosos


Se encarga de codificar el mensaje(también económicamente) de forma que sea posible recuperar el mensaje correcto, cuando llegue al extremo del canal de recepción, aunque lo haya hecho con

TEMA 1

El concepto de información en la teoría matemática de la información es el grado de libertad de una fuente para elegir un mensaje de un conjunto de posibles mensajes.
Información: la información siempre aporta un conocimiento y nos reduce la incertidumbre ( que ocurre en el mundo...)
Cuantas mas posibilidades de describir la realidad, mas ajustada sera la opción que cojamos.
William Ross Ashby ( sobre información)es aquello que reduce la incertidumbre y aporta conocimiento. Los autores pasan de definir la información y miden la cantidad. Hay problemas a la hora de definir la información ya que en “aquello” introducimos términos indefinidos. La definición tiene que tener un carácter general. El tener en cuenta las reglas, nos permite valorar el numero o mensajes posibles.
El concepto de información supone la existencia de duda o incertidumbre. La incertidumbre implica que existen diferentes alternativas que deberán ser elegidas, seleccionadas o discriminadas. Las alternativas se refieren a cualquier conjunto de signos construidos para comunicarse, sean estos letras, palabras, números, ondas, etc. En este contexto, las señales contienen información en virtud de su potencial para hacer elecciones. Estas señales operan sobre las alternativas que conforman la incertidumbre del receptor y proporcionan el poder para seleccionar o discriminar entre algunas de estas alternativas .
Gramática generativa: analizando los elementos mínimos y las reglas que sirven para combinarlos, obtenemos la calidad del mensaje.

Probabilidad


La información se vincula con la incertidumbre.
La probabilidad no es un concepto preciso aunque sea matemático.
*estadística: frecuencia de aparición de un gran número de casos.
*pronósticos: asignar un grado de incertidumbre.

Probabilidad lógica


La quiniela como ejemplo, hay que tener en cuenta como va el partido, donde juegan...

Probabilidad subjetiva


Juego de chinos, especulaciones en bolsa...
¿Qué tiene que ver la probabilidad con los sistemas simbólicos?
Cualquier discurso comunicativo es una secuencia de elementos donde todos influyen. La probabilidad de la “x” en nuestra lengua es alta. La probabilidad de “xe” es nula.
La información en términos de probabilidad hay que vincularla con los elementos anteriores que han aparecido. La información se vincula con la totalidad del sistema simbólico; se habla de información media del sistema simbólico.
Analogía en la formula de la medida de información y la entropía. Nos vincula la información con la incertidumbre y con el grado de organización del sistema simbólico.
Resumen: a partir de la semejanza formal se ha mezclado la física con la Teoría de la comunicación social.
Inf = medida de desorden.

Concepto de redundancia


( la información se encuentra entre la originalidad y la banalidad)

Redundancia


Repetición de ideas, perdida de información que todo sistema simbólico tiene en su uso. Es el concepto opuesto al de cantidad de información. Si la máxima ideal es 1, la parte que se pierde de información es 1 - la cantidad de información real y el resultado es la redundancia.
El sistema lingüístico donde menos reglas haya será el lenguaje ideal para transmitir la mayor información posible. Pero no es posible un sistema sin reglas, porque no habría comunicación, la gente no se entendería.
A m as reglas menos información; y viceversa.
En la frontera entre lo que imposibilita la comunicación, hay dos problemas:
no conocer bien la lengua, pero sigue habiendo comunicación incumplimiento de reglas.
sentido figurado. No esta libre totalmente de reglas, esta mas relacionado con reglas de genero, pero en sus formas mas creativas si supone una violación de las reglas.

Entradas relacionadas: