lunes, 28 de noviembre de 2016

Teoría de información


Teoría de información

Teoría de información es una rama de matemáticas aplicadas e ingeniería eléctrica participación de la cuantificación de información. Históricamente, la teoría de información fue desarrollada para encontrar límites fundamentales en la compresión y confiablemente el comunicarse datos. Puesto que su inicio que ha ensanchado para encontrar usos en muchas otras áreas, el incluir inferencia estadística, proceso de lengua natural, criptografía generalmente, redes con excepción de redes de comunicaciones, como neurobiología,  la evolución y función de códigos moleculares, selección modelo en ecología, física termal, el computar del quantum, detección del plagio y otras formas de análisis de datos.

Los usos de asuntos fundamentales de la teoría de información incluyen compresión de datos lossless (Archivos de CIERRE RELÁMPAGO), compresión de datos del lossy (MP3s), y codificación del canal (para DSL líneas). El campo está en la intersección de matemáticas, estadística, informática, física, neurobiología, e ingeniería eléctrica. Su impacto ha sido crucial al éxito del Voyager misiones en el espacio profundo, la invención del CD, la viabilidad de teléfonos móviles, el desarrollo del Internet, el estudio de lingüística y de la opinión humana, la comprensión de calabozos, y numeroso otros campos. Los subcampos importantes de la teoría de información son codificación de fuente, codificación del canal, teoría de complejidad algorítmica, teoría de información algorítmica, y medidas de información.

La teoría de información se considera generalmente haber sido fundada en 1948 cerca Claude Shannon en su trabajo seminal, “Una teoría matemática de la comunicación. “ El paradigma central de la teoría de información clásica es el problema de la ingeniería de la transmisión de la información sobre un canal ruidoso. Los resultados más fundamentales de esta teoría son Shannon teorema de la codificación de fuente, de que establece que, en promedio, el número pedacitos necesario representar el resultado de un acontecimiento incierto es dada por su entropía; y Shannon teorema de la codificación del ruido-canal, que indica eso confiable la comunicación es excedente posible ruidoso canales a condición de que el índice de la comunicación está debajo de cierto umbral llamado la capacidad de canal. La capacidad de canal puede ser acercada en la práctica usando la codificación apropiada y descifrando sistemas.

La teoría de información es una teoría matemática amplia y profunda, con los usos igualmente amplios y profundos, entre de los cuales está el campo vital teoría de la codificación.

La teoría de la codificación se refiere a encontrar los métodos explícitos, llamados códigos, de aumentar la eficacia y de reducir el índice de error neto de la comunicación de datos sobre un canal ruidoso cerca del límite que Shannon probó es el máximo posible para ese canal. Estos códigos se pueden subdividir áspero en compresión de datos (codificación de fuente) corrección de errores (técnicas de la codificación del canal). En el último caso, tomó muchos años para encontrar los métodos que el trabajo de Shannon probado era posible. Una tercera clase de los códigos de la teoría de información es algoritmos criptográficos (ambos códigos y cifras). 

 Ley de Shannon

 Teoría creada en 1940 por el ingeniero Claude E. Shannon, Los problemas que plantea Shannon, tienen que ver con la cantidad de información, la capacidad del canal de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje en una señal y los efectos del "ruido". Pero no se refiere a las personas como protagonistas de la comunicación, sino al proceso desde la perspectiva de:

·                    Sus aspectos medibles.

·                    A las condiciones idóneas de transmisión de información entre máquinas.

·                    Al cálculo de la pérdida de información transmitida a través de un canal.

Su teoría se utiliza para medir la información y su contenido.

·                    El contenido de la información de un suceso = una función decreciente de la probabilidad de su aparición.
·                    Shannon utilizo el algoritmo de la inversa de la probabilidad.



Codificación correlativa

Cuando los bits se transmiten en un medio de comunicación hay una posibilidad de que los bits adyacentes pueden solaparse unas con otras en el dominio del tiempo. Esto es bien observado en el entorno de las comunicaciones móviles, cuando la señal tiene más de un camino (debido a las reflexiones de cerca por los edificios y objetos) para llegar al destino. En este caso, las réplicas de la señal llegan a diferentes intervalos, y hará que se superponen.

Para evitar la superposición de los bits adyacentes (esto se denomina técnicamente como "Inter Symbol Interference" [ISI]), los bits adyacentes deben mantenerse bien espaciadas entre sí por el dominio del tiempo. Obviamente, esta técnica reduce la tasa de transmisión de datos. Aquí, la velocidad de símbolo es menor que la tasa de Nyquist (velocidad máxima posible en el canal).



Si aún desea enviar los símbolos a la tasa de Nyquist, ISI es introducido en el importe de control y los bits se permiten a solaparse. Dado que estamos introduciendo ISI en forma controlada sabremos el camino para recuperarse de ella. Esto se logra mediante la codificación. Este tipo de codificación se denomina codificación correlativa en que la relación entre bits adyacentes se tienen en cuenta para la codificación.2) Varios tipos de códigos correlativos están disponibles. Dos de ellos se enumeran a continuación.

·         Modificado Dúo binario de señalización3) Si decide transmitir su señal en un ancho de banda determinado (por ejemplo 850-890 MHz), su banda de paso está en 850-890MHz y la banda de detención se encuentra en 0 - 849MHz y 890-MHz varios miles. Su equipo no debería transmitir más poder que el límite permitido en la banda de detener, ya que pueden interferir con otros servicios en esa banda (En nuestro caso Uplink: 890 ~ 915 MHz; Downlink: 935 ~ 960MHz para GSM).Por lo tanto, es esencial que la de fuera de banda (STOP BAND) potencia fraccional (energía restante en la otra banda de paso de banda) debe ser lo más pequeña posible. Si ya es usted está perdiendo poder en la banda de dejar de innecesaria. Por lo tanto, debe ser lo más pequeña posible.

Capacidad del canal de transmisión

Se llama capacidad del canal a la velocidad a la que se pueden transmitir los datos en un canal de comunicación de datos. La velocidad de transmisión de los datos es expresada en bits por segundo (bps).

La capacidad de un canal depende del ancho de banda (que depende del transmisor y de la naturaleza del medio de transmisión), el ruido y la tasa de errores permitida. Para un ancho de banda dado se puede alcanzar la mayor velocidad de transmisión posible pero hay que evitar que se supere la tasa de errores aconsejable. Para conseguirlo, el mayor inconveniente es el ruido

Transmisión digital en banda base

Una señal cuyo espectro de frecuencias se extiende desde aproximadamente DC hasta un valor finito, en general menos que unos pocos mega Hertz, se llama señal de banda base o señal pasa bajo. Para poder transmitir una señal de este tipo sobre un sistema de comunicaciones digital, la información debe ser formateada de manera tal que pueda ser representada por un conjunto discreto de símbolos. Luego, a cada uno de estos símbolos se le asigna una forma de onda para luego poder ser transmitidos sobre, por ejemplo, un cable coaxial, un par de cobre o una fibra óptica. Una secuencia de pulsos binarios bipolares, por ejemplo, conforma una señal de banda base, como se vio en el capítulo anterior, cuyo espectro tiene la forma de una función sinc2 y se extiende desde 0 Hz hasta un cierto valor finito de frecuencia (por ejemplo el primer cero de frecuencia, o sea, todo el primer lóbulo principal del espectro).

Las señales en banda basé no son apropiadas para ser propagadas por medio de antenas, como veremos más adelante en otro capítulo. Para ello deben ser trasladadas en frecuencia, a un valor más apropiado para la propagación, llamándose en este caso señales pasa banda.

La fuente de información puede presentarse de varias maneras. Puede estar ya en formato digital, con lo cual puede saltearse el proceso de formateo. Puede ser información de tipo texto, con lo cual la conversión a dígitos binarios se hace usando un código de conversión. O bien la información puede presentarse en forma analógica, con lo cual el formateo se hace siguiendo tres pasos: muestreo, cuantificación y codificación. En todos los casos siempre resulta una secuencia de dígitos binarios.

Estos dígitos binarios son transmitidos a través de un canal en banda base. Para ello hay que convertir los dígitos binarios en formas de onda compatibles con el canal. Para canales de bandabase estas formas de onda son pulsos.
Angelina Petriglia
Emperatriz Rojas
Francisco Salcedo
Kevin Frontado   
Paul Díaz

8vo semestre
Ing. de Telecomunicaciones

0 comentarios: