Teoría de información
Teoría
de información
Teoría de información es una rama de
matemáticas aplicadas e ingeniería eléctrica participación de la cuantificación
de información. Históricamente, la teoría de información fue desarrollada para
encontrar límites fundamentales en la compresión y confiablemente el
comunicarse datos. Puesto que su inicio que ha ensanchado para encontrar usos
en muchas otras áreas, el incluir inferencia estadística, proceso de lengua
natural, criptografía generalmente, redes con excepción de redes de
comunicaciones, como neurobiología, la
evolución y función de códigos moleculares, selección modelo en ecología,
física termal, el computar del quantum, detección del plagio y otras formas de
análisis de datos.
Los usos de asuntos fundamentales de la
teoría de información incluyen compresión de datos lossless (Archivos de CIERRE
RELÁMPAGO), compresión de datos del lossy (MP3s), y codificación del canal (para
DSL líneas). El campo está en la intersección de matemáticas, estadística,
informática, física, neurobiología, e ingeniería eléctrica. Su impacto ha sido
crucial al éxito del Voyager misiones en el espacio profundo, la invención del
CD, la viabilidad de teléfonos móviles, el desarrollo del Internet, el estudio
de lingüística y de la opinión humana, la comprensión de calabozos, y numeroso
otros campos. Los subcampos importantes de la teoría de información son
codificación de fuente, codificación del canal, teoría de complejidad
algorítmica, teoría de información algorítmica, y medidas de información.
La teoría de información se considera
generalmente haber sido fundada en 1948 cerca Claude Shannon en su trabajo
seminal, “Una teoría matemática de la comunicación. “ El paradigma central de
la teoría de información clásica es el problema de la ingeniería de la
transmisión de la información sobre un canal ruidoso. Los resultados más
fundamentales de esta teoría son Shannon teorema de la codificación de fuente,
de que establece que, en promedio, el número pedacitos necesario representar el
resultado de un acontecimiento incierto es dada por su entropía; y Shannon
teorema de la codificación del ruido-canal, que indica eso confiable la
comunicación es excedente posible ruidoso canales a condición de que el índice
de la comunicación está debajo de cierto umbral llamado la capacidad de canal.
La capacidad de canal puede ser acercada en la práctica usando la codificación
apropiada y descifrando sistemas.
La teoría de información es una teoría
matemática amplia y profunda, con los usos igualmente amplios y profundos,
entre de los cuales está el campo vital teoría de la codificación.
La teoría de la codificación se refiere a
encontrar los métodos explícitos, llamados códigos, de aumentar la eficacia y
de reducir el índice de error neto de la comunicación de datos sobre un canal
ruidoso cerca del límite que Shannon probó es el máximo posible para ese canal.
Estos códigos se pueden subdividir áspero en compresión de datos (codificación
de fuente) corrección de errores (técnicas de la codificación del canal). En el
último caso, tomó muchos años para encontrar los métodos que el trabajo de Shannon
probado era posible. Una tercera clase de los códigos de la teoría de
información es algoritmos criptográficos (ambos códigos y cifras).
Ley de
Shannon
Teoría creada en 1940 por el ingeniero Claude
E. Shannon, Los problemas que plantea Shannon, tienen que ver con la cantidad
de información, la capacidad del canal de comunicación, el proceso de
codificación que puede utilizarse para cambiar el mensaje en una señal y los
efectos del "ruido". Pero no se refiere a las personas como
protagonistas de la comunicación, sino al proceso desde la perspectiva de:
·
Sus aspectos medibles.
·
A las condiciones idóneas de transmisión de
información entre máquinas.
·
Al cálculo de la pérdida de información
transmitida a través de un canal.
Su
teoría se utiliza para medir la información y su contenido.
·
El contenido de la información de un suceso =
una función decreciente de la probabilidad de su aparición.
·
Shannon utilizo el algoritmo de la inversa de
la probabilidad.
Codificación
correlativa
Cuando los bits se transmiten en un medio de
comunicación hay una posibilidad de que los bits adyacentes pueden solaparse
unas con otras en el dominio del tiempo. Esto es bien observado en el entorno
de las comunicaciones móviles, cuando la señal tiene más de un camino (debido a
las reflexiones de cerca por los edificios y objetos) para llegar al destino.
En este caso, las réplicas de la señal llegan a diferentes intervalos, y hará
que se superponen.
Para evitar la superposición de los bits
adyacentes (esto se denomina técnicamente como "Inter Symbol
Interference" [ISI]), los bits adyacentes deben mantenerse bien espaciadas
entre sí por el dominio del tiempo. Obviamente, esta técnica reduce la tasa de
transmisión de datos. Aquí, la velocidad de símbolo es menor que la tasa de
Nyquist (velocidad máxima posible en el canal).
Si aún desea enviar los símbolos a la tasa de
Nyquist, ISI es introducido en el importe de control y los bits se permiten a solaparse.
Dado que estamos introduciendo ISI en forma controlada sabremos el camino para
recuperarse de ella. Esto se logra mediante la codificación. Este tipo de
codificación se denomina codificación correlativa en que la relación entre bits
adyacentes se tienen en cuenta para la codificación.2) Varios tipos de códigos
correlativos están disponibles. Dos de ellos se enumeran a continuación.
·
Modificado Dúo binario de señalización3) Si
decide transmitir su señal en un ancho de banda determinado (por ejemplo
850-890 MHz), su banda de paso está en 850-890MHz y la banda de detención se
encuentra en 0 - 849MHz y 890-MHz varios miles. Su equipo no debería transmitir
más poder que el límite permitido en la banda de detener, ya que pueden
interferir con otros servicios en esa banda (En nuestro caso Uplink: 890 ~ 915
MHz; Downlink: 935 ~ 960MHz para GSM).Por lo tanto, es esencial que la de fuera
de banda (STOP BAND) potencia fraccional (energía restante en la otra banda de
paso de banda) debe ser lo más pequeña posible. Si ya es usted está perdiendo
poder en la banda de dejar de innecesaria. Por lo tanto, debe ser lo más
pequeña posible.
Capacidad
del canal de transmisión
Se llama capacidad del canal a la velocidad a
la que se pueden transmitir los datos en un canal de comunicación de datos. La
velocidad de transmisión de los datos es expresada en bits por segundo (bps).
La capacidad de un canal depende del ancho de
banda (que depende del transmisor y de la naturaleza del medio de transmisión),
el ruido y la tasa de errores permitida. Para un ancho de banda dado se puede
alcanzar la mayor velocidad de transmisión posible pero hay que evitar que se
supere la tasa de errores aconsejable. Para conseguirlo, el mayor inconveniente
es el ruido
Transmisión
digital en banda base
Una señal cuyo espectro de frecuencias se
extiende desde aproximadamente DC hasta un valor finito, en general menos que
unos pocos mega Hertz, se llama señal de banda base o señal pasa bajo. Para
poder transmitir una señal de este tipo sobre un sistema de comunicaciones
digital, la información debe ser formateada de manera tal que pueda ser
representada por un conjunto discreto de símbolos. Luego, a cada uno de estos
símbolos se le asigna una forma de onda para luego poder ser transmitidos
sobre, por ejemplo, un cable coaxial, un par de cobre o una fibra óptica. Una
secuencia de pulsos binarios bipolares, por ejemplo, conforma una señal de
banda base, como se vio en el capítulo anterior, cuyo espectro tiene la forma
de una función sinc2 y se extiende desde 0 Hz hasta un cierto valor finito de
frecuencia (por ejemplo el primer cero de frecuencia, o sea, todo el primer
lóbulo principal del espectro).
Las señales en banda basé no son apropiadas
para ser propagadas por medio de antenas, como veremos más adelante en otro
capítulo. Para ello deben ser trasladadas en frecuencia, a un valor más
apropiado para la propagación, llamándose en este caso señales pasa banda.
La fuente de información puede presentarse de
varias maneras. Puede estar ya en formato digital, con lo cual puede saltearse
el proceso de formateo. Puede ser información de tipo texto, con lo cual la
conversión a dígitos binarios se hace usando un código de conversión. O bien la
información puede presentarse en forma analógica, con lo cual el formateo se
hace siguiendo tres pasos: muestreo, cuantificación y codificación. En todos
los casos siempre resulta una secuencia de dígitos binarios.
Estos dígitos binarios son transmitidos a
través de un canal en banda base. Para ello hay que convertir los dígitos
binarios en formas de onda compatibles con el canal. Para canales de bandabase
estas formas de onda son pulsos.
Angelina Petriglia
Emperatriz Rojas
Francisco Salcedo
Kevin Frontado
Paul Díaz
8vo semestre
Ing. de Telecomunicaciones
0 comentarios: