El estudio de la teoría de códigos comenzó en los años 40 con el trabajo de Golay, Hamming y Shannon. A pesar que en sus orígenes era un problema de ingeniería, se ha desarrollado cada vez más usando sofisticadas técnicas matemáticas. El principal problema de la teoría de la información y la teoría de códigos se puede describir de modo muy simple. Supongamos que una secuencia de bits (compuesta por 0 y 1) se transmite a través de un canal de comunicación. Cuando hablamos de un canal nos referimos, por ejemplo, a la línea telefónica, a Internet o a un simple CD. De vez en cuando, interferencias o perturbaciones aparecen en el proceso de intercambio de datos, y algunos bits se transmiten erróneamente, es decir, recibimos un 1 en vez de un 0, o viceversa. En este punto, la cuestión es si somos capaces de identificar los errores que han ocurrido y si podemos recuperar el mensaje original.
Codificar es básicamente añadir información extra, o redundancia, que nos ayude a detectar y corregir posibles errores en la transmisión. Sin embargo, a cambio de esto, debemos pagar un alto precio en términos de eficiencia. Por ejemplo, lleva cierta cantidad de tiempo transmitir la información a través de un canal, por lo tanto, cuanta más redundancia añadamos, más se tarda en transmitir la información a través del canal y más tardaremos en decodificar. Como consecuencia, hay que llegar a un equilibrio.
Nuestro objetivo es la construcción de un tipo de códigos bloque llamados Fq-lineales con propiedades especiales tales como la ciclicidad o la máxima distancia de separación (MDS). En este caso el alfabeto del código en vez de ser Fq, como se estudia en la teoría de códigos clásica, es Fq^b. Además, nos interesa la relación entre este tipo de códigos y los famosos códigos array utilizados para aplicaciones en comunicación y en almacenamiento de datos.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados