The National Academies: Advisers to the Nation on Science, Engineering, and Medicine
NATIONAL ACADEMY OF SCIENCES NATIONAL ACADEMY OF ENGINEERING INSTITUTE OF MEDICINE NATIONAL RESEARCH COUNCIL
Current Operating Status
PÁGINA PRINCIPAL

SEMILLAS DE DISEÑO

CONSERVACIÓN DEL MILAGRO DE LA VISTA: EL LÁSER Y LA CIRUGÍA OFTALMOLÓGICA

TRATAMIENTO DE LA LEUKEMIA INFANTIL

WAVELETS: VER EL BOSQUE Y LOS ÁRBOLES

EL FENÓMENO DE LA REDUCCIÓN DEL OZONO

EL DESARROLLO DE LA RESONANCIA MAGNÉTICA

PARA ACLARAR EL ENIGMA DE LA VITAMINA D

LA HISTORIA DE LA HEPATITIS B

SONIDO DESDE EL SILENCIO: EL DESARROLLO DE LOS IMPLANTES COCLEARES

EL DESARME DE UN VIRUS MORTAL: LAS PROTEASAS Y SUS INHIBIDORES

POLÍMEROS Y PERSONAS

CUANDO LA TIERRA SE MUEVE

SONDEAR LOS SECRETOS DEL OCÉANO

DE LOS EXPLOSIVOS AL GAS TERAPÉUTICO: EL ÓXIDO NÍTRICO EN BIOLOGÍA Y MEDICINA

SISTEMAS DE POSICIONAMIENTO GLOBAL: EL PAPEL DE LOS RELOJES ATÓMICOS

LAS COMUNICACIONES MODERNAS: LA REVOLUCIÓN DEL LÁSER Y LA FIBRA ÓPTICA

PRUEBAS DE GENES HUMANOS

LOCAL SEARCH


Wavelets: ver el bosque y los árboles

El 25 de noviembre de 1998, Walt Disney Pictures y Pixar Animation Studios presentaron un largometraje de animación informática llamado Bichos. Era la segunda vez que colaboraban en un proyecto de este tipo Disney y Pixar y, al igual que su predecesor el pionero Toy Story hiciera tres años antes, levantó críticas entusiastas. Bichos, declaró un crítico, “está lleno de hermosas invenciones visuales…; con intrincados detalles que mantienen tanto a los adultos como a los niños con los ojos pegados a la pantalla de principio a fin…; y con colores extraídos de algún nuevo y hasta la fecha secreto espectro de tonalidades pastel…”

Sólo los espectadores más habilidosos en gráficos informáticos se habrían parado a pensar por un instante en las técnicas de modelado matemático que hicieron posible desarrollar todos los personajes de la historia de hormigas animadas, sin mencionar sus texturas, las innumerables expresiones y la forma en que saltaban, revoloteaban y zumbaban. Sin embargo, tal y como ocurrió, un determinado tipo de técnica de modelado hizo su debut en la película, un método de animación informática que emplea un conjunto de procedimientos matemáticos denominados “wavelets”, que significa “pequeñas ondulaciones”.

Una forma de pensar en las wavelets es plantearse cómo miran nuestros ojos el mundo. En el mundo real, se puede observar un bosque como el de la fotografía de la página siguiente desde muchas perspectivas que son, de hecho, distintas escalas de resolución. Desde la ventana de un avión a reacción, por ejemplo, el bosque parece una cubierta sólida de verde. Desde la ventana de un automóvil que se encuentre sobre el suelo, la cubierta se transforma en árboles individuales; y si salimos del coche y nos acercamos, comenzamos a ver ramas y hojas. Si tomamos entonces una lupa, podremos encontrar una gota de rocío en el extremo de una hoja. A medida que nos acercamos a escalas cada vez más pequeñas, podremos encontrar detalles que no habíamos observado antes. Sin embargo, si intentamos hacer lo mismo con una fotografía, nos sentiríamos decepcionados. Si ampliamos la fotografía para “acercarnos” a un árbol, sólo veremos un árbol más difuminado; no encontraremos la rama, la hoja, ni la gota de rocío. Aunque nuestros ojos pueden ver el bosque a muchas escalas de resolución, la cámara sólo puede mostrar una cada vez.

 

Esta fotografía captura el bosque a una escala de resolución. Pronto, computadoras de todo el mundo podrán mostrar imágenes interactivas en las que los usuarios podrán acercar la imagen para ver con mayor detalle los árboles, las ramas y las hojas. (Gerry Ellis/Minden Pictures)

Los equipos informáticos no lo hacen mejor que las cámaras; de hecho, su grado de resolución es inferior. En la pantalla de una computadora, la fotografía se transforma en un conjunto de píxeles que tienen mucha menos nitidez que el original.

Sin embargo, muy pronto, las computadoras de todo el mundo podrán hacer algo con lo que los fotógrafos sólo han podido soñar. Podrán mostrar una imagen interactiva de un bosque en la que el espectador podrá acercarse para apreciar con mayor detalle los árboles, las ramas y quizá incluso las hojas. Podrán hacerlo porque las wavelets permiten comprimir la cantidad de datos que se utilizan para almacenar una imagen, permitiendo almacenar una imagen más detallada en un espacio menor.

Aunque las wavelets, como objeto de investigación organizada, tienen menos de dos décadas, se derivan de una constelación de conceptos relacionados desarrollados durante un período de casi dos siglos, siendo repetidamente redescubiertas por científicos que querían resolver problemas técnicos de diversas disciplinas. Los procesadores de señales estaban buscando una manera de transmitir mensajes claros a través de los hilos telefónicos. Los que realizaban prospecciones petrolíferas querían encontrar una forma mejor de interpretar las señales sísmicas. Pese a todo, el término “wavelets” no entró a formar parte de la terminología habitual entre los científicos hasta que la teoría se liberó de las distintas aplicaciones en las que surgió y se sintetizó en una teoría puramente matemática. Esta síntesis, en cambio, abrió los ojos de los científicos a nuevas aplicaciones. Hoy en día, por ejemplo, las wavelets no son sólo el caballo de batalla de la animación y las imágenes por computadora; también las utiliza el FBI para codificar su base de datos de 30 millones de huellas dactilares. En el futuro, los científicos podrán utilizar el análisis de wavelets para diagnosticar el cáncer de mama, detectar anomalías cardíacas o predecir el tiempo.

El análisis de wavelets permite a los investigadores aislar y manipular tipos de patrones específicos ocultos en cantidades ingentes de datos, de forma muy parecida a como nuestros ojos observan los árboles de un bosque, o nuestros oídos pueden elegir el sonido de una flauta en una sinfonía. Una forma de comprender cómo consiguen hacer esto las wavelets es comenzar con la diferencia entre dos tipos de sonidos: un diapasón y la voz humana. Al golpear un diapasón se obtiene un tono puro que perdura largo tiempo. En la teoría matemática, se dice que dicho tono tiene una frecuencia “localizada”; es decir, que está formado por un solo tono sin armónicos de frecuencias superiores. Una palabra hablada, en contraste, sólo dura un segundo y, por tanto, está “localizada” en el tiempo. Su frecuencia no está localizada porque la palabra no es un solo tono, sino una combinación de muchas frecuencias distintas.

Los gráficos de las ondas sonoras producidas por el diapasón y por la voz humana resaltan la diferencia, como se ilustra en la página 3. Las vibraciones del diapasón trazan lo que los matemáticos denominan una onda sinusoidal, una curva suavemente ondulada que, en teoría, podría repetirse para siempre. En contraste, el gráfico de la palabra inglesa “greasy” (“grasiento”) contiene una serie de picos agudos, sin oscilaciones.

Los gráficos de las ondas sonoras producidas por un diapasón (izquierda) y de la pronunciación de la palabra inglesa “greasy” (derecha) ilustran la diferencia entre un tono de frecuencia localizada y uno localizado en el tiempo. El diapasón produce una “onda sinusoidal” simple. (Cortesía de Ofer Levi, Universidad de Stanford)

En el siglo XIX, los matemáticos perfeccionaron lo que se podría denominar la versión del “diapasón” de la realidad, una teoría conocida como el análisis de Fourier. Jean Baptiste Joseph Fourier, un matemático francés, afirmó en 1807 que cualquier forma de onda repetitiva (o función periódica), como la onda sonora de un diapasón, se puede expresar como una suma infinita de ondas sinusoidales y cosinusoidales de diversas frecuencias. (Una onda cosinusoidal es una onda sinusoidal desplazada un cuarto de ciclo.)

Una demostración familiar de la teoría de Fourier se da en la música. Cuando un músico toca una nota, crea una onda sonora de forma irregular. La misma forma se repite durante tanto tiempo como el músico sostenga la nota. Por tanto, según Fourier, la nota se puede dividir en una suma de ondas sinusoidales y cosinusoidales. La onda de frecuencia más baja se denomina frecuencia fundamental de la nota, y las de mayor frecuencia se denominan armónicos. Por ejemplo, la nota La, en un violín o una flauta, tiene una frecuencia fundamental de 440 ciclos por segundo y armónicos con frecuencias de 880, 1320 y así sucesivamente. Aunque un violín y una flauta toquen la misma nota, el sonido será distinto porque sus armónicos tienen distinta fuerza o “amplitud”. Como demostraron los sintetizadores de música en la década de 1960, sólo se puede conseguir una imitación muy convincente de un violín o una flauta mediante la recombinación de ondas sinusoidales puras de las amplitudes adecuadas. Y, por supuesto, eso es exactamente lo que predijo Fourier en 1807.

Posteriormente, los matemáticos ampliaron la idea de Fourier a funciones no periódicas (u ondas) que cambian en el tiempo, en lugar de repetirse en la misma forma para siempre. La mayoría de las ondas del mundo real son de este tipo: pongamos, por ejemplo, el sonido de un motor que acelera, reduce y se interrumpe de vez en cuando. En las imágenes también es importante la distinción entre patrones repetitivos y no repetitivos. Un patrón repetitivo se puede ver como una textura o fondo, mientras que un patrón no repetitivo es percibido por el ojo como un objeto. Para representar patrones repetitivos (fondo) de una imagen se pueden utilizar ondas periódicas o repetitivas formadas por una serie de armónicos. Las características no repetitivas se pueden resolver en un espectro de frecuencias mucho más complejo, denominado “transformación de Fourier”, de la misma forma que la luz se puede descomponer en un espectro de colores. La transformación de Fourier representa la estructura de una onda periódica de forma mucho más reveladora y concentrada que lo haría el gráfico tradicional de una onda. Por ejemplo, una vibración de un motor aparecería como un pico de frecuencia inusual en la transformación de Fourier.

Las transformaciones de Fourier han sido un éxito. Durante el siglo XIX resolvieron muchos problemas de la física y de la ingeniería. Esta importancia llevó a científicos e ingenieros a pensar en ellas como la forma preferida de analizar fenómenos de todo tipo. Esta omnipresencia obligó a un examen más detallado del método. Como resultado, durante el siglo XX, matemáticos, físicos e ingenieros observaron un inconveniente en la transformación de Fourier: tenían problemas para reproducir señales fugaces o señales con cambios abruptos, tales como la palabra hablada o el golpe de un tambor con bordón. Los sintetizadores de música, por buenos que sea, no consiguen el sonido de los violinistas de concierto, porque la interpretación de un violinista contiene características fugaces, tales como el contacto del arco en la cuerda, que las representaciones basadas en ondas sinusoidales sólo consiguen imitar pobremente.

El principio subyacente a este problema se puede ilustrar mediante lo que se conoce como el principio de la indeterminación de Heisenberg. En 1927, el físico Werner Heisenberg afirmó que la posición y la velocidad de un objeto no se pueden medir exactamente al mismo tiempo, ni siquiera en teoría. En términos de procesamiento de señales, esto significa que es imposible conocer de forma simultánea la frecuencia exacta y el momento exacto en que ocurre esta frecuencia en una señal. Para poder conocer la frecuencia, la señal se debe dilatar en el tiempo, o viceversa. En términos musicales, el equilibrio significa que cualquier señal de duración corta debe tener un complejo espectro de frecuencias formado por una gran variedad de ondas sinusoidales, mientras que cualquier señal formada por una combinación simple de unas pocas ondas sinusoidales debe tener una apariencia compleja en el dominio del tiempo. Por tanto, no podemos esperar reproducir el sonido de un tambor con una orquesta de diapasones.

En el transcurso del siglo XX, los científicos de distintos campos intentaron superar estas limitaciones, para permitir que las representaciones de los datos se adaptaran a la naturaleza de la información. En esencia, querían capturar tanto el bosque de baja resolución (la señal de fondo repetitiva) como los árboles de alta resolución (las variaciones individuales y localizadas del fondo). Aunque cada científico intentaba resolver los problemas específicos de su respectivo campo, todos comenzaron a llegar a la misma conclusión: que las culpables eran las transformaciones de Fourier en sí. También llegaron en esencia a la misma solución: quizás al dividir una señal en componentes que no fueran ondas sinusoidales puras sería posible condensar la información tanto en el dominio del tiempo como en el de la frecuencia. Esta es la idea que finalmente se denominaría wavelet.

El primer participante en la carrera de las wavelet fue un matemático húngaro llamado Alfred Haar, que introdujo en 1909 las funciones que actualmente se denominan “wavelets de Haar”. Estas funciones consisten simplemente en un breve impulso positivo seguido de un breve impulso negativo. Un ejemplo se muestra en la página 5. Aunque los impulsos breves de las wavelets de Haar son excelentes para la enseñanza de la teoría de las wavelets, no resultan de tanta utilidad en la mayoría de aplicaciones, ya que producen líneas irregulares con picos en lugar de curvas suaves. Por ejemplo, una imagen reconstruida con las wavelets de Haar tiene el aspecto de una pantalla de calculadora barata, y una reconstrucción realizada con wavelets de Haar del sonido de una flauta es demasiado áspera.

De vez en cuando, durante varias décadas posteriores, surgieron otros precursores de la teoría de las wavelets. En la década de 1930, los matemáticos ingleses John Littlewood y R.E.A.C. Paley desarrollaron un método de agrupación de frecuencias por octavas, creando de esta forma una señal con una frecuencia bien localizada (su espectro se encuentra dentro de una octava) y también relativamente bien localizada en el tiempo. En 1946, Dennis Gabor, un físico británico-húngaro, presentó la transformación de Gabor, análoga a la transformación de Fourier, que separa una onda en “paquetes de tiempo-frecuencia” o “estados coherentes” que tienen la mayor localización simultánea posible tanto en tiempo como en frecuencia. Y en las décadas de 1970 y 1980, las comunidades de procesamiento de señales y procesamiento de imágenes presentaron sus propias versiones del análisis de wavelets con nombres tales como “codificación de subbandas”, “filtros de duplicación de cuadratura” y “algoritmo piramidal”.

Aunque no eran exactamente idénticas, todas estas técnicas tenían características similares. Descomponían o transformaban señales en partes que se podían localizar en cualquier intervalo de tiempo y que también se podían dilatar o contraer para analizar la señal a distintas escalas de resolución. Estos precursores de las wavelets tenían algo más en común. Nadie que se encontrara al margen de comunidades especializadas individuales sabía de ellos. Pero en 1984, la teoría de las wavelets adoptó finalmente su carácter propio.

 

Gráficos de varios tipos distintos de wavelets. (a) Wavelet de Haar, (b) Wavelet de Daubechies, (c) Wavelet de Morlet. (Cortesía de Ofer Levi, Universidad de Stanford)

Jean Morlet no pensaba iniciar una revolución científica. Sólo intentaba ofrecer a los geólogos una forma mejor de buscar petróleo.

Los geólogos del petróleo localizan normalmente los depósitos subterráneos de petróleo mediante ruidos intensos. Como las ondas sonoras viajan a través de distintos materiales a velocidades distintas, los geólogos podían deducir el tipo de material que se encontraba bajo la superficie enviando de ondas sísmicas a la tierra y midiendo la rapidez con la que rebotaban. Si las ondas se propagaban especialmente rápido a través de una capa, podía tratarse de una bóveda salina que podía retener una capa de petróleo bajo ella.

Sólo el cálculo de cómo se traduce la geología en una onda sonora (o viceversa) constituye un problema matemático difícil, que los ingenieros resolvían tradicionalmente mediante el análisis de Fourier. Desgraciadamente, las señales sísmicas contenían gran cantidad de señales transitorias, cambios abruptos en la onda a medida que pasa de una capa de rocas a otra. Estas señales transitorias contienen exactamente la información que buscan los geólogos, es decir, la localización de las capas de rocas, pero el análisis de Fourier extiende esa información espacial por todo el lugar.

Morlet, un ingeniero de Elf-Aquitanie, desarrolló su propia forma de analizar las señales sísmicas para crear componentes que estuvieran localizados en el espacio, a los que denominó “wavelets de forma constante”. Posteriormente, se conocerían como “wavelets de Morlet”. Independientemente de que los componentes se dilaten, compriman o desplacen en el tiempo, mantienen la misma forma. Se pueden construir otras familias de wavelets adoptando una forma diferente, denominada wavelet madre, y dilatándola, comprimiéndola o desplazándola en el tiempo. Los investigadores descubrirían que la forma exacta de la wavelet madre afecta enormemente a las propiedades de compresión y precisión de la aproximación. Muchas de las diferencias entre versiones anteriores de wavelets sólo suponían opciones distintas de la wavelet madre.

El método de Morlet no estaba en los libros, pero parecía funcionar. En su computadora personal, consiguió separar una onda en las wavelets que la componían y, a continuación, volver a unirlas para formar la onda original. Pero no estaba satisfecho con esta demostración empírica, por lo que comenzó a preguntar a otros científicos si el método era matemáticamente coherente.

Morlet obtuvo la respuesta que deseaba de Alex Grossmann, un físico del Centre de Physique Théorique de Marsella. Grossmann trabajó con Morlet durante un año para confirmar que las ondas se podían reconstruir a partir de sus descomposiciones en wavelets. De hecho, las transformaciones de wavelets resultaron funcionar mucho mejor que las transformaciones de Fourier, porque eran mucho menos susceptibles a pequeños errores de cómputo. Un error o un truncamiento indeseados de los coeficientes de Fourier pueden transformar una señal suave en una saltarina o viceversa; las wavelets evitan tales consecuencias desastrosas.

El artículo de Morlet y Grossmann, el primero en que se utilizó la palabra “wavelet”, se publicó en 1984. Yves Meyer, actualmente en la École Normale Supérieure de Cachan, reconocido ampliamente como uno de los fundadores de la teoría de las wavelets, conoció su trabajo en el otoño de ese mismo año. Fue el primero en darse cuenta de la conexión entre las wavelets de Morlet y las wavelets matemáticas anteriores, como las del trabajo de Littlewood y Paley. (De hecho, Meyer ha contado 16 redescubrimientos independientes del concepto de wavelet anteriores a la publicación del artículo de Morlet y Grossman.)

Meyer continuó su trabajo para descubrir un nuevo tipo de wavelet con una propiedad matemática denominada ortogonalidad que hacía que manipular y trabajar con la transformación de wavelets resultara tan fácil como con una transformación de Fourier. (“Ortogonalidad” significa que la información capturada por una wavelet es completamente independiente de la información capturada por otra.) Y lo que es quizá aún más importante, se convirtió en el nexo de unión de la naciente comunidad dedicada a las wavelets.

En 1986, Stéphane Mallat, un antiguo alumno de Meyer que estaba haciendo un doctorado en visión informática, vinculó la teoría de wavelets a la literatura existente sobre codificación de subbandas y filtros de duplicación de cuadratura, que son las versiones de las wavelets de la comunidad de procesamiento de imágenes. La idea del análisis multiresolución (es decir, la observación de señales a distintas escalas de resolución) ya era familiar para los expertos en procesamiento de imágenes. Mallat, en colaboración con Meyer, demostró que las wavelets están implícitas en el procesos del análisis multiresolución.

Gracias al trabajo de Mallat, las wavelets se convirtieron en algo mucho más sencillo. Ya se podía hacer un análisis de wavelets sin necesidad de conocer la fórmula de una wavelet madre. El proceso se redujo a sencillas operaciones de cálculo de promedio de grupos de píxeles en las que se toman sus diferencias una y otra vez. El lenguaje de las wavelets también resultaba más cómodo para los ingenieros eléctricos, que adoptaron términos familiares como “filtros”, “altas frecuencias” y “bajas frecuencias”.

La última gran salva de la revolución de las wavelets se disparó en 1987, cuando Ingrid Daubechies, mientras visitaba el Courant Institute de la Universidad de Nueva York y, posteriormente, durante su trabajo en loa laboratorios AT&T Bell, descubrió una clase completamente nueva de wavelets, que no sólo eran ortogonales (como las de Meyer) sino que también se podían implementar mediante sencillas ideas de filtrado digital, de hecho, mediante cortos filtros digitales. Las nuevas wavelets eran casi tan sencillas de programar y utilizar como las wavelets de Haar, pero eran suaves, sin los saltos de las wavelets de Haar. Los procesadores de señales disponían ahora de una herramienta de ensueño: una manera de descomponer datos digitales en contribuciones de diversas escalas. Al combinar las ideas de Daubechies y Mallat, se disponía de una transformación ortogonal y sencilla que se podía calcular rápidamente en las modernas computadoras digitales.

Las wavelets de Daubechies tienen características sorprendentes, tales como conexiones estrechas con la teoría de fractales. Si su gráfico se observa aumentado, se pueden apreciar curvas de líneas irregulares con picos, independientemente del grado de aumento. Esta exquisita complejidad de detalle significa que no hay una fórmula simple para estas wavelets. Son desgarbadas y asimétricas; los matemáticos del siglo XIX habrían retrocedido ante ellas con horror. Pero al igual que el Ford modelo T, son bellas porque funcionan. Las wavelets de Daubechies convierten la teoría en una herramienta práctica que cualquier científico con una formación matemática mínima puede programar y utilizar fácilmente.

Las wavelets se pueden utilizar para filtrar una señal de un ruido. Las imágenes superiores muestran la señal original, que presenta saltos y tramos suaves (a) y una versión con ruido de la señal, de la que se desearía "eliminar el ruido" (b). En la parte inferior, el resultado de la eliminación de ruido mediante las wavelets de Haar produce una línea irregular en lugar de una curva suave (c); en contraste, si se utilizan las wavelets de Daubechies producen una curva más suave (d). (Cortesía de Ofer Levi, Universidad de Stanford)

Hasta ahora, la principal aplicación excepcional de las wavelets ha sido la compresión de imágenes digitales. Son el eje central del nuevo estándar de imágenes digitales JPEG-2000 y del método WSQ (del inglés Wavelet Scalar Quantization, cuantización escalar de wavelets) que utiliza el FBI para comprimir su base de datos de huellas dactilares. En este contexto, se puede pensar en las wavelets como los componentes básicos de las imágenes. Una imagen de un bosque puede estar formada por las wavelets más amplias: una gran franja de verde para el bosque y una mancha de azul para el cielo. Las wavelets de mayor detalle y nitidez se pueden utilizar para distinguir un árbol de otro. Es posible añadir ramas y agujas a la imagen con wavelets aún más finas. Al igual que una pincelada de un cuadro, cada wavelet no es una imagen en sí, pero muchas wavelets juntas pueden recrear cualquier cosa. A diferencia de una pincelada de un cuadro, una wavelet puede hacerse arbitrariamente pequeña: una wavelet no tiene limitaciones físicas de tamaño porque sólo se trata de una serie de ceros y unos almacenados en la memoria de una computadora.

En contra de la creencia popular, las wavelets en sí no comprimen una imagen: su finalidad es permitir la compresión. Para comprender por qué, supongamos que una imagen se codifica como una serie de números distribuidos en el espacio, tales como 1, 3, 7, 9, 8, 8, 6, 2. Si cada número representa la oscuridad de un píxel, siendo 0 el blanco y 15 el negro, esta cadena representa una especie de objeto gris (los 7, 8 y 9) sobre un fondo claro (los 1, 2 y 3).

El tipo más sencillo de análisis multiresolución filtra la imagen calculando el promedio de cada par de píxeles adyacentes. En el ejemplo anterior, el resultado es la cadena 2, 8, 8, 4: una imagen de menor resolución que todavía muestra un objeto gris sobre un fondo claro. Si quisiéramos reconstruir una versión degradada de la imagen original a partir de esto, podríamos hacerlo repitiendo cada uno de los números de la cadena: 2, 2, 8, 8, 8, 8, 4, 4.

Sin embargo, supongamos que queremos recuperar la imagen original perfectamente. Para hacerlo, tendríamos que guardar en primer lugar cierta información adicional, es decir, un conjunto de números que se puedan añadir o restar a la señal de baja resolución para obtener la señal de alta resolución. En el ejemplo, esos números son -1, -1, 0 y 2. (Por ejemplo: al añadir -1 al primer píxel de la imagen degradada, el 2, se obtiene 1, el primer píxel de la imagen original; al restarle -1 se obtiene 3, el segundo píxel de la imagen original.)

Por tanto, el primer nivel del análisis multiresolución divide la señal original en una parte de baja resolución (2, 8, 8, 4) y una parte de alta frecuencia o “detalle” (-1, -1, 0, 2). Los detalles de alta frecuencia se denominan también coeficientes de wavelets de Haar. De hecho, todo este procedimiento es la versión multiresolución de la transformación de wavelets que Haar descubrió en 1909.

Puede parecer que no se ha ganado nada en el primer paso de la transformación de wavelets. Había ocho números en la señal original y siguen habiendo ocho números en la transformación. Pero, en una imagen digital típica, la mayoría de los píxeles se parecen mucho a sus vecinos: los píxeles del cielo se encuentran junto a los píxeles del cielo, y los píxeles del bosque junto a píxeles del bosque. Esto significa que los promedios de los píxeles próximos serán casi iguales que los píxeles originales y, por tanto, la mayoría de los coeficientes de detalle serán cero o estarán muy próximos a cero. Si simplemente redondeamos estos coeficientes a cero, entonces la única información que necesitamos conservar es la imagen de baja resolución junto con algunos coeficientes de detalle que no se hayan redondeado a cero. Por consiguiente, la cantidad de datos necesarios para almacenar la imagen se ha comprimido con un factor próximo a 2. El proceso de redondeo de números de gran precisión a números de baja precisión con menos dígitos se denomina cuantización (la “Q”, del inglés “quantization”, en “WSQ”). Un ejemplo es el proceso de redondeo de un número en dos cifras significativas.

El proceso de transformación y cuantización se puede repetir tantas veces como se desee, y cada vez disminuirán los bits de información según un factor de casi 2 y se degradará ligeramente la calidad de la imagen. En función de las necesidades del usuario, el proceso se puede detener antes de que la resolución baja comience a apreciarse o continuar hasta obtener una imagen “en miniatura” de muy baja resolución con capas de detalles cada vez más precisos. Con el estándar JPEG-2000, se pueden conseguir índices de compresión de 200:1 sin diferencias perceptibles en la calidad de la imagen. Tales descomposiciones en wavelets se obtienen al calcular el promedio de más de dos píxeles próximos cada vez. La transformación de wavelets de Daubechies más simple, por ejemplo, combina grupos de cuatro píxeles, mientras que otras más suaves combinan seis, ocho o más.

Las wavelets permiten comprimir imágenes con muy poca degradación de la calidad. De izquierda a derecha, imagen original, la misma imagen comprimida en una proporción de 200:1 mediante tecnología JPEG estándar y la misma imagen comprimida en la misma proporción mediante JPEG-2000, un método que utiliza wavelets. (Imagen cedida por ImageState; gráfico manipulado por Aware, Inc.)

Una propiedad fascinante de las wavelets es que eligen automáticamente las mismas características que nuestros ojos. Los coeficientes de las wavelets que quedan aún tras la cuantización corresponden a píxeles que son muy distintos a sus vecinos, en el borde de los objetos de una imagen. Por tanto, las wavelets recrean una imagen principalmente trazando bordes, que es exactamente lo que hacen los humanos cuando esbozan un dibujo. De hecho, algunos investigadores han sugerido que la analogía entre las transformaciones de wavelets y la visión humana no es accidental, y que nuestras neuronas filtran las señales visuales de forma parecida a las wavelets.

Una establecidos firmemente los cimientos de la teoría de wavelets, el campo se desarrolló rápidamente en la última década. Una lista de distribución sobre wavelets que comenzó con 40 nombres en 1990 se ha convertido en un boletín de noticias con más de 17.000 suscriptores. Y, además, ha seguido evolucionando a través de una combinación positiva de teoría y práctica. Los ingenieros están siempre probando nuevas aplicaciones, y para los matemáticos quedan aún importantes cuestiones teóricas por resolver.

Aunque el campo más conocido de las wavelets es la compresión de imágenes, muchos investigadores están interesados en utilizar las wavelets para reconocimiento de patrones. En las predicciones meteorológicas, por ejemplo, pueden reducir los modelos informáticos sobrecargados de información que se utilizan actualmente. Tradicionalmente, dichos modelos toman muestras de la presión atmosférica (por ejemplo) en una cantidad enorme de puntos de cuadrícula y utilizan esta información para predecir la evolución de los datos. Sin embargo, este enfoque utiliza gran cantidad de recursos informáticos. Para un modelo de la atmósfera que utilice una cuadrícula de 1000 por 1000 por 1000 se requieren 1000 millones de puntos de datos, y pese a todo el modelo es bastante rudimentario.

Sin embargo, la mayoría de los datos de la cuadrícula son redundantes. La presión atmosférica de su ciudad es probablemente la misma que la presión atmosférica a un kilómetro de distancia. Si los modelos meteorológicos utilizaran las wavelets, podrían observar los datos de la misma forma que los meteorólogos, concentrándose en los lugares en los que se producen cambios abruptos como en frentes cálidos, frentes fríos y similares. Otros problemas de la dinámica de fluidos se han tratado de resolver de la misma manera. En el Laboratorio Nacional de Los Alamos, por ejemplo, las wavelets se utilizan para estudiar las ondas expansivas producidas por una explosión.

Y, como ha demostrado la reciente avalancha de largometrajes de animación realizados por computadora, las wavelets también tienen un futuro prometedor en el cine. Como la transformación de wavelets es un proceso reversible, es tan fácil sintetizar una imagen (construirla a base de wavelets) como analizarla (descomponerla en las wavelets que la forman). Esta idea está relacionada con un nuevo método de animación por computadora denominado superficies de subdivisión, que consiste básicamente en un análisis multiresolución que se ejecuta a la inversa. Para dibujar un personaje animado, el animador sólo tiene que especificar la posición de algunos puntos clave, creando una versión de baja resolución del personaje. A continuación, la computadora puede realizar un análisis multiresolución inverso, haciendo que el personaje tenga el aspecto de una persona real y no de una figura trazada con círculos y líneas.

Las superficies de subdivisión debutaron en la película Bichos en 1998, sustituyendo a un método más rudimentario denominado NURB (siglas en inglés de curvas B racionales no uniformes) que se había utilizado en la primera película Toy Story en 1995. Curiosamente, las NURB y los métodos de subdivisión coexistieron en la película Toy Story 2 de 1999, en la que los personajes que aparecieron en la primera Toy Story seguían siendo NURB, mientras que los nuevos personajes se basaban en el método de subdivisión. La próxima frontera de las superficies de subdivisión puede ser la industria de los videojuegos, en la que podrían eliminar el aspecto de bloque de los gráficos de hoy en día.

Mientras tanto, en la parte teórica, los matemáticos todavía siguen buscando mejores tipos de wavelets para imágenes bidimensionales y tridimensionales. Aunque los métodos de wavelets estándar seleccionan bien los bordes, lo hacen con un píxel cada vez, lo que no resulta eficaz para representar algo que puede ser un curva o línea muy simple. David Donoho y Emmanuel Candès, de la Universidad de Stanford, han propuesto una nueva clase de wavelets denominadas “ridgelets”, que se podría traducir como “pequeñas protuberancias”, diseñadas específicamente para detectar discontinuidades a lo largo de una línea. Otros investigadores están estudiando las “multiwavelets”, que se pueden utilizar para codificar varias señales que viajen por una misma línea, tales como imágenes en color en las que los tres valores de color (rojo, verde y azul) se tengan que transmitir a la vez.

Cuando se pide a los matemáticos que justifiquen el valor de las matemáticas, ellos muestran que las ideas desarrolladas para resolver un problema puramente matemático pueden conducir al desarrollo de aplicaciones insospechadas años después. Pero la historia de las wavelets dibuja un cuadro más complicado y en cierta forma más interesante. En este caso, una investigación aplicada específica condujo a una nueva síntesis teórica, que a su vez abrió los ojos de los científicos a nuevas aplicaciones. Quizás la lección más amplia de las wavelets sea que no se debería considerar las ciencias básicas y las ciencias aplicadas como empeños independientes: la buena ciencia nos exige ver tanto el bosque teórico como los árboles prácticos.

Las wavelets han tenido una historia científica inusual, marcada por muchos descubrimientos y redescubrimientos independientes. El progreso más rápido se ha realizado desde principios de la década de 1980, cuando surgió por fin una teoría matemática coherente de las wavelets.

1807
Jean Baptiste Joseph Fourier, un matemático francés y protegido de Napoleón, afirma que cualquier función periódica, u onda, se puede expresar como una suma infinita de ondas sinusoidales y cosinusoidales de distintas frecuencias. Como había serias dudas sobre la exactitud de sus argumentos, su artículo no se publicó hasta 15 años después. A finales del siglo, las series de Fourier están omnipresentes en la ciencia. Son una herramienta ideal para analizar ondas sonoras y de luz. Sin embargo, no son igual de eficaces para el estudio de fenómenos transitorios, tales como ráfagas breves de sonido o de luz.

1909
Alfred Haar, un matemático húngaro, descubre una “base” de funciones que se reconocen actualmente como las primeras wavelets. Consisten en un breve impulso positivo seguido de un breve impulso negativo.

1930
John Littlewood y Richard Paley, de la Universidad de Cambridge, demuestran que la información local sobre una onda, como la duración de un impulso de energía, se puede recuperar mediante la agrupación de los términos de sus series de Fourier en “octavas”.

1946
Dennis (Denes) Gabor, un científico británico-húngaro inventor de la holografía, descompone las señales en “paquetes de tiempo-frecuencia” o “frecuencias de Gabor.”

1960
El matemático argentino Alberto Calderón descubre una fórmula matemática que posteriormente permite a los matemáticos recuperar una señal a partir de la expansión de sus wavelets.

1976
Los físicos de IBM Claude Galand y Daniel Esteban descubren la codificación subbanda, una forma de codificar transmisiones digitales para el teléfono.

1981
El ingeniero petrolífero Jean Morlet, de Elf-Aquitaine, descubre una manera de descomponer las señales sísmicas en los que denomina “wavelets de forma constante”. Pide ayuda al físico cuántico Alex Grossmann para demostrar que el método funciona.

1982
Edward Adelson, del MIT, y Peter Burt, de Sarnoff Corporation, desarrollan el “algoritmo piramidal” para la compresión de imágenes.

1984
Un artículo publicado conjuntamente por Morlet y Grossmann introduce por primera vez el término “wavelet” en el lenguaje matemático.

1985
Yves Meyer, de la Universidad de París, descubre las primeras wavelets ortogonales suaves.

1986
Stéphane Mallat, por entonces en la Universidad de Pennsylvania, demuestra que la base de Haar, las octavas de Littlewood-Paley, las frecuencias de Gabor y los filtros subbanda de Galand y Esteban están todos relacionados con algoritmos basados en wavelets.

1987
Ingrid Daubechies construye las primeras wavelets ortogonales suaves con una base sólida. Sus wavelets convierten la teoría en una herramienta práctica que cualquier científico con una formación matemática mínima puede programar y utilizar fácilmente.

1990
David Donoho e Iain Johnstone, de la Universidad de Stanford, utilizan las wavelets para “eliminar el ruido” de las imágenes, haciéndolas aún más nítidas que los originales.

1992
El FBI elige un método de wavelets desarrollado por Tom Hopper, de la división de Servicios de información criminal del FBI, y Jonathan Bradley y Chris Brislawn, del Laboratorio Nacional de Los Alamos, para comprimir su enorme base de datos de huellas dactilares.

1995
Pixar Studios presenta la película Toy Story, la primera película de dibujos animados realizada completamente por computadora. En la secuela Toy Story 2, algunas formas se realizan mediante superficies de subdivisión, una técnica relacionada matemáticamente con las wavelets.

1999
La Organización Internacional de Estándares (International Standards Organization) aprueba un nuevo estándar de compresión de imágenes digital denominado JPEG-2000. El nuevo estándar utiliza wavelets para comprimir archivos de imágenes en una proporción de 1:200, sin pérdidas apreciables en la calidad de la imagen. Se espera que los navegadores Web admitan este nuevo estándar en el año 2001.

El artículo “Wavelets: ver el bosque y los árboles” ha sido elaborado por la escritora científica Dana Mackenzie, con la colaboración de los Dres. Ingrid Daubechies, Daniel Kleppner, Stéphane Mallat, Yves Meyer, Mary Beth Ruskai y Guido Weiss para Beyond Discoveryâ: The Path from Research to Human Benefit [Más allá del descubrimiento: El camino desde la investigación hasta el beneficio humano], un proyecto de la National Academy of Sciences (Academia Nacional de las Ciencias).

La Academia, con sede en Washington, D.C., es una sociedad de distinguidos eruditos comprometidos con la investigación científica y de ingeniería, dedicada al uso de la ciencia y la tecnología para el bienestar común. Durante más de un siglo, la Academia ha proporcionado asesoramiento científico objetivo e independiente a la nación.

Este artículo ha sido financiado con fondos de la National Academy of Sciences.

© 2001 U.S. National Academy of Sciences, diciembre de 2001

RSS News Feed | Subscribe to e-newsletters | Feedback | Back to Top