Rehaciendo la investigación de la capa límite estable, desde cero: la página principal

A ensayo recientemente aceptado Para el Boletín de la Sociedad Meteorológica Americana por Joe Fernando y Jeff Weil es una buena lectura de fondo para el AMS 19 de esta semanael Simposio sobre Capas Límite y Turbulencia en Keystone, Colorado.
Fernando y Weil señalan que la investigación sobre la capa más baja de la atmósfera, donde todos vivimos y respiramos, deberá evolucionar para satisfacer las necesidades de la predicción meteorológica numérica. Si bien el progreso es evidente en el modelado de la capa límite cuando se convierte en convección, esos modelos tienen deficiencias obvias cuando el aire de bajo nivel no es flotante, la capa límite estable que normalmente se encuentra durante la noche. La capa límite estable controla el transporte de la contaminación, la formación de niebla y los chorros nocturnos en el momento crítico antes de que la atmósfera se “despierte” en el calentamiento diurno. Bien, en su presentación este jueves en Keystone llama al modelado aún defectuoso de la situación estable «uno de los desafíos más destacados de la investigación de la capa límite planetaria».
Fernando y Weil escriben en BAMS ese estudio del límite estable necesita ser reestructurado para abarcar interacciones de procesos relevantes de una variedad de escalas de movimiento. La debilidad y multiplicidad de procesos de límites estables relevantes significa que las investigaciones de factores individuales no serán lo suficientemente fructíferas para mejorar la predicción numérica. Los científicos necesitan moderar sus tendencias naturales para tratar de aislar los fenómenos en sus estudios de campo y modelos y, en su lugar, buscar

observaciones simultáneas en una variedad de escalas, cuantificando las contribuciones de calor, momento y flujo de masa de una miríada de procesos para aumentar el estudio típico de una sola escala o fenómeno (o unos pocos) de forma aislada. Las prácticas existentes, que implican identificar minuciosamente los procesos dominantes a partir de los datos, deben cambiarse para agregar los efectos de múltiples fenómenos. Anticipamos el desarrollo de modelos predictivos de alta fidelidad que se basan en gran medida en la especificación precisa de los flujos (en términos de difusividades de remolinos) a través de cuadros de cuadrículas computacionales, mientras que la práctica existente es utilizar modelos fenomenológicos que se basan en teorías y observaciones analíticas simplificadas e ignoran en gran medida los efectos acumulativos/ errores de algunos procesos.

Esta nueva perspectiva, argumentan los autores, será un «cambio de paradigma» en la investigación y el modelado.



Deja un comentario