miércoles, 23 de marzo de 2011

lunes, 21 de marzo de 2011

Polynomial preserving recovery for quadratic elements on anisotropic meshes
Published with Blogger-droid v1.6.7

viernes, 18 de marzo de 2011

jueves, 17 de marzo de 2011

Data sets of very large linear feasibility problems solved by projection methods. (arXiv:1103.2952v1 [cs.MS])

Data sets of very large linear feasibility problems solved by projection methods. (arXiv:1103.2952v1 [cs.MS]): "

We give a link to a page on the Web on which we deposited a set of eight huge
Linear Programming (LP) problems for Intensity-Modulated Proton Therapy (IMPT)
treatment planning. These huge LP problems were employed in our recent research
and we were asked to make them public.

"

sin[n Delta t sin (n Delta t1)] as a source of unpredictable dynamics. (arXiv:1103.3160v1 [nlin.CD])

sin[n Delta t sin (n Delta t1)] as a source of unpredictable dynamics. (arXiv:1103.3160v1 [nlin.CD]): "

We investigate the ability of the function sin[n Delta t sin (n Delta t1)],
where n is an integer and growing number, to produce unpredictable sequences of
numbers. Classical mathematical tools for distinguishing periodic from chaotic
or random behaviour, such as sensitivity to the initial conditions, Fourier
analysis, and autocorrelation are used. Moreover, the function acos{sin[n Delta
t sin (n Delta t1)]}/pigreek is introduced to have an uniform density of
numbers in the interval [0,1], so it can be submitted to a battery of widely
used tests for random number generators. All these tools show that a proper
choice of Delta t and Delta t1, can produce a sequence of numbers behaving as
unpredictable dynamics.

"

PyDEC: Software and Algorithms for Discretization of Exterior Calculus. (arXiv:1103.3076v1 [cs.NA])

PyDEC: Software and Algorithms for Discretization of Exterior Calculus. (arXiv:1103.3076v1 [cs.NA]): "

This paper describes the algorithms, features and implementation of PyDEC, a
Python library for computations related to the Discretization of Exterior
Calculus (DEC). PyDEC facilitates inquiry into both physical problems on
manifolds as well as purely topological problems on abstract complexes. We
describe efficient algorithms for constructing the operators and objects that
arise in DEC and related topological problems. Our algorithms are formulated in
terms of high-level matrix operations which extend to arbitrary dimension. As a
result, our implementations map well to the facilities of numerical libraries
such as NumPy and SciPy. The availability of such libraries makes Python
suitable for prototyping numerical methods. We demonstrate how PyDEC is used to
solve physical and topological problems through several concise examples.

"

A study of the existing linear algebra libraries that you can use from C++ (Une \'etude des biblioth\`eques d'alg\`ebre lin\'eaire utilisables en C++). (arXiv:1103.3020v1 [cs.MS])

A study of the existing linear algebra libraries that you can use from C++ (Une \'etude des biblioth\`eques d'alg\`ebre lin\'eaire utilisables en C++). (arXiv:1103.3020v1 [cs.MS]): "

A study of the existing linear algebra libraries that you can use from C++

"

Quantum algorithm for the Boolean hidden shift problem. (arXiv:1103.3017v1 [quant-ph])

Quantum algorithm for the Boolean hidden shift problem. (arXiv:1103.3017v1 [quant-ph]): "

The hidden shift problem is a natural place to look for new separations
between classical and quantum models of computation. One advantage of this
problem is its flexibility, since it can be defined for a whole range of
functions and a whole range of underlying groups. In a way, this distinguishes
it from the hidden subgroup problem where more stringent requirements about the
existence of a periodic subgroup have to be made. And yet, the hidden shift
problem proves to be rich enough to capture interesting features of problems of
algebraic, geometric, and combinatorial flavor. We present a quantum algorithm
to identify the hidden shift for any Boolean function. Using Fourier analysis
for Boolean functions we relate the time and query complexity of the algorithm
to an intrinsic property of the function, namely its minimum influence. We show
that for randomly chosen functions the time complexity of the algorithm is
polynomial. Based on this we show an average case exponential separation
between classical and quantum time complexity. A perhaps interesting aspect of
this work is that, while the extremal case of the Boolean hidden shift problem
over so-called bent functions can be reduced to a hidden subgroup problem over
an abelian group, the more general case studied here does not seem to allow
such a reduction.

"
Fitzpatrick Algorithm for Multivariate Rational Interpolation. (arXiv:1103.3176v1 [math.NA])
Published with Blogger-droid v1.6.7
PyDEC: Software and Algorithms for Discretization of Exterior Calculus. (arXiv:1103.3076v1 [cs.NA])
Published with Blogger-droid v1.6.7

miércoles, 16 de marzo de 2011

An\'alise Assint\'otica de Solu\c{c}\~oes de Equa\c{c}\~oes Difusivas N\~ao-Lineares via M\'etodos de Escalas M\'ultiplas. (arXiv:math/0605286v3 [math.AP] UPDATED)
Published with Blogger-droid v1.6.7
Variational Multiscale Proper Orthogonal Decomposition: Convection-Dominated Convection-Diffusion Equations. (arXiv:1103.2729v1 [math.NA])
Published with Blogger-droid v1.6.7
Software for Generation of Classes of Test Functions with Known Local and Global Minima for Global Optimization. (arXiv:1103.2695v1 [math.OC])
Published with Blogger-droid v1.6.7
Efficient Partition of N-Dimensional Intervals in the Framework of One-Point-Based Algorithms. (arXiv:1103.2657v1 [math.OC])
Published with Blogger-droid v1.6.7
Mixed finite elements for numerical weather prediction. (arXiv:1103.2440v1 [math.NA])
Published with Blogger-droid v1.6.7
A Finite Element Method for Fully Nonlinear and General Quasilinear Elliptic Problems. (arXiv:1103.2970v1 [math.NA])
Published with Blogger-droid v1.6.7
Full analysis of the Green's function for a singularly perturbed convection-diffusion problem in three dimensions. (arXiv:1103.2948v1 [math.NA])
Published with Blogger-droid v1.6.7

sábado, 12 de marzo de 2011

II Carnaval de Biología: Hacia los orgánulos celulares artificiales fabricados con polímeros

II Carnaval de Biología: Hacia los orgánulos celulares artificiales fabricados con polímeros: "


Imagina un futuro en el que los médicos introducirán orgánulos artificiales en ciertas células de tu cuerpo capaces de producir medicamentos cuando la célula lo requiera. Ese futuro es aún lejano, pero Shum et al. han publicado en la revista Angewandte Chemie el primer paso hacia la incorporación de orgánulos artificiales en una célula, la fabricación de una jerarquía de cápsulas anidadas cuyas paredes están formadas por pequeños polímeros capaces de almacenar agua en su interior. El siguiente paso será demostrar que estas cápsulas son capaces de atravesar la pared celular e incorporarse al interior de una célula viva como un elemento más de ella. Podría parecer lejano este momento, pero según nos cuentan Takamasa Harada y Dennis E. Discher, “Materials science: Bubble wrap of cell-like aggregates,” Nature 471: 172–173, 10 March 2011, quizás no esté tan lejos. Se han hecho eco del artículo técnico de H. C. Shum, Y.-J. Zhao, S.-H. Kim, and D. A. Weitz, “Multicompartment polymersomes from double emulsions,” Angewandte Chemie International Edition 50: 1648-1651, 2011 [gratis en la web]. Esta entrada participa en la II Edición del Carnaval de Biología, que se celebra durante este mes en el blog La muerte de un ácaro.









Los autores del artículo han utilizado técnicas de formación de burbujas utilizando microfluidos gracias a emulsiones dobles agua-aceite-agua (W/O/W o water-in-oil-in-water). El resultado son gotas de agua rodeadas por aceite que a su vez nadan en una solución de acuosa. El nuevo artículo también ha logrado vesículas multicompartimento que pueden almacenar substancias con una actividad diferente en su interior (tanto múltiples gotas unas dentro de otras, como gotas pegadas a otras cara con cara); la figura de abajo ilustra estas estructuras que recuerdan a pompas de jabón pegadas unas a otras.



La clave del logro alcanzado está en los ingredientes utilizados para fabricar el aceite, una mezcla de cloroformo y hexano, y las propiedades del copolímero utilizado (un copolímero es un polímero formado por uno o más cadenas de polímeros de diferente composición química que están conectados entre sí). La solubilidad de este copolímero es mayor en uno de los solventes (cloroformo) que en el otro (hexano). Además, su carácter anfifílico (posee dos cadenas poliméricas, una hidrofóbica y otra hidrofílica) hace que forme membranas; estas membranas se cierran encapsulando una gota de agua cuando el cloroformo (que es volátil) se evapora. Como la solubilidad del copolímero en el hexano restante es más baja que en la mezcla cloroformo-hexano original, estas gotas de agua encapsuladas pueden pegarse las unas a las otras y formar cápsulas dobles. El “pegamento” de estas burbujas dobles es bastante fuerte, según los autores.


El copolímero utilizado por los autores es biocompatible (PEG-b-PLA) y está aprobado por la Administración de EE.UU. (US Food and Drug Administration) para su uso como contenedor de medicamentos. De hecho, el PEG-b-PLA ya ha sido utilizado para la dosificación de terapias basadas en ácidos nucléicos (ARN de interferencia o oligonucleótidos antisentido) tanto a nivel celular como en animales vivos de laboratorio. Por supuesto, todavía quedan muchos problemas por resolver pero el logro de Shum et al. estimulará a muchos grupos de investigación en el desarrollo de aplicaciones biomédicas de estos orgánulos celulares artificiales.



Filed under: Biología, Ciencia, Medicina, Science Tagged: Biología, curiosidades, experimento, Medicina, Noticias "

Simulación de la NOAA para la propagación del tsunami de Honshu en el Océano Pacífico

Simulación de la NOAA para la propagación del tsunami de Honshu en el Océano Pacífico: "


Japón es un archipiélago cuyas cuatro islas más grandes son Hokkaidō, Honshu, Kyushu, y Shikoku. La segunda de ellas, Honshu ha sido la más afectada por el tsunami generado por el terromoto de grado 8’9 en la escala de Richter cuyo epicentro se ha situado en las coordenadas 38.322°N, 142.369°E, a las 05:46 UTC. Aproximadamente a unos 130 km al este de la ciudad de Sendai (la más dañada). Unos 25 minutos más tarde, el tsunami generado por el terremoto fue detectado por las boyas oceánicas DART®, en concreto por la boya 21418. La simulación que ha permitido obtener el vídeo que abre esta entrada ha sido desarrollada por la NOAA (National Oceanic and Atmospheric Administration) a partir de las medidas de cuatro boyas oceánicas (mostradas como puntos amarillos cercanos a Japón). Más información en inglés en “Tsunami Event - March 11, 2011 Honshu,” NOAA Main Event Page. El vídeo se puede descargar en formato .mov en mejor resolución aquí.


Supongo que estarás harto de leer información sobre el tsunami de Japón por doquier. Si aún te quedan fuerzas para leer algo más, en este blog te recomiendo “¿Interesado en tsunamis? Algunos enlaces de interés,” 31 enero 2008; y ““El tsunami de 2004 en Sumatra no fue de tipo solitón” gana el premio al mejor artículo en física de fluidos de 2008,” 7 abril 2009. Y por cierto, más información sobre el desastre en la wikipedia: “Terremoto y tsunami de Japón de 2011.”


¿Por qué es difícil predecir el próximo gran terremoto? Los sismógrafos modernos son muy sensibles y son capaces de calcular el lugar exacto donde se ha producido un terremoto, así como su magnitud. Sin embargo, los científicos aún son incapaces de predecir cuándo y dónde se producirá el próximo gran terremoto. Se ha avanzado mucho desde que Alfred Wegener propuso en 1915 la teoría de la tectónica de placas (que no fue aceptada hasta la década de 1960), la teoría que explica por qué se producen los terremotos. Sin embargo, ni la tecnología actual ni las teorías sismológicas más avanzadas pueden predecir el próximo gran terremoto. EE.UU., China y Japón tienen a cientos de científicos estudiando el problema, que aún se nos escapa. El método de pronóstico más estudiado se centra en los temblores de menor importancia que a menudo anuncian un terremoto de gran tamaño. Por desgracia, este método es propenso a las falsas alarmas, porque la gran mayoría de los temblores de menor importancia no son seguidos por otros mayores. Además, muchos grandes terremotos no fueron precedidos por temblores más pequeños. China predijo con éxito en 1975 un gran terremoto (7’3 grados) y logró evacuar a las personas en sus proximidades, pero en los últimos 20 años, ha emitido más de 30 falsas alarmas y no fueron capaces de predecir el terremoto de 2008 que devastó el este de Sichuán. Los científicos del USGS de EE.UU. también predijeron en 1985 un próximo gran terremoto en Parkfield, California, provocado por la famosa falla de San Andrés (desde 1850 esta zona había sufrido un terremoto de magnitud 6 o superior cada 22 años en promedio). Se estimó con una probabilidad del 95 por ciento que un terremoto de magnitud 6 o mayor sucedería en 1993. Pero el siguiente gran terremoto en Parkfield ocurrió en 2004, 11 años después del período de predicción inicial. Hay muchos métodos de predicción de terremotos propuestos, pero la verdad es que todavía la sismología está muy lejos de poder predecir a corto plazo el próximo gran terremoto. Nos lo ha contado John Horgan, “Japan earthquake demonstrates the limits—and power—of science,” Scientific American, Mar 11, 2011.



Filed under: Ciencia, Noticias, Physics, Science Tagged: Ciencia, Física, física computacional, Noticias, simulación, tsunami "

miércoles, 9 de marzo de 2011

jueves, 3 de marzo de 2011

Simulaciones por ordenador descubren la causa de la disminución de manchas solares en el último ciclo solar

Simulaciones por ordenador descubren la causa de la disminución de manchas solares en el último ciclo solar: "


El número de manchas solares observadas en la superficie del Sol varía de forma periódica, pasando por máximos y mínimos sucesivos. Tras el último ciclo solar, el 23, el Sol entró en un mínimo prolongado caracterizado por un campo polar magnético muy débil y gran número de días sin manchas solares. Las manchas solares son regiones fuertemente magnetizadas generadas por un mecanismo de dinamo que recrea campos magnéticos polares a través de los flujos de plasma hacia la superficie solar. Nandy et al. han desarrollado simulaciones por ordenador que demuestran que un flujo meridional rápido en la primera mitad de un ciclo, seguido por un flujo más lento en la segunda mitad, reproduce las características del mínimo de manchas solares en el ciclo 23, llegando a la conclusión de que los mínimos muy profundos están asociados con campos polares débiles. El artículo técnico es Dibyendu Nandy, Andrés Muñoz-Jaramillo, Petrus C. H. Martens, “The unusual minimum of sunspot cycle 23 caused by meridional plasma flow variations,” Nature 471: 80–82, 03 March 2011. Más información divulgativa en español en Jesús Cobas, “Resuelto el misterioso caso de la disminución de manchas solares,” Jesús Cobas, 02 marzo 2011, que ha traducido a Charles Q. Choi, “Mysterious Case of Missing Sunspots Solved,” SPACE.com, 02 March 2011. Y también en


Las observaciones telescópicas pioneras de Galileo Galilei y de Christopher Scheiner en el siglo XVII iniciaron la observación y contaje de las manchas solares. Unos 400 años de de observación han mostrado que sólo en el período 1645-1715 dC, conocido como el mínimo de Maunder, cuando casi no se observaron manchas solares, la serie temporal de las manchas solares muestra una variación cíclica pasando por épocas sucesivas de máxima y mínima actividad. El nuevo artículo ha desarrollado un nuevo modelo de la dinámica solar que resuelve las ecuaciones de evolución para las componentes toroidal y poloidal del campo magnético solar (escritas en la figura) con las que han estudiado más de 210 ciclos solares correspondientes a 1.860 años. Estas simulaciones estudian el efecto del cambio de los flujos meridionales mediante la introducción de fluctuaciones en el flujo meridional.


En la gráfica inferior izquierda de la figura, vn es la velocidad del flujo durante el mínimo de manchas solares del ciclo n, vn−1 es la velocidad durante la parte más temprana del ciclo, donde el númeor de manchas está creciendo, y vn−vn−1 denota el cambio en la velocidad de flujo entre las partes del ciclo donde el número de manchas cae y crece durante un ciclo. Los autores han observado una buena correlación entre la fuerza del campo polar y la diferencia vn−vn−1 con un coeficiente de correlación r = 0’87 con probabilidad P = 99’99%. La conclusión es que un cambio del flujo meridional interno de rápido a lento resulta en mínimos solares profundos. Los resultados del modelo son robustos con respecto a cambios razonables en la parámetros del sistema.


Estos resultados obtenidos gracias a simulaciones por ordenador deberán ser confirmados por los experimentos. Los autores esperan que el Observatorio de Dinámica Solar (SDO) de la NASA proporcionará datos más precisos sobre la estructura de los flujos de plasma en el interior del Sol que podrán confirmar y/o complementar los resultados de sus simulaciones.



Filed under: Astrofísica, Ciencia, Física, Noticias, Physics, Science Tagged: actividad solar, Astrofísica, Ciencia, Física, MagnetoHidroDinámica, modelo solar, Noticias "
A new numerical strategy with space-time adaptivity and error control for multi-scale gas discharge simulations. (arXiv:1103.0506v1 [math.NA])
Published with Blogger-droid v1.6.7
Convergence analysis of a proximal Gauss-Newton method. (arXiv:1103.0414v1 [math.OC])
Published with Blogger-droid v1.6.7

miércoles, 2 de marzo de 2011