martes, 30 de noviembre de 2010

Stable reconstructions in Hilbert spaces and the resolution of the Gibbs phenomenon. (arXiv:1011.6625v1 [math.NA])

Stable reconstructions in Hilbert spaces and the resolution of the Gibbs phenomenon. (arXiv:1011.6625v1 [math.NA]): "

We introduce a method to reconstruct an element of a Hilbert space in terms
of an arbitrary finite collection of linearly independent reconstruction
vectors, given a finite number of its samples with respect to any Riesz basis.
As we establish, provided the dimension of the reconstruction space is chosen
suitably in relation to the number of samples, this procedure can be
numerically implemented in a stable manner. Moreover, the accuracy of the
resulting approximation is completely determined by the choice of
reconstruction basis, meaning that the reconstruction vectors can be tailored
to the particular problem at hand.


An important example of this approach is the accurate recovery of a piecewise
analytic function from its first few Fourier coefficients. Whilst the standard
Fourier projection suffers from the Gibbs phenomenon, by reconstructing in a
piecewise polynomial basis, we obtain an approximation with root exponential
accuracy in terms of the number of Fourier samples and exponential accuracy in
terms of the degree of the reconstruction function. Numerical examples
illustrate the advantage of this approach over other existing methods.

"

lunes, 29 de noviembre de 2010

Numerical Solution of Riemann–Hilbert Problems: Painlevé II

Numerical Solution of Riemann–Hilbert Problems: Painlevé II: "

Abstract
We describe a new, spectrally accurate method for solving matrix-valued Riemann–Hilbert problems numerically. The effectiveness
of this approach is demonstrated by computing solutions to the homogeneous Painlevé II equation. This can be used to relate
initial conditions with asymptotic behavior.


  • Content Type Journal Article
  • DOI 10.1007/s10208-010-9079-8
  • Authors

    • Sheehan Olver, Oxford University Mathematical Institute, 24–29 St Giles’, Oxford, UK


"

Fast Matrix-Vector Multiplication in the Sparse-Grid Galerkin Method

Fast Matrix-Vector Multiplication in the Sparse-Grid Galerkin Method: "

Abstract
Sparse grid discretization of higher dimensional partial differential equations is a means to break the curse of dimensionality.
For classical sparse grids based on the one-dimensional hierarchical basis, a sophisticated algorithm has been devised to
calculate the application of a vector to the Galerkin matrix in linear complexity, despite the fact that the matrix is not
sparse. However more general sparse grid constructions have been recently introduced, e.g. based on multilevel finite elements,
where the specified algorithms only have a log-linear scaling. This article extends the idea of the linear scaling algorithm
to more general sparse grid spaces. This is achieved by abstracting the algorithm given in (Balder and Zenger, SIAM J. Sci.
Comput. 17:631, 1996) from specific bases, thereby identifying the prerequisites for performing the algorithm. In this way one can easily adapt
the algorithm to specific discretizations, leading for example to an optimal linear scaling algorithm in the case of multilevel
finite element frames.


  • Content Type Journal Article
  • DOI 10.1007/s10915-010-9438-2
  • Authors

    • Andreas Zeiser, Sekretariat MA 3-3, Institut für Mathematik, TU Berlin, Straße des 17. Juni 136, 10623 Berlin, Germany


"

Symmetric parareal algorithms for Hamiltonian systems. (arXiv:1011.6222v1 [math.NA])

Symmetric parareal algorithms for Hamiltonian systems. (arXiv:1011.6222v1 [math.NA]): "

The parareal in time algorithm allows to efficiently use parallel computing
for the simulation of time-dependent problems. It is based on a decomposition
of the time interval into subintervals, and on a predictor-corrector strategy,
where the propagations over each subinterval for the corrector stage are
concurrently performed on the processors. In this article, we are concerned
with the long time integration of Hamiltonian systems. Geometric,
structure-preserving integrators are preferably employed for such systems
because they show interesting numerical properties, in particular excellent
preservation of the total energy of the system. Using a symmetrization
procedure and/or a (possibly also symmetric) projection step, we introduce here
several variants of the original plain parareal in time algorithm [Lions, Maday
and Turinici 2001, Baffico, Bernard, Maday, Turinici and Zerah 2002, Bal and
Maday 2002] that are better adapted to the Hamiltonian context. These variants
are compatible with the geometric structure of the exact dynamics, and are easy
to implement. Numerical tests on several model systems illustrate the
remarkable properties of the proposed parareal integrators over long
integration times. Some formal elements of understanding are also provided.

"

domingo, 28 de noviembre de 2010

Instalar el market en el emulador

Instalar el market en el emulador: "

Muchos de nosotros, incluido yo siempre nos hemos preguntado porque no hemos podido usar el market en nuestro emulador de Android. La verdad que resultaba curioso no poder usar esta aplicación en tu emulador, para probar alguna aplicación.


Gracias a Varun’s ScratchPad y XDA han conseguido instalar el market, para ello los chicos han creado un manual dónde con sólo 8 pasos conseguimos el android market en nuestro emulador.


El tutorial es muy extenso, es por ello que he decidido utilizar el traductor de Google, para traducirlo al español, pero cómo sabemos que no esta bueno, también os dejamos el original.


Tutorial: Inglés, Español


Fuente: AndroidCommunity


"

viernes, 26 de noviembre de 2010

Científicos chinos logran almacenar 90 GB en un gramo de bacterias

Científicos chinos logran almacenar 90 GB en un gramo de bacterias: "

El equipo de investigadores


A diario recibimos noticias de una nueva tecnología que nos permite almacenar una mayor cantidad de información en un medio de almacenamiento físico, pero lo que acaban de lograr un grupo de investigadores de la Universidad de Hong Kong parece sacado de una película de ciencia ficción.


Se trata de lo que han denominado como un “sistema de almacenamiento en paralelo bacterial”, el que utiliza módulos de encriptación de datos (opera randomizando secuencias de ADN) y módulos de lectura/escritura. Los investigadores esperan lograr desarrollar una especie de estándar para el almacenamiento de datos en células vivas.



Para lograr almacenar grandes cantidades de información en un tan reducido espacio los investigadores trabajaron en un nuevo método de codificación de los datos, de manera tal que gracias a esa reducción sea posible introducirla como ADN modificado.


Lo interesante de la investigación es que ya han logrado almacenar 90 GB de información en un gramo de bacterias, aunque se muestran confiados en lograr almacenar hasta 2 TB en unos gramos de bacterias.


¿De qué me sirve utilizar una bacteria como método de almacenamiento?


Los investigadores creen que ha futuro será posible crear “discos biológicos” para el almacenamiento de datos. A su vez será posible insertar códigos de barra que puedan resultar útiles para la identificación entre organismos sintéticos y naturales.


Si un espermatozoide contiene 37,5 MB de información de ADN, ¿Cuál de los dos sistemas permite almacenar una mayor cantidad de información?


Link: CUHK IGEM 2010–Bioencryption (Vía Slashdot)




"

Descubierto un cuarto planeta jupiteriano alrededor de la estrella HR 8799 en la constelación de Pegaso

Descubierto un cuarto planeta jupiteriano alrededor de la estrella HR 8799 en la constelación de Pegaso: "


La estrella HR 8799 tiene un sistema planetario formado por cuatro planetas jupiterianos. El cuarto planeta (HR 8799e), el más cercano a la estrella, ha sido descubierto al analizar imágenes en el infrarrojo cercano obtenidas por el telescopio Keck II entre 2009 y 2010. Orbita su estrella a 14’5 ± 0’5 UA (unidades astronómicas) con un periodo de unos 50 años, rotando (como los otros tres planetas) en sentido antihorario. Comparando estos cuatro planetas jupiterianos con los cuatros planetas gaseosos (o gigantes) del sistema solar (ver figura de abajo) se observan ciertas similitudes, lo que puede llevar a pensar en la existencia de planetas rocosos en una órbita interior a este sistema planetario. El descubrimiento es importante porque nos permitirá contrastar las teorías sobre la formación de sistemas planetarios con un sistema planetario diferente al sistema solar. El artículo ha sido aceptado en Nature y se puede descargar gratis en C. Marois et al., “Images of a fourth planet orbiting HR 8799,” ArXiv, 22 Nov 2010 (Nature, In Press).




Filed under: Astronomía, Ciencia, Noticias, Science Tagged: Astronomía, Ciencia, curiosidades, exoplanetas, Noticias "

miércoles, 24 de noviembre de 2010

Surface Spline Approximation on SO(3). (arXiv:0911.1836v2 [math.CA] CROSS LISTED)

Surface Spline Approximation on SO(3). (arXiv:0911.1836v2 [math.CA] CROSS LISTED): "

The purpose of this article is to introduce a new class of kernels on SO(3)
for approximation and interpolation, and to estimate the approximation power of
the associated spaces. The kernels we consider arise as linear combinations of
Green's functions of certain differential operators on the rotation group. They
are conditionally positive definite and have a simple closed-form expression,
lending themselves to direct implementation via, e.g., interpolation, or
least-squares approximation. To gauge the approximation power of the underlying
spaces, we introduce an approximation scheme providing precise L_p error
estimates for linear schemes, namely with L_p approximation order conforming to
the L_p smoothness of the target function.

"

Computation of the shortest path between two curves on a parametric surface by geodesic-like method. (arXiv:1011.5320v1 [cs.CG])

Computation of the shortest path between two curves on a parametric surface by geodesic-like method. (arXiv:1011.5320v1 [cs.CG]): "

In this paper, we present the geodesic-like algorithm for the computation of
the shortest path between two objects on NURBS surfaces and periodic surfaces.
This method can improve the distance problem not only on surfaces but in
$\mathbb{R}^3$. Moreover, the geodesic-like algorithm also provides an
efficient approach to simulate the minimal geodesic between two holes on a
NURBS surfaces.

"

Publicado en Nature: Ratificada la existencia de la energía oscura gracias al test de Alcock-Paczynski

Publicado en Nature: Ratificada la existencia de la energía oscura gracias al test de Alcock-Paczynski: "


La expansión cósmica del universo se está acelerando; la causa es una fuerza “desconocida” llamada energía oscura. Descubierta gracias al uso de supernovas Ia como candelas para medir distancias cósmicas y verificada gracias al análisis de la radiación de fondo cósmico de microondas por el satélite WMAP, se ha ratificado gracias al test de Alcock-Paczynski (1979), un método geométrico que permite determinar la abundancia de la energía oscura y su ecuación de estado. Esta técnica estudia las distorsiones geométricas entre el movimiento observado en cuerpos lejanos y el movimiento estimado a partir del corrimiento Doppler de la luz observada. Marinoni y Buzzi han ratificado la existencia de la energía oscura gracias al estudio de 509 sistemas binarios galácticos y han determinado sus parámetros con un 68’3% de confianza estadística, en concreto, la ecuación de estado cumple que -0’85 < w < -1’12 (según WMAP-7 es w = -1’1 ± 0’14, al 68% C.L.) y la cantidad de materia oscura que es 0’60 < ΩΛ < 0’80 (según WMAP-7 es ΩΛ= 0’725 ± 0’016, al 68% C.L.). Un nuevo resultado tan preciso como los obtenidos gracias a las supernovas Ia. Un gran resultado técnico publicado en Christian Marinoni, Adeline Buzzi, “A geometric measure of dark energy with pairs of galaxies,” Nature 468: 539–541, 25 November 2010, que nos desglosa Eugenie Samuel Reich, “Dark energy on firmer footing. Geometric test supports the existence of a key thread in the fabric of the Universe,” News, Nature, Published online 24 November 2010.


Un sistema galáctico binario, formado por dos galaxias A y B en rotación mutua, con un corrimiento al rojo medio de z y una separación angular de θ, está orientado respecto a un observador terrestre con cierto ángulo. Estudiando muchos sistemas binarios se puede construir el histograma de las posibles orientaciones. Uno espera que esta distribución sea completamente al azar, una distribución con simetría esférica en la que todas las orientaciones son igualmente probables. Pero en un universo dominado por la energía oscura se observará una cierta asimetría en las orientaciones posibles, que tendrá una orientación preferente en la dirección del observador (ver la figura de abajo). Dicha asimetría es la que han determinado Marinoni y Buzzi para galaxias muy distantes, a miles de millones de años luz de distancia, gracias al proyecto DEEP2. Futuros estudios aplicando la misma técnica a los datos obtenidos con el futuro Telescopio Espacial Euclídes de la ESA podrán mejorar la precisión de este tipo de medidas hasta el punto de superar la precisión obtenida con supernovas Ia, según Marinoni.




Filed under: Astrofísica, Astronomía, Ciencia, Física, Noticias, Physics, Science Tagged: Astrofísica, Astronomía, Ciencia, curiosidades, Energía oscura, Física "

Finite volume methods for unidirectional dispersive wave models. (arXiv:1011.4589v1 [physics.class-ph] CROSS LISTED)

Finite volume methods for unidirectional dispersive wave models. (arXiv:1011.4589v1 [physics.class-ph] CROSS LISTED): "

We extend the framework of the finite volume method to dispersive
unidirectional water wave propagation in one space dimension. In particular we
consider a KdV-BBM type equation. Explicit and IMEX Runge-Kutta type methods
are used for time discretizations. The fully discrete schemes are validated by
direct comparisons to analytic solutions. Invariants conservation properties
are also studied. Main applications include important nonlinear phenomena such
as dispersive shock wave formation, solitary waves and their various
interactions.

"

lunes, 22 de noviembre de 2010

Special Issue on The Mathematics of Finite Elements and Applications
Published with Blogger-droid v1.6.5
Splitting positive definite mixed element methods for pseudo-hyperbolic equations
Published with Blogger-droid v1.6.5
Erdos Distance Problem SOLVED!
Published with Blogger-droid v1.6.5
Las redes Wi-Fi dañan a los árboles y el amor en el mundo ¿por qué no?
Published with Blogger-droid v1.6.5

sábado, 20 de noviembre de 2010

Amazon Announces Cluster GPU Instance for Cloud Computing
Published with Blogger-droid v1.6.5
Georgia Tech on the Road to Exascale at SC10
Published with Blogger-droid v1.6.5
The 100GigE Internet Is Coming
Published with Blogger-droid v1.6.5
Exaflops May Require Reinvention of Computing
Published with Blogger-droid v1.6.5

viernes, 19 de noviembre de 2010

Tu cerebro tiene más conexiones que todos los computadores del mundo juntos

Tu cerebro tiene más conexiones que todos los computadores del mundo juntos: "

El cerebro humano parece que nunca dejará de sorprendernos. Ahora, porque un grupo de investigadores de la Universidad de Stanford aplicó una nueva técnica de formación de imágenes cerebrales, descubrió que las sinapsis en realidad se asemejan más a microprocesadores que a simples interruptores de corriente. Y que por cierto, no son pocos: tu cerebro tiene (o debiera tener, al menos, si es que lo has tratado bien) miles de millones de conexiones neuronales.


La técnica -descrita en los resultados publicados en la última edición del periódico Neuron- fue denominada tomografía de selección, que es un sistema para tomar láminas del cerebro de un ratón para después navegar por ellas en 3D. Y ¿cómo? Introdujeron en el tejido una proteína fluorescente que hace brillar las neuronas más grandes, facilitando la visualización de la extensa red de conexiones.


“Una sinapsis, por sí misma, se parece más a un microprocesador -con elementos de almacenamiento de memoria y procesamiento de información- que a un mero mecanismo de apagado y encendido. De hecho, una sinapsis puede contener del orden de 1.000 conexiones a escala molecular. Un solo cerebro humano tiene más conexiones que todos los computadores y routers y conexiones de internet de la Tierra”, explicó Stephen Smith, profesor de fisiología molecular y celular y cabecera del estudio.


Los investigadores de la mencionada Escuela de Medicina ya patentaron la técnica aplicada y seguirán estudiando las sinapsis. Mientras siguen en eso, acá podemos revisar el video que explora la superficie de la piamadre de la corteza cerebral de un ratón a través de sus seis capas:


Click aqui para ver el video.


Link: Human brain has more switches than all computers on Earth (Cnet)





e-planning.net ad


"

jueves, 18 de noviembre de 2010

Astronomers find first planet from another galaxy (w/ Video)

Astronomers find first planet from another galaxy (w/ Video): "(PhysOrg.com) -- An exoplanet orbiting a star that entered our Milky Way from another galaxy has been detected by a European team of astronomers using the MPG/ESO 2.2-meter telescope at ESO's La Silla Observatory in Chile. The Jupiter-like planet is particularly unusual, as it is orbiting a star nearing the end of its life and could be about to be engulfed by it, giving tantalizing clues about the fate of our own planetary system in the distant future."
Steve Wozniak predice que Android será más masivo que iOS
Published with Blogger-droid v1.6.5
The mental time line: an analogue of the mental number line in the mapping of life events
Published with Blogger-droid v1.6.5
Computer simulation of charged hard spherocylinders at low temperatures
Published with Blogger-droid v1.6.5
Local-Structure-Preserving Discontinuous Galerkin Methods with Lax-Wendroff Type Time Discretizations for Hamilton-Jacobi Equations
Published with Blogger-droid v1.6.5

miércoles, 17 de noviembre de 2010

CERN atrapó por primera vez una molécula de antimateria

CERN atrapó por primera vez una molécula de antimateria: "

Cuando uno escucha la palabra “antimateria” y no conoce mucho de física, piensa que se trata de algo de la ciencia ficción. ¿Qué es, el gemelo malvado de la materia?


Pues eso es lo que están investigando en el CERN, donde se logró por primera vez crear y capturar una molécula de antimateria de hidrógeno.


Según la teoría, tras el big bang se creó una cantidad igual de materia que de antimateria en el universo. Sin embargo, la antimateria está casi ausente en nuestro mundo y es básicamente un misterio.


Moléculas de antihidrógeno habían sido creadas antes en laboratorios (en 2002 en el mismo CERN), pero esos átomos existieron tan sólo por un par de microsegundos, ya que cuando una antimolécula se junta con una molécula normal, ambas se aniquilan en un estallido de rayos gamma.


La capacidad de atrapar una antimolécula podría permitir una serie de experimentos respecto a la antimateria, que podrían explicar por qué no vemos la antimateria más seguido en el mundo que habitamos.



Esa investigación, por su parte, podría revolucionar la física moderna. Si se descubre que la antimateria es diferente a lo que la teoría dicta, podría llegar a desafiar al modelo estándar.


Para crear un antihidrógeno y evitar que se aniquilara inmediatamente, los científicos enfriaron antiprotones y los comprimieron en una pequeña nube. Luego juntaron estos antiprotones fríos con una nube similar de positrones, causando que ambos tipos de partículas se unieran creando un antihidrógeno.


Todo esto sucedió dentro de un contenedor magnético que mantiene aislados a los átomos de antihidrógeno. Esta trampa magnética usa unos súper magnetos que evitan que los átomos se dispersen hacia los bordes del contenedor, que están hechos de materia normal y aniquilarían la antimateria si llegasen a tocarse.


El CERN ha logrado que los antihidrógenos existan por poco más de un décimo de segundo, y aunque suena a muy poco tiempo, es mucho más de lo que se podía hacer hasta ahora. Si los investigadores logran estabilizar los átomos de antimateria lo suficiente como para experimentar con ellos, los descubrimientos podrían ser tremendos.


Links:

- CERN reserarchers trap antimatter hydrogen molecules for the first time (PopSci)

- Antihydrogen trapped for first time (EurekAlert)

- Antimatter held for questioning (Nature)




"

Ya es oficial: el supercomputador Tianhe-1A le gana a todos

Ya es oficial: el supercomputador Tianhe-1A le gana a todos: "

Hoy fue publicado el listado de los 500 principales supercomputadores del mundo, que confirmó que el ejemplar chino Tianhe-1A que se estrenó hace un par de semanas, barrió con todos los potentes equipos existentes hasta el momento.


Con una marca de 2,57 petaflops, pulverizó el registro del anterior monarca -el CRAY XT5 Jaguar- que procesa hasta 1,76 trillones de cálculos matemáticos por segundo.


Pese a verse destronado del primer lugar y que ahora sólo cinco de los diez equipos más rápidos están ubicados en Estados Unidos, este país sigue teniendo la gran mayoría de los supercomputadores más potentes. Ostenta 275 dentro del listado, seguido de China que luce recién 42, pero con el más importante.


Pero como a los “gringos” les dolió la cachetada asiática, cabe recordar que ya anunciaron un nuevo monstruo que destrone al Tianhe-1A en los próximos años.


Revisa la lista del Top 10 tras el salto:




  1. Tianhe-1A – 2.57 petaflops

  2. XT5 Jaguar – 1.76 petaflops

  3. Nebulae – 1.27 petaflops

  4. Tsubame 2.0 – 1.19 petaflops

  5. XE6 Hopper – 1.05 petaflops

  6. Tera 100 – 1.05 petaflops

  7. Roadrunner – 1.04 petaflops

  8. Kraken XT5 – 0.83 petaflops

  9. Jugene – 0.82 petaflops

  10. Cielo – 0.81 petaflops


Link: China’s Tianhe-1A crowned supercomputer king (BBC)




"

martes, 16 de noviembre de 2010

Fast Multiplication of Matrices with Decay. (arXiv:1011.3534v1 [cs.DS])

Fast Multiplication of Matrices with Decay. (arXiv:1011.3534v1 [cs.DS]): "

A fast algorithm for the approximate multiplication of matrices with decay is
introduced; the Sparse Approximate Matrix Multiply (SpAMM) reduces complexity
in the product space, a different approach from current methods that economize
within the matrix space through truncation or rank reduction. Matrix truncation
(element dropping) is compared to SpAMM for quantum chemical matrices with
approximate exponential and algebraic decay. For matched errors in the
electronic total energy, SpAMM is found to require fewer to far fewer floating
point operations relative to dropping. The challenges and opportunities
afforded by this new approach are discussed, including the potential for high
performance implementations.

"

An efficient method for the incompressible Navier-Stokes equations on irregular domains with no-slip boundary conditions, high order up to the boundary. (arXiv:1011.3589v1 [math.NA])

An efficient method for the incompressible Navier-Stokes equations on irregular domains with no-slip boundary conditions, high order up to the boundary. (arXiv:1011.3589v1 [math.NA]): "

Common efficient schemes for the incompressible Navier-Stokes equations, such
as projection or fractional step methods, have limited temporal accuracy as a
result of matrix splitting errors, or introduce errors near the domain
boundaries (which destroy uniform convergence to the solution). In this paper
we recast the incompressible (constant density) Navier-Stokes equations (with
the velocity prescribed at the boundary) as an equivalent system, for the
primary variables velocity and pressure. We do this in the usual way away from
the boundaries, by replacing the incompressibility condition on the velocity by
a Poisson equation for the pressure. The key difference from the usual
approaches occurs at the boundaries, where we use boundary conditions that
unequivocally allow the pressure to be recovered from knowledge of the velocity
at any fixed time. This avoids the common difficulty of an, apparently,
over-determined Poisson problem. Since in this alternative formulation the
pressure can be accurately and efficiently recovered from the velocity, the
recast equations are ideal for numerical marching methods. The new system can
be discretized using a variety of methods, in principle to any desired order of
accuracy. In this work we illustrate the approach with a 2-D second order
finite difference scheme on a Cartesian grid, and devise an algorithm to solve
the equations on domains with curved (non-conforming) boundaries, including a
case with a non-trivial topology (a circular obstruction inside the domain).
This algorithm achieves second order accuracy (in L-infinity), for both the
velocity and the pressure. The scheme has a natural extension to 3-D.

"

Domain Decomposition method on GPU cluster. (arXiv:1011.3318v1 [hep-lat])

Domain Decomposition method on GPU cluster. (arXiv:1011.3318v1 [hep-lat]): "

Pallalel GPGPU computing for lattice QCD simulations has a bottleneck on the
GPU to GPU data communication due to the lack of the direct data exchanging
facility. In this work we investigate the performance of quark solver using the
restricted additive Schwarz (RAS) preconditioner on a low cost GPU cluster. We
expect that the RAS preconditioner with appropriate domaindecomposition and
task distribution reduces the communication bottleneck. The GPU cluster we
constructed is composed of four PC boxes, two GPU cards are attached to each
box, and we have eight GPU cards in total. The compute nodes are connected with
rather slow but low cost Gigabit-Ethernet. We include the RAS preconditioner in
the single-precision part of the mixedprecision nested-BiCGStab algorithm and
the single-precision task is distributed to the multiple GPUs. The benchmarking
is done with the O(a)-improved Wilson quark on a randomly generated gauge
configuration with the size of $32^4$. We observe a factor two improvment on
the solver performance with the RAS precoditioner compared to that without the
preconditioner and find that the improvment mainly comes from the reduction of
the communication bottleneck as we expected.

"

Minimizing Communication for Eigenproblems and the Singular Value Decomposition. (arXiv:1011.3077v1 [math.NA])

Minimizing Communication for Eigenproblems and the Singular Value Decomposition. (arXiv:1011.3077v1 [math.NA]): "

Algorithms have two costs: arithmetic and communication. The latter
represents the cost of moving data, either between levels of a memory
hierarchy, or between processors over a network. Communication often dominates
arithmetic and represents a rapidly increasing proportion of the total cost, so
we seek algorithms that minimize communication. In \cite{BDHS10} lower bounds
were presented on the amount of communication required for essentially all
$O(n^3)$-like algorithms for linear algebra, including eigenvalue problems and
the SVD. Conventional algorithms, including those currently implemented in
(Sca)LAPACK, perform asymptotically more communication than these lower bounds
require. In this paper we present parallel and sequential eigenvalue algorithms
(for pencils, nonsymmetric matrices, and symmetric matrices) and SVD algorithms
that do attain these lower bounds, and analyze their convergence and
communication costs.

"

A probabilistic algorithm approximating solutions of a singular PDE of porous media type. (arXiv:1011.3107v1 [math.PR])

A probabilistic algorithm approximating solutions of a singular PDE of porous media type. (arXiv:1011.3107v1 [math.PR]): "

The object of this paper is a one-dimensional generalized porous media
equation (PDE) with possibly discontinuous coefficient $\beta$, which is
well-posed as an evolution problem in $L^1(\mathbb{R})$. In some recent papers
of Blanchard et alia and Barbu et alia, the solution was represented by the
solution of a non-linear stochastic differential equation in law if the initial
condition is a bounded integrable function. We first extend this result, at
least when $\beta$ is continuous and the initial condition is only integrable
with some supplementary technical assumption. The main purpose of the article
consists in introducing and implementing a stochastic particle algorithm to
approach the solution to (PDE) which also fits in the case when $\beta$ is
possibly irregular, to predict some long-time behavior of the solution and in
comparing with some recent numerical deterministic techniques.

"

lunes, 15 de noviembre de 2010

Estudio: La gente inteligente es nocturna y duermen más tarde

Estudio: La gente inteligente es nocturna y duermen más tarde: "

Aunque se dice que la falta de sueño en los seres humanos y los animales puede llevar a la obesidad, presión arterial alta y una reducción en su expectativa de vida, hay pruebas que las personas con I.Q. alto tienden a ser más activos durante la noche y duermen más tarde.


Una amplia investigación de Satoshi Kanazawa y sus colegas de la Escuela de Economía y Ciencia Política de Londres han descubierto diferencias significativas en las preferencias del sueño-tiempo entre las personas dependiendo de su coeficiente intelectual. Las personas con mayor coeficiente intelectual son más propensos a ser noctámbulos, mientras que aquellas con menor coeficiente intelectual tienden a restringir sus actividades en el día – prefieren ir a la cama temprano y ser madrugadores.


Según Kanazawa, nuestros ancestros eran por lo general diurnos, pero un cambio hacia actividades nocturnas es un “una nueva preferencia evolutiva” del tipo de persona que normalmente se encuentran entre individuos más inteligentes, lo que se refleja en un mayor nivel de complejidad cognitiva entre las personas que ejercen una ocupación, profesión, religión o manera de vivir.


Sin embargo, no todo está bien con los que se queman las pestañas. Las personas que están dispuestas a quedarse hasta tarde son menos fiables y más propensas a sufrir de depresión, adicciones y trastornos de la alimentación, en comparación con los madrugadores que son relativamente más conscientes.


Aparentemente las preferencias de sueño en algunos casos obedecen a factores genéticos. Por ejemplo, en el caso de los animales: las vacas duermen con los ojos abiertos, algunas aves pueden dormir durante el vuelo o de pie, los delfines duermen con la mitad del cerebro despierto y los murciélagos necesitan 19,9 horas de sueño cada 24 horas.


Link: Smart People Stay Up Late and Sleep Late (Asylum, vía nasheliux)




"