The Túzaro

On the importance of spectral match when characterising organic solar cells

Posted in Divulgación, Scientific topics by thetuzaro on 25 abril 2015

Photovoltaic devices are usually characterised using simulated sunlight. A solar simulator consists essentially on a light source, often a Xe arc lamp, and a set of filters with the aim that the spectral distribution of the emitted light is as close as possible to the standard AM1.5g spectrum, and its integrated intensity is 1000 W/m^2. Figure 1 shows the AM1.5g solar spectrum at an integrated intensity of 1000 W/m^2, together with an idealised solar simulator spectrum using the irradiance spectrum of a black body at 5700 K.

In the day-to-day lab life, setting up your experiment so it matches these two requirements (spectral distribution and integrated intensity) is done by first, getting an spectral-class A solar simulator to have the peace of mind that the spectral distribution of the emitted light is quite close to the AM1.5g spectrum and, second, using a calibrated reference solar cell to set the intensity of the lamp in your simulator and the distance between the simulator and your devices so the light intensity that reaches the cells is 1000 W/m^2.


Figure 1. Spectral irradiance of the AM1.5g standard solar spectrum (red) and of an ideal solar simulator, produced with a 5700 K blackbody irradiance spectrum (black).

Spectral class A means that the integrated intensity of the light emitted by the solar simulator falls within \pm25% of the integrated intensity of the AM1.5g standard spectrum when considered in wavelenegth intervals. That is, as the integrated irradiance of the AM1.5g spetrum in the wavelength interval from 500 to 600 nm is 19.9% of the total spectral irradiance (i.e. of the 1000 W/m^2), the integrated irradiance of the solar simulator in the same wavelength interval can have any value from 14.9% to 24.9% of its total integrated irradiance. If this condition is met for a set of wavelength intervals in the 300 to 1400 nm  range the solar simulator can be considered Class A in terms of spectral match to the AM1.5g. Note that a Spectral Class A solar simulator, even though it is in the top-tier of the solar simulator classification, can still be significantly different to the AM1.5g spectrum.

To verify that, in addition to having the correct spectral shape, the light intensity falling on the solar cell under test is actually 1000 W/m^2, a reference solar cell is usually employed whose yield in terms of power conversion efficiency (PCE) and short-circuit current (J_{sc}) is calibrated by the manufacturer against the AM1.5g spectrum (or as close to that as humanely possible). In other words, when you buy a reference solar cell, the manufacturer tells you how much J_{sc} and PCE it should yield under AM1.5g at 1000 W/m^2. Accordingly you adjust the distance between reference cell and simulator, as well as the intensity of the solar simulator lamp so the reference cell yields the appropriate J_{sc} and PCE.

Most often, Si solar cells are used as reference cells and that is mostly fine whenever the devices under study have a spectral response similar to that of Si solar cells, especially in terms of energy band gap , which for Si is around 1100 nm. However, when characterising organic cells, which tend to have larger energy band gaps, using a Si reference cell can lead to large measurement errors. In the following paragraphs I will try to illustrate how these errors can arise.


Figure 2. The ideal simulator of Figure 1 (black) and two slightly different simulator A (red) and B (blue).

Let’s assume that we want to compare the results be obtain with the ideal solar simulator of Figure 1, with what two other research groups A and B get using their solar simulators, which have slightly different emission spectra in the range of interest (300-1100 nm for a Si reference cell). For the record, I have produced these two spectra by adding a straight line with a positive/negative slope to the emission spectrum of the ideal simulator (Figure 2).

In a real situation, we would set the lamp intensities and simulator-cell distances so the Si reference cell yields in all three labs the same J_{sc} provided by the reference cell manufacturer. This is equivalent to multiplying the solar simulator spectrum with the external quantum efficiency (EQE) of the reference cell (an example of which is shown with a black line in Figure 3), and integrate over the whole wavelength range to obtain J_{sc}. If we do this process with the spectra of simulators A and B in Figure 2, we end up with the relative intensities of the three spectra shown in Figure 4. Simulator A has a weaker intensity from 400 to, say, 750 nm that is compensated by its more intense emission from 750 to 1100 nm, and viceversa with Simulator B, so the reference solar cell gives the same J_{sc} or PCE in both systems.


Figure 3. External quantum efficiency of a Si solar cell (black) and of the same cell under a KG5 optical filter (red).

Now that the systems are set up, let’s characterise our organic solar cell. Let’s assume, for example, that it is based on PTB7 polymer, whose energy band gap is something around 750 nm. Our organic solar cell only sees light from 300 to 750 nm, and is transparent from roughly 750 nm onwards. This is illustrated with a yellow-shaded area in Figure 4. How close to each other (and to the ideal simulator and the AM1.5g standard, for that matter) are both simulators A and B in terms of the emission spectrum in the relevant range? Figure 4 shows the spectrum of Simulator A is below that of Simulator B on the whole range considered, i.e. there is a clear bias in favor of Simulator B even though all simulators were calibrated with a Si cell to give 1000 W/m^2. In the example of Figure 4, there is indeed a 12% difference in integrated area between both curves in the yellow-shaded range. So, our friends from Lab B will consistently get \sim 12% better results from their PTB7-based cells than our friends from Lab A, and also better than what they would get under the actual AM1.5g spectrum (or, equivalently, our ideal solar simulator).


Figure 4. Spectral irradiance of the three solar simulators (ideal in black, A in red and B in blue) after intensity normalisation using a Si reference cell. The spectral region relevant for PTB7-based solar cells is highlighted in yellow.

To solve or at least minimise this discrepancy, there are several strategies that can be followed. One of them is the use of the so-called mismatch factor. This is a factor that results from comparing the short circuit current that the device under test and the reference cell would give when illuminated by the AM1.5g standard on one hand and by a particular solar simulator on the other. This factor can be multiplied to the J_{sc} resulting from the experiment to get a corrected value. The closer the resulting mismatch factor is to unity, the closer the obtained results would be to what we would have obtained if the cell had been measured under the AM1.5g standard itself. On the contrary, the more different the spectral distribution of the emitted simulated sunlight and the AM1.5g are, and/or the more different the spectral responsivity of the reference cell and the device under test are, the more different from unity the mismatch factor would be, and correspondingly, the larger the correction that would have to be made to J_{sc}.

Another, quite practical way of reducing the mismatch errors consists on using a reference cell for the calibration of the solar simulator lamp intensity that is better suited for the particular device under test. As said above, the mismatch factor compares the light sources and also the spectral responsivity of the reference and test cells. The former is something about which labs normally cannot do much: once you buy your Class A solar simulator, that’s about it unless you can get a new filter that makes its emission spectrum even closer to the AM1.5g standard. However, if the spectral responsivity of your Si solar cell is not similar to that of the device you are trying to characterise, you can always use a different reference cell whose spectral responsivity matches better that of your device. This results in a experimental setup whose mismatch factor is closer to unity.

A usual alternative reference cell employed often -but by no means always- in the organic photovoltaic community is a Si reference cell with a KG5 optical filter that basically elminates any light of wavelenghts above 750 nm, the light not seen by PTB7-based devices. Using such a cell to set the intensity of our simulators A and B, again by multiplying the emission spectra by the EQE of the KG5-filtered reference cell (red line in Figure 3), integrating, and adjusting the intensities until all simulators give the same  J_{sc}, we end up with the results of Figure 5. The light intensity for wavelengths above 750 nm is very different in both systems now, but we don’t really care because our PTB7-based solar cell does not see that light at all. However, in the wavelength range of interest, the spectral match is much better now, and the integrated intensity difference between A, B, and the ideal simulator (which is very, very similar to the AM1.5g spectrum) is now only 1%.


Figure 5. Spectral irradiance of the three solar simulators (ideal in black, A in red and B in blue) after intensity normalisation using a KG5-filtered Si reference cell. The spectral region relevant for PTB7-based solar cells is highlighted in yellow.

Is using a calibrated, KG5-filtered reference cell the optimal solution? Well, depends on the particular solar simulator and device under test. If your simulator is excellent and matches perfectly the AM1.5g spectrum, just like the ideal one of Figure 1, it would not matter what reference cell you use, although finding such a solar simulator is not a trivial task. If your simulator is not perfect, using a KG5-filtered Si solar cell will improve your mismatch factor, but may not be enough to make it exactly equal to unity. On the other hand, a KG5-filtered calibrated solar cell is useful if its spectral responsivity is close to that of the device under test. Otherwise, another reference whose spectral responsivity matches the device under test has to be found (like, for example, a Si cell filtered with a different optical filter).

References and further reading.

The spectral mismatch factor. Application Note 51 and Simulation of Solar Irradiation by Newport Corporation.

Toward reliable and accurate evaluation of polymer solar cells based on low band gap polymers, Long Ye et al., J. Mater. Chem. C, 3, 564 (2015)

Measurement and Characterization of Solar Cells and Modules, by K. Emery, in Handbook of Photovoltaic Science and Engineering, eds. A. Luque and D. Hegedus, John Wiley and Sons, West Sussex (2003)

Accurate Measurement and Characterization of Organic Solar Cells, V. Shrotriya et al., Adv. Funct. Mater., 16, 2016 (2006)

Las fases de la Luna y la agricultura: por qué no me lo creo

Posted in Divulgación, Lecturas y reflexiones by thetuzaro on 7 febrero 2013

Mirar la Luna en una noche de verano, mientras se toma uno una cervecita, o lo que cada cual quiera, es una esas actividades relajantes que consiguen que carguemos las pilas después de la jornada laboral y que pensemos, aunque sea por un momento, que el mundo no está tan mal a pesar de todo. Si además la Luna está llena, ves su reflejo en el océano, y te encuentras en Gran Canaria en buena compañía ya ni te cuento lo placentero que resulta. Es normal que la Luna, con esa especie de cara que hacen las sombras de su superficie, con sus cambios de fase, haya encandilado a la humanidad desde que diéramos nuestros primeros pasos en el planeta, y que haya dado pie a la invención de mitos y leyendas. El acervo popular incorpora bastantes mitos sobre la influencia de la Luna en las personas como los hombres lobo y los rumores de que en Luna llena hay más partos, suicidios y crímenes. En los últimos años, y gracias a las redes sociales, he recibido varias veces un mensaje que contiene una de estas tradiciones: cómo utilizar las fases de la Luna para sembrar una planta de modo que se optimice su desarollo. Sin embargo, yo no me creo que esa influencia exista o, al menos, que sea como la pintan, y en esta entrada os voy a explicar por qué.

La influencia de la Luna en las cosechas según la cuentan


Figura 1. Uno de los carteles explicativos que se pueden encontrar en internet del ciclo de la Luna y su supuesta influencia en las plantas. (Haz clic sobre la imagen para ampliarla y que se pueda leer).

Como suele ocurrir con muchas otras tradiciones, no hay un consenso claro sobre cuál es la supuesta influencia de la Luna en las cosechas. No obstante, en líneas generales la receta es la que se puede ver aquí, y que reproduzco en la Figura 1. Brevemente, la idea es que, puesto que la Luna es responsable de las mareas en los mares, y como las plantas tienen una savia, que transporta los nutrientes, y que es líquida, la Luna debe de influir también en la savia. Así que hay que sacar partido de los movimientos de la savia en el interior de la planta. Si uno quiere plantar tomates, tiene que hacerlo en luna llena (o, en algunas versiones de esta tradición, en cuarto creciente), que es cuando el satélite atrae más al agua, y la savia sube a los tomates. Si uno quiere plantar patatas, tiene que hacerlo en luna nueva (o, también, cuarto menguante, según dónde mire uno), que la Luna atrae menos, y la savia se va hacia abajo, hacia las patatas.

A primera vista, parece que la cosa tiene sentido, al fin y al cabo la savia es principalmente agua, y puede parecer conveniente que, si uno está cultivando tomates, intente que estén bien nutridos haiendo que la savia pase más tiempo en su entorno gracias a la atracción lunar. Sin embargo, si lo piensa uno con un poco más de detenimiento, esta teoría tiene varios fallos y plantea algunas cuestiones de difícil resolución. Antes de ocuparnos de estas cuestiones, tenemos que repasar cómo se producen las mareas y cuál es la influencia de la Luna en ellas, y también qué son las fases de la Luna, porque es en lo que se basa esta tradición que estamos comentando.

Las mareas: un resumen

Que nadie se asuste. No es necesario que os abrochéis los cinturones ni que recojáis a las criaturas, porque, aunque vamos a hablar de la Ley de la Gravitación Universal (más conocida popularmente como Ley de la Gravedad), lo vamos a hacer en un tono ligero para todos los públicos.

Como todos sabéis, la Tierra, este bello planeta en el que vivimos, forma parte del Sistema Solar, y se encuentra atrapado por el campo gravitatorio del Sol. “¿¡Qué!?”, me parece escuchar al fondo de la sala. Pues que el Sol atrae a la Tierra (y viceversa) de manera que esta última no puede salir disparada en línea recta, que es lo que quisiera, sino que da una vuelta al año alrededor del Sol. Del mismo modo, la Luna está atrapada en el campo gravitatorio de la Tierra, y da una vuela al planeta cada 27.3 días. En general, la atracción gravitatoria entre dos objetos es tanto más grande cuanto mayores sean las masas de estos objetos, y tanto más pequeña cuanto más lejos entre sí estén estos objetos. Concretamente, la fuerza de la gravedad disminuye con el cuadrado de la distancia. Esto significa que si separamos los objetos, de manera que la distancia entre ellos es el doble de la que era anteriormente, la fuerza gravitatoria entre ellos es la cuarta parte de la que era antes de separarlos.

Mareas solo luna

Figura 2. Efecto de la atracción gravitatoria de la Luna sobre el agua de la superficie de la Tierra.

No sólo la Tierra atrae a la Luna, sino que la Luna atrae a la Tierra con una fuerza de igual magnitud, pero de sentido opuesto. A esto se le conoce como Tercera Ley de Newton. La parte sólida de la Tierra es rígida y no es fácil de deformar por efecto de la atracción gravitatoria de la Luna (aunque algo sí se deforma, pero para el caso presente lo podemos despreciar).   Sin embargo, el agua de los océanos sí es fácil de deformar, como sabrá cualquiera que haya jugado con un globo lleno de agua. Puesto que, como hemos dicho más arriba, la Luna atrae con más fuerza al agua que tiene más cerca que a la que tiene más lejos de sí, el agua que cubre la superficie de la Tierra acaba teniendo una forma abombada, como la que he dibujado con regular éxito en la Figura 2. Es algo parecido a un balón de rugby que apuntara permenentemente hacia la Luna. Por supesto, la escala de la Figura 2 está exagerada para que la cosa se vea mejor. Cuando la Tiera gira sobre su eje una vez al día, también gira con respecto al balón de rugby. Para alguien que esté quieto a la orilla del mar es como si el balón de rugby acuático girara con respecto a él una vuelta completa al día (más o menos) y puede ver cómo el nivel del agua sube y baja un par de veces al día.

Las fases de la Luna


Figura 3. Diagrama de las fases de la Luna.

Ahora que hemos visto cómo se producen las mareas, que es uno de los ingredientes de la hipótesis agrícola que estoy criticando aquí, vamos a recordar (porque todo el mundo lo sabe, ¿verdad?) qué son y cómo se producen las fases de la Luna. La Luna no emite ninguna luz que podamos ver. Si somos capaces de admirarla en lo alto del firmamento es porque refleja parte de la luz del Sol que indice sobre ella. Desde nuestro punto de vista [1], el Sol y la Luna giran a nuestro alrededor a distintas velocidades, de modo que la Luna está a veces iluminada por delante (según la vemos nosotros), por detrás o por los lados, como intento explicar en la Figura 3 [2]. Así, se produce luna llena cuando la cara de la Luna que vemos desde la Tierra está totalmente iluminada por el Sol, luna nueva cuando el Sol ilumina la parte de atrás de la Luna, la que nunca vemos, y los cuartos creciente y menguante son las situaciones de transición entre las lunas llena y nueva, es decir, cuando el Sol ilumina a la Luna de lado. Este ciclo se repite con un periodo de 29.5 días.

Influencia de las fases de la Luna en las mareas: la distancia Tierra-Luna

Orbita eliptica

Figura 4. La órbita de la Luna alrededor de la Tierra tiene forma de elipse, como la de esta figura (que está muy exagerada). La Tierra ocupa uno de los focos de la elipse.

Ahora que tenemos los dos ingredientes principales, mareas y fases de la Luna, vamos a intentar ver qué influencia tienen las segundas sobre las primeras. Hemos dicho antes que la atracción de la gravedad es mayor cuanto más cerca entre sí están los objetos en cuestión. También sabemos que la orbita de la Luna alrededor de la Tierra es elíptica, con la Tierra ocupando uno de los focos de la elipse, como se ve en la Figura 4. Es decir, la distancia Tierra-Luna no es constante, y en el punto de máximo alejamiento, el apogeo, es un 12% mayor que en el de máximo acercamiento, el perigeo. ¿Puede ser que la Luna esté más cerca de la Tierra cuando hay luna llena y por eso haya mayor atracción? La repuesta es, en general, que no, como veremos ahora.

El avispado lector se habrá dado cuenta de que he dado dos cifras diferentes para los ciclos lunares: 27.3 y 29.5 días. La primera de estas cifras se conoce como periodo sidéreo. La cuestión es que queremos medir cuánto tarda la Luna en dar una vuelta a la Tierra, pero como la Tierra está a su vez girando, tenemos que buscarnos alguna referencia externa. Cuando hablamos de ciclo sidéreo estamos tomando como referencia las estrellas que, a estos efectos, se consideran fijas y muy lejanas: la Luna tarda 27.3 días en retornar al mismo punto con respecto a las estrellas, al escenario del fondo. Para la segunda cifra, el punto de referencia es el Sol, de modo que 29.5 días es el tiempo que tarda la Luna en cubrir todas sus fases y volver al punto inicial con respecto al Sol: es el periódo sinódico (y es el periodo que he dibujado en la Figura 3).

Ciclos sidereo y sinodico

Figura 5. Diferencia entre los ciclos sidéreo (con respecto a las estrellas) y sinódico (con respecto al Sol) de la Luna. El ciclo sidéreo es más corto, lo que implica que la distancia Tierra-Luna cuando hay Luna llena no es siempre la misma.

Vamos a hacer un pequeño experimento mental, ayudados de la Figura 5, para ver por qué la Luna llena y la mínima distancia Tierra-Luna, el perigeo, no suelen coincidir. Supongamos que la luna llena coincide con el perigeo (punto 1 de la figura). Dejemos que el tiempo corra casi un mes y veremos como la Tierra se mueve alrededor del Sol,la Luna alrededor de la Tierra, y 27.3 días después, la Luna está de nuevo en el mismo punto con respecto a la Tierra y las estrellas fijas: la Luna ya ha dado una vuelta completa a la Tierra y se encuentra de nuevo en el perigeo. Sin embargo, quedan aún 2.2 días para la luna llena: ya no coinciden perigeo y plenilunio. Si dejamos correr otro mes, el perigeo será 4.4 días antes de la luna llena, y así sucesivamente hasta que, después de 12 ciclos más o menos (algo menos de un año), la luna llena y el perigeo vuelven a coincidir. De modo que es incorrecto que la luna llena sea el momento en el que más cerca entre sí están la Luna y la Tierra y que la atracción gravitatoria entre ambas sea mayor.

Entonces, ¿las fases de la Luna no influyen nada en las mareas?

Mareas sol y luna

Figura 6. Efecto de la atracción gravitatoria de la Luna y el Sol sobre el agua de la superficie de la Tierra.

Aunque con lo que he contado hasta ahora parezca que no, la respuesta es sí tienen relación, y vais a entender cómo es posible con un as que me he guardado en la manga al principio. Os he dicho que las mareas están producidas por la atracción gravitatoria entre la Tierra y la Luna. Esto verdad, pero no es toda la verdad. Las mareas están también afectadas por la acción gravitatoria del Sol salvo que, debido a la gran distancia entre el Sol y la Tierra (150.000.000 Km más o menos) este efecto es mucho menor que el producido por la Luna. El efecto del Sol en las mareas, visto de forma cualitativa, es decir, sin preocuparnos de las cantidades, es el mismo que el de la Luna: abombar la superficie del agua como un balón de rugby que apunta en dirección al Sol. De modo que, en cada momento, el agua sobre la superficie de la Tierra está sujeta a dos acciónes simultáneas: la de la Luna y la del Sol.

En la Figura 6 he intentado dibuajr lo que he descrito con palabras en el párrafo anterior.  Por un lado el agua se abomba como un balón de rugby en dirección a la Luna y, por otro, se abomba, aunque mucho más levemente, en dirección al Sol. El astuto lector estará pensando en las fases de la Luna (Figura 3) y se habrá dado cuenta de un detalle muy importante: si la Tierra, la Luna y el Sol están sobre una misma línea, los dos abombamientos de los que estamos hablando apuntarán en la misma direción y colaborarán; por el contrario, si la línea Tierra-Sol y la línea Tierra-Luna forman un ángulo recto, los abombamientos también formarán un ángulo recto entre si, y las mareas solar y lunar tenderán a contrarrestarse y a competir.

Así que sí es cierto que las fases de la luna tienen una correlación (que no influencia) sobre las mareas. En general, y para bastantes lugares del globo, hay dos mareas por día [3]. Si hay luna llena o nueva, las mareas altas son más altas y las bajas más bajas que la media. Es lo que se llaman mareas vivas. Por otro lado, si hay cuarto creciente o menguante, las mareas altas con más bajas que la media, y las mareas bajas son más altas de lo normal: a esto se le conoce como mareas muertas. Aquí tenéis una animación en la que todo esto se ve un poco más claro.

Figura 7.

Figura 7. Explicación de la influencia conjunta del Sol y la Luna en las mareas. Cuando el Sol, la Tierra y la Luna forman una línea recta, se dan las mareas vivas. Si los tres cuerpos forman un ángulo recto, se dan las mareas muertas.

¿Cómo se compara todo esto con esta hipótesis agrícola?

Después de haber llegado a la conclusión de que sí que existe una correlación entre las fases de la Luna y las mareas, la pregunta es si la hipótesis agrícola que estamos examinando es consistente con todo lo explicado hasta ahora. Recordemos, pues, en qué consiste básicamente dicha hipótesis. La idea es que, si nuestra planta tiene a va a tener frutos por encima de la superficie, todo lo que le hagamos (sembrar, podar, transplantar) ha de hacerse durante el cuarto creciente o la luna llena porque es cuando la atracción de la luna es mayor sobre la savia, de la misma manera que pasa con las mareas. Y viceversa: para las plantas con frutos subterráneos es mejor que realicemos las tareas en cuarto menguante o luna nueva, que es cuando las mareas con más bajas, y por analogía la savia es atraída más débilmente por la Luna y se va a las raíces.

Hemos visto en la sección anterior que las mareas sí tienen una correlación con las fases de la Luna, pero no es la que los que proponen esta práctica agríola creen. No es que con la luna llena haya más atracción y mareas más altas y con la luna nueva haya menos atracción y mareas más bajas. Hay dos mareas todos los días (es decir, dos altas y dos bajas). Los días de luna nueva y de luna llena, las mareas altas son más altas que el promedio y las bajas más bajas que el promedio. En otras palabras: las dos situaciones descritas en la Figura 1 como “aguas arriba” y “aguas abajo” se darían el mismo día varias veces, solo que, tanto en luna nueva como luna llena, serían más pronunciadas que la media.

Alguien podría decir ahora: “bueno, pues entonces es que el cartel de la Figura 1 está mal, pero la influencia de las fases de la Luna sí existe: lo que hay que hacer es sembrar, podar y demás, siempre en luna llena o nueva, que es cuando más probabilidades hay de que la savia tenga movimientos extremos arriba-abajo”.  Esto tampoco tiene demasiado sentido por dos motivos. El primero, es que no se entiende que para plantar algo con frutos subterraneos tengas que usar las lunas nueva y llena, sabiendo que la savia, en algún momento, podría estar lejos de tus frutos, cuando la marea sea alta. El segundo, que es el más importante, es que el efecto que todo esto pueda tener en la savia de una planta es minúsculo y nada significativo. Sí, la superficie del océano se puede mover unos pocos metros hacia arriba y hacia abajo según la posición de la Luna, pero esto es porque los océanos son muy grandes y, como dijimos al prinpio, la fuerza de la gravedad entre la Luna y los océanos no depende sólo de la masa de la Luna, sino también de la de los océanos. Habría manera muy sencilla (que nunca he probado) de ilustrar esto. Este fin de semana, poned agua en un vaso y meted una pajita dentro. De alguna manera os las tenéis que apañar para marcar el nivel del agua en la pajita, porque la idea es darse cuenta de que a lo largo del día dicho nivel no ha cambiado tanto, independientemente de que la marea esté alta o baja. Una posibilidad sería tapar el extremo superior de la pajita con el dedo, para que el agua no se escape por el extremo inferior, sacar la pajita y marcar el nivel del agua con un rotulador. ¡Pero, ciudado, tenéis que ser capaces de poner la pajita de nuevo en el vaso exactamente en el mismo sitio y de la misma manera en la que estaba!

¿Qué otros problemas tiene esta hipótesis agrícola?

Aparte de los claros errores en lo que a la astronomía respecta, la hipótesis agrícola que estamos examinando tiene otros muchos problemas que voy a enumerar aquí, en muchos casos como preguntas que necesitarían una respuesta. Primero, como he mencionado más arriba, se nos dice que lo importante es, digamos, sembrar los tomates en luna llena porque la savia irá hacia arriba, hacia donde estarán los frutos. Pero ya hemos visto que la savia no se va a ver prácticamente afectada por la atracción gravitatoria de la Luna. Además, incluso si así fuera, si hoy hay luna llena, la savia alcanzaría su punto más alto, pero también su punto más bajo, debido a que todos los días hay marea alta y baja. Dicho de otra manera: si la savia se viera afectada significativamente por la atracción lunar todas las plantas tendrían dos “periodo de aguas arriba” y dos de “aguas abajo” diarios, con el añadido de que dos veces el mes esos periodos serán más fuertes de los normal, y otras dos veces al mes, coincidiendo con los cuartos menguate y creciente, más flojos de lo normal. De todo esto se deduce que cada día hay un momento bueno para cada tipo de planta, lo que, si retocamos la frase, significa que todos los días son buenos para todas las plantas.

Segundo, la hipótesis se basa en la atracción gravitatoria de la Luna sobre la savia. Ahora bien, ¿cómo puede afectar esto a las semillas? Suponiendo que todo lo que hemos demostrado hasta ahora que está equivocado no lo estuviera, y la noche de luna llena la savia subiera a lo más alto de las copas de los árboles… ¿cómo puede afectar eso a la semilla de tomate que estoy plantando hoy, que por no tener, aún no tiene tallo ni raíz? ¿Cómo puede ser que la fase de la Luna de hoy afecte a como llegue la savia a los tomates que saldrán en unos meses?

Tercero. Y si la atracción gravitatoria de la Luna afecta a las semilla, ¿no deberíamos sembrarlas de una manera particular, boca arriba o boca abajo, o girada 90º?

Cuarto,  y último, para no liar el artículo más: si lo bueno de la luna llena es que la savia, cargada de nutrientes, llega a los frutos de superficie, a nuestos tomates, ¿de dónde ha saca esos nutrientes, si hace dos semanas que la savia no se pasea por la raíces, y pasarán otra dos hasta que lo vuelva hacer?


Estos son los motivos por los que no me creo la hipótesis agrícola de la influencia de las fases de la Luna en las plantas, al menos tal y como se suele explicar. Primero, hay mareas altas y bajas todos los días, no sólo cuando hay luna llena. Segundo, las mareas altas son más altas cuando hay luna llena, efectivamente, pero también cuando hay luna nueva. Tercero, el efecto gravitatorio de la Luna en la savia de la plantas no debe de ser significativo. Cuarto y último, cada día se producen los supuestos efectos positivos para cada tipo de planta, de donde se deduce que todos los días son buenos para todas las plantas. Eso es todo por hoy, espero no haberos aburrido mucho.


[1] Sí, la Tierra gira alrededor del Sol, que también se mueve por el espacio. Por eso enfatizo lo de “desde nuestro punto de vista”, ¿o es que no veis el Sol moverse cada día por el cielo?

[2] Ojo, que la Figura 3, como todas las demás, es una repesentación en dos dimensiones de la situación. Obviamente cuando digo que la Tierra, la Luna y el Sol están alineados me refiero a más o menos alineados: si estuvieran alineados perfectamente tendríamos un eclipse de Luna o de Sol.

[3] Hay más factores que afectan al número de mareas diarias en un punto concreto de la Tierra y a sus características, como podéis leer aquí. Como estoy considerando sólo al Sol y a la Luna, y como la Luna es el factor principal, voy a decir todo el rato que hay dos mareas por día, aunque a lo mejor en tu ciudad no sea exactamente así.

El efecto Coriolis y el agua que sale por el desagüe del lavabo

Posted in Divulgación by thetuzaro on 29 noviembre 2012

Seguro que sois pocos los que no habéis oído nunca la batallita de que, cuando uno llena el lavabo y luego lo vacía, el agua hace un remolino que gira en un sentido u otro según el lavabo esté en el hemisferio norte o en el hemisferio sur. Es posible que algunos hayáis oído que el mecanismo que produce tal efecto es el mismo que hace que los huracanes y las borrascas giren sobre sí mismos. Incluso puede que unos pocos sepáis que todo esto se conoce como el efecto Coriolis, y que se llama así en honor al señor francés que lo formuló matemáticamente. De lo que ya no estoy tan seguro es de cuántos os habéis parado a pensar, u os habéis encontrado con la polémica de averiguar si es cierto que el efecto Coriolis produce los giros del agua al salir del lavabo, y si de verdad el agua siempre gira de una manera en el hemisferio norte y de la contraria en el hemisferio sur. Mi objetivo con este artículo es demostraros que la cosa no es como la pintan.

Me motiva a escribir este artículo la amigable discusión que se generó hace unos días en el magnífico blog de divulgación científica y escepticismo La Ciencia y sus Demonios. En uno de sus artículos mostraron uno de los múltiples vídeos de gente que vacía un recipiente con agua cien metros al norte de la línea del Ecuador, luego repite la operación cien metros al sur de la línea, y demuestra cómo el agua hace remolinos que giran en sentidos opuestos en cada caso. Os pego aquí uno de esos vídeos, para que los que no sepáis de qué hablo os hagáis a la idea.

En la sección de comentarios del artículo de dicho blog, se formó una animada discusción sobre si de verdad lo que se ve en el vídeo está producido por el efecto Coriolis y si de verdad el agua hace remolinos en sentidos contrarios según a qué lado de la línea del Ecuador se coloque uno. No suelo participar en el foro de La Ciencia y sus Demonios, porque suele comentar gente mucho más lista que yo, pero en este caso me animé a hacer las cuentas y a hacer un experimento para ver cuánto de verdad había en todo esto. Este artículo es una versión extendida de lo que dije en aquellos comentarios.

El efecto Coriolis

El efecto Coriolis es el responsable de la desviación aparente que sufre un objeto que se desplaza en línea recta cuando el movimiento se observa desde un sistema de referencia que gira. ¿Lioso? A ver si con un ejemplo los veis mejor. Os colocáis en el centro de un tiovivo u otro aparato parecido, que gire,  y lanzáis una pelota hacia el exterior. Para un amigo que mire la jugada desde fuera del tiovivo la pelota sale en línea recta y vosotros segúis girando. Vosotros, que estáis girando con el tiovivo, veis como la pelota se desvía lateralmente de la trayectoria recta en sentido contrario al giro. Otra prueba: ahora os situáis en el borde del tiovivo, mirando hacia el interior, y mientras el tiovivo gira, vosotros lanzáis la pelota hacia dentro. De nuevo, para el amiguete de fuera, la pelota viaja en línea recta dentro del tiovivo mientras vosotros seguís dando vueltas alrededor. En cambio, para vosotros la pelota se desviará lateralmente en la misma dirección del giro del tiovivo. Si con esto aún no habéis pillado el asunto, os dejo que miréis unas cuantas veces los siguientes vídeos en el que se hacen estos experimentos.

La Tierra gira sobre su eje, de una manera análoga a los tiovivos de los vídeos anteriores, de modo que los objetos que se mueven sobre su superficie (o paralelamente a la superficie, pero por el aire) también sufren esta desviación aparente de sus trayectorias. Recordad que son desviaciones aparentes debidas a que nosotros obervamos el fenómeno desde la Tierra, que está girando.

Figura 1. (a) Esquema que representa la rotación de la Tierra. (b) Rotación de la Tierra vista en dirección paralela al eje de rotación desde el norte hacia el sur. Se incluye una persona que mira hacia el eje de rotación, es decir, hacia el Polo Norte. Debido a la rotación de la Tierra, la persona se mueve hacia la derecha. (c) Esquema análogo al de (b) pero mirando desde el sur hacia el norte. De nuevo, una persona mira al eje de rotación, que en este caso es el Polo Sur. Debido a la rotación de la Tierra, la persona se mueve hacia la izquierda.

Ahora vamos a hacer un pequeño ejercicio de visión espacial con ayuda de la Figura 1. En la Figura 1(a) os he dibujado un esquemita de cómo gira la Tierra sobre su eje. Las Figuras 1(b) y 1(c) representan también el giro de la Tierra, pero mirado en la dirección paralela al eje de rotación, en un caso (Figura 1(b)) de norte a sur, y en el otro (Figura 1(c)) de sur a norte. Si una persona del hemisferio norte se pone mirando hacia el Polo Norte, la rotación de la Tierra hacia el Este implica que la persona se mueve hacia la derecha en mi diagrama. En cambio si una persona en el hemisferio sur se coloca mirando al eje de giro de la Tierra, es decir, al Polo Sur, la rotación de la Tierra implica que la persona se mueve hacia la izquierda en la figura, al contrario que la persona del hemisferio norte. Hemos visto antes como la desviación debida al efecto Coriolis de la trayectoria de un objeto que se mueve depende de la dirección del giro. Así, los objetos en el hemisferio norte se desvían hacia la derecha, y en el hemisferio sur se desvían hacia la izquierda.

Figura 2. Fotografía de un huracán en el hemisferio norte, con la típica rotación en contra de las agujas del reloj. Sacada de la Wikipedia.

El efecto Corilis es responsable, entre otras cosas, de que los huracanes tengan ese aspecto de remolino que se suele ver en fotos como la de la Figura 2, y , de hecho, es cierto que los huracanes giran en un sentido en el hemisferio norte y en el contrario en el hemisferio sur. Vamos a ver por qué es esto así. El aire en la atmósfera se mueve desde donde hay mucha presión a donde hay poca. Si tenemos un centro de baja presión, como el de la Figura 3, el aire de alrededor se va a querer acercar a ese centro por el camino más corto posible, que es una línea recta. Sin embargo, debido a la rotación de la Tierra, la trayectoria del aire se va a ver desviada hacia la derecha, suponiendo que estemos en el hemisferio norte (ver Figura 3 inferior). Así que tenemos dos fuerzas en jeugo: una hace que el aire se acerce al centro de baja presión, la otra hace que el aire, sea cual sea su trayectoria, se desvíe hacia la derecha. El resultado de estas dos fuerzas combinadas es que el aire que viene de la zona de alta presión gira alrededor del centro de baja presión. En el hemisferio norte este giro en en sentido contrario a las agujas del reloj (si miramos el huracán desde arriba, claro). En el hemisferio sur ocurre exactamente lo mismo, salvo que el giro es en el sentido contario.

Figura 3. (Arriba) El aire en la atmósfera se mueve de las zonas donde la presión es alta, a las zonas donde la presión es baja. Si la Tierra no rotara, el aire se movería en línea recta. (Abajo) La rotación de la Tierra hace que, en el hemisferio norte, el aire se desvíe hacia la derecha, lo que resulta en el aire girando alrededor de la zona de baja presión en contra de las agujas del reloj.

De modo que sí, que el efecto Coriolis existe y hace que los huracanes giren en un sentido en un hemisferio y en el contrario en el otro hemisferio. Entonces, ¿tiene razón la persona del vídeo cuando demuestra el agua hace remolinos en diferente sentido en un lado u otro del ecuador? La repuesta es no, y la voy a justificar en tres partes. Primero vamos a ver si andar cien metros hacia el norte o cien metros hacia el sur del Ecuador supone algún cambio en la intensidad del efecto Coriolis. Después vamos a hacer unas cuentas para ver cómo de significativo es el efecto Corilis en el agua de un lavabo en una latitud media. Finalmente, os voy a contar los resultados del experimento que hice el otro día en casa.

¿Cómo de importante es el efecto según la latitud?

Si se mira uno las fórmulas, verá que la aceleración horizontal debida al efecto Coriolis es mayor cuanto mayor sea la velocidad de el objeto que se mueve y cuanto mayor sea el seno de la latitud. Que nadie se asuste con esto del seno de la latitud, que lo explico con dibujitos en un periquete. El seno de la latitud simplemente es, como se puede ver en a Figura 4, la distancia entre el punto en el que nos encontramos y el plano del Ecuador, medida en paralelo al eje de rotación de la Tierra, y divida entre el radio de la Tierra (ver Figura 4(b)). Así, si nos ponemos sobre la línea del Ecuador, la distancia al plano del Ecuador es cero, y por tanto el seno de la latitud es cero. Si, por el contrario, no colocamos en el Polo Norte, la distancia al plano del Ecuador es igual al radio de la Tierra, de modo que el seno de la latitud es igual a uno. Esto significa lo siguiente: el efecto Coriolis es máximo en los polos, y nulo en el Ecuador.

Figura 4. (a) Esquema de la Tierra, indicando la posición del Ecuador y la definición de latitud. (b) Detalle del triángulo que se forma entre el plano del Ecuador, el radio de la Tierra y la distancia entre un punto de la superficie y el plano del Ecuador. Este triángulo sirve para ilustrar qué es el seno de la latitud.

De modo que si uno se coloca encima de la línea del Ecuador, el seno de la latitud es cero y, por tanto, el efecto Coriolis es nulo. ¿Qué ocurre si uno se mueve cien metros hacia el norte desde la línea del Ecuador? Haciendo un poco de trigonometría resulta que la latitud en un punto 100 metros el norte del Ecuador es más o menos 0.0009º N. El seno de este ángulo es 0.000015, un número tan pequeño que significa que el efecto Coriolis es a todas luces igual al que se percibe encima de la línea del Ecuador: nulo. De modo que nuestros amigos del vídeo inicial nos están engañando de alguna manera que trataremos de adivinar más adelante, porque no puede ser que moviéndose tan poca distancia del Ecuador se produzca ese cambio tan grande en la percepción del efecto Coriolis. Sin embargo, primero tenemos que contestar a otra pregunta: ¿qué pasa si en lugar de movernos unos metros al norte, nos movemos hasta alguna latitud media, por ejemplo a Inglaterra?

¿Cómo de significativo es el efecto Corilis en las latitudes medias?

Fijémonos en Bristol, que es donde vivo ahora. La latitud es de unos 51º N, de modo que el seno de la latitud es 0.78.  En otras palabras, si recordamos que el efecto Coriolis es máximo en los polos, la cifra anterior significa que el efecto Coriolis en Bristol es sólo un 32% más pequeño que el máximo valor posible. Ya no es algo tan despreciable como en el caso de más arriba. cuando nos movíamos alrededor del Ecuador. ¿Significa esto que el efecto Coriolis es responsable de los remolinos que hace el agua de nuestro lavabo cuando quitamos el tapon? De nuevo la respuesta es no, como vamos a ver a continuación.

Figura 5. (a) Efecto que produce la aceleración de Coriolis, ac, sobre la velocidad del agua en un intervalo de tiempo determinado: girar la dirección del vector velocidad conservando si magnitud (Nótese que en la figura la velocidad inicial, vi, y la final, vf, no tienen la misma magnitud en la figura, pero esto es sólo porque he exagerado el tamaño de la aceleración de Coriolis para que se vea bien). (b) Como ilustración de cuán grande es un ángulo de 0.18º he dibujado estas dos líneas. La de la izquierda es perfectamente vertical. La de la derecha está inclinada 0.18º. La diferencia entre una y otra es menor que la resolución de nuestras pantallas: se ven iguales.

Si uno se mira las fórmulas, la aceleración que experimenta el agua del lavabo, debida al efecto Coriolis es, como hemos visto, proporcional al seno de la latitud, pero también proporcional a la velocidad horizontal del agua. Si llenamos nuestro lavabo y esperamos un rato a que el agua esté lo más quieta posible, la velocidad del agua es prácticamente cero. Cuando quitamos el tapón el agua se emipeza a mover acercándose al desagüe. Si esparcimos, por ejemplo, pimienta, orégano o algún otro producto que flote en el agua, podremos estimar la velocidad horizontal con que se aproxima el agua al desagüe, que es del orden de 1 cm/s. Si se hace uno las cuentas, la aceleración de Coriolis en este caso es de 0.000113 cm/s^2, perpendicular a la velocidad del agua, y apuntando hacia la derecha. ¿Que significa esto? Pues haciendo un par de dibujitos (Figura 5) se puede ver que la aceleración de Coriolis en este caso es capaz de desviar la trayectoria del agua hacia la derecha en unos 0.006º cada segundo. En unos 30 segundos o así nuestro lavabo está vacío, así que la máxima desviación que sería posbile por el efecto Coriolis sería de 0.006º cada segundo durante 30 segundos, es decir 0.18º: demasiado pequeña para verse a simple vista, como trato de ilustrar en la Figura 5(b) ¡Y ésta es la mayor desviación que podemos esperar!

De modo que las cuentas indican que los remolinos que hace al agua al vaciar el lavabo no pueden ser debidos al efecto Coriolis y, por tanto, el agua no tiene por qué girar en un sentido en el hermisferio norte y en el contrario en el hemisferio sur. Esto es lo que sale de las cuentas, ¿qué tal si hacemos un experimento?

El experimento

El experimento que hice el otro día consistió en lo siguiente. Llené el lavabo de mi casa, utilizando alternativamente el grifo del agua caliente (situado a la izquierda del lavabo) y del agua fría (situado a la derecha) (Figura 6), y luego lo vacíe observando en qué dirección giraban los remolinos del desagüe. Según utilice uno u otro grifo, le estoy proporcionando un momento angular (esto significa algo así como proporcionando un movimiento giratorio) al agua en un sentido u otro, como ilustro en la figura. Para facilitar la visualización del giro, esparcí un poco de pimienta molida sobre el agua. Hice diez experimentos con cada grifo. En cinco de ellos vacié el lavabo nada más llenarlo y en otros cinco esperé diez minutos antes de vaciarlo para que el agua estuviera lo más quieta posible.

Fgirua 6. Esquema de mi lavabo. Al abrir el grifo del agua caliente el agua adquiere un momento angular en dirección contraria a las agujas del reloj. Si abro el grifo del agua fría, el momento angular del agua es en el sentido de las agujas del reloj.

¿Cuáles fueron los resultados? Primero comentemos los experimentos en los que no esperé a que el agua se asentara. En los cinco experimentos con el grifo izquierdo (agua caliente, flecha roja en la Figura 6) el agua desalojó girando al contrario de las agujas del reloj. En los cinco experimentos con el grifo (agua fría, felcha azul en la figura) derecho el agua desalojó girando en el sentido de las agujas del reloj. Es decir, el agua desalojó el lavabo girando siempre en el mismo sentido en el que yo la hice girar inicialmente al usar uno u otro grifo.

Ahora comentemos los experimentos en los que esperé diez minutos antes de quitar el tapón de mi lavabo. En este caso fue muy difícil decidir si el agua estaba girando o no. En ocasiones el agua no giraba en absoluto y en otras ocasiones giraba un poquitín justo alrededor de donde yo había introducido una perturbación al tirar de la cadenita del tapón, de modo que es difícil juzgar si esos giros tan pequeños estaban quizá provocados por mí al abrir el desagüe. Dicho esto, e insisto, los giros eran minúsculos, paso a comentar los resultados. En los cinco expermientos con el grifo de la izquierda tuve dos giros contrarios a las agujas del reloj, uno a favor y dos vaciados sin giro. Cuando utilicé el grifo de la derecha tuve dos giros contrarios a las agujas del reloj, uno a favor y dos vaciados sin giro. Es dcir, si uno espera un buen rato después de llenar el lavabo, o bien el agua no gira, o gira mínimamente en cualquiera de los dos sentidos con igual probabilidad.

La conclusión del experimento, pues, es que al utilizar un grifo u otro lo que estoy haciendo es proporcionar al agua un momento angular inicial determinado, en un sentido o el otro. Dicho momento angular se va perdiendo por la fricción de las moléculas de agua entre sí o con el lavabo. Cuando quito el tapón y el agua se empieza a acercar al desagüe, que a su vez es el eje de giro, el agua incrementa su velocidad angular por la conservación del momento angular. Es decir: el agua gira más rápido cuanto más cerca del eje de giro está, del mismo modo que una patinadora girando sobre sí misma sobre el hielo incrementa su velocidad de giro cuando repliega sus brazos sobre su cuerpo. Obviamente, cuanto más tiempo se espera antes de quitar el tapón del lavabo, menos momento angular del inicial queda (por la fricción) y más difícil es ver ningún giro, hasta que, eventualmetne, no se ve ninguno.

¿Qué hacen los señores que realizan estos experimentos en la línea del Ecuador y alrededores? Pues no lo sé, pero es probable que en un hemisferio llenen el recipiente de agua por un lado, y en el otro hemisferio lo llenen por el otro lado, cambiando el sentido del momento angular inicial de la misma manera que yo hice en mi experimento cuando utilicé un grifo u otro.

Esto es todo por hoy. Espero que con todo esto os haya quedado claro qué es el efecto Coriolis, qué cosas son consecuencia de este efecto y por qué el efecto Coriolis no es responsable del sentido de giro de los remolinos de agua en vuestro lavabo.

Las constelaciones en tres… ¡y hasta cuatro dimensiones!

Posted in Divulgación, General by thetuzaro on 21 octubre 2012

El horóscopo: ese pasatiempo folclórico que pretende saber de las personas, de su futuro, su pasado y su personalidad, en función de las posiciones relativas de las constelaciones y los planetas en el cielo nocturno y en función de fechas clave en la vida de dichas personas, como su nacimiento. Los diferentes horóscopos se inventaron en tiempos antiguos en los que la gente miraba mucho al cielo (no tenían muchas otras distracciones) y en los que los astros eran los mejores relojes y calendarios. Tiempos en lo que el horóscopo era la punta de lanza del conocimiento, no como ahora.

Es difícil de entender, pero aún hoy en día, con el conocimiento humano estando en el nivel que está, hay mucha gente en el mundo que sigue creyendo a pies juntillas en el horóscopo. La gente se sabe los nombres de los signos del zodíaco y las fechas de nacimiento que corresponden a esos signos. También cómo se supone que son los nacidos bajo un signo y cómo se relacionan con los demás. Posíblemente sepan que los signos del zodiaco se corresponden con constelaciones en el cielo, aunque es posible que parte de esta gente no se haya parado a pensar qué es una constelación exactamente, y quizá por eso sigue creyendo en el horóscopo. Voy a intentar que veáis las constelaciones desde otro punto de vista que ayudará a entender el sinsentido de los horóscopos. Voy a intentar que veáis las constelaciones en tres dimensiones… y hasta cuatro.

A estas alturas de la película, los humanos no miramos mucho al cielo, pero si lo hiciéramos regularmente (y desde un sitio desde el que se vieran las estrellas), nos daríamos cuenta de varios detalles. El primero es que cada noche, las estrellas forman unos patrones fijos que se mueven en el cielo siempre en la misma dirección, y siempre en bloque, como si fueran bombillitas colocadas en una gran cúpula negra y giratoria. El siguiente detalle, que ya requiere un poco más de observación, es que hay un grupete de estrellas que no sigue el ritmo de las demás; estrellas que avanzan a veces más rápido y a veces más despacio que sus compañeras, ¡y que incluso a veces van hacia atrás! Estas estrellas errantes son los planetas. El horóscopo se basa en ver dónde están estos planetas con respecto a lo que a veces se llama “estrellas fijas”, que son todas las demás. Es fácil indentificar en el cielo grupos de estrellas que se ven con brillo similar y que parecen formar figuras en el cielo: las constelaciones. Utilizando las constelaciones es más fácil hablar de posiciones en el cielo y se simplifica el horóscopo: en lugar de hablar de la posición de los planetas con respecto a todas las estrellas, sólo se habla de las posición de los planetas con respecto a doce de estos dibujos en el cielo: las constelaciones del zodiaco.

Las constelaciones son un concepto muy práctico: es más fácil decir “mira a tal constelación” que decir “mira hacia tantos grados de altura y tantos otros de acimut” y de hecho se utilizan en la astronomía moderna para hablar de una manera sencilla de posiciones en el cielo. Pero, ¿son las constelaciones algo más que dibujos aparentes en el firmamento? ¿Forman realmente un todo, una unidad? ¿Tienen las estrellas de, por ejemplo, Acuario, algo que las haga diferentes de las demás estrellas, que las haga acuarinas? ¿Cómo es una constelación si la miramos desde otro punto de vista, desde otro ángulo? Como he dicho antes, las estrellas parecen estar todas a la misma distancia, formando dibujos en la esfera negra del cielo. Si dibujamos unos pocos puntos en una hoja de papel y miramos la hoja de perfil, todos los puntos están colodados sobre una línea recta. Esto es lo que uno se esperaría que pasara con las estrellas de las constelaciones, pero no es así.

Las constelaciones están formadas por estrellas de brillo relativamente similar, normalmente bastante intenso que sólo parecen estar a la misma distancia de nosotros según las observamos desde la Nave Espacial Tierra. Pero si pudiéramos viajar tan lejos de casa como para poder ver una constelación de canto, no veríamos todas sus estrellas sobre una línea recta, sino que nos daríamos cuenta de que las estrellas de la constelación están a distancias muy dispares de la Tierra. Como no podemos viajar tan lejos, fijémonos en las tres principales estrellas de la constelación de Acuario y en lo lejos que están de la Tierra. Como están tan sumamente lejos, utilizamos una unidad de distancia más conveniente que el kilómetro, para utilizar números más pequeños. Utilizamos el año-luz, que es la distancia que recorre la luz en un año. Como la luz viaja a unos 300.000 Km/s, el año-luz equivale a unos 9.500.000.000.000 km. La primera estrella de la constelación de Acuario, α-Aquarii, está a 523 años-luz de la Tierra. La segunda, β-Aquarii, está a 537 años-luz, una distancia no muy diferente. Pero si miramos la tercera estrella, γ-Aquarii, está sólo a 163 años-luz de la Tierra. Es decir, ¡unos 450 años-luz más cerca que las otras dos! Esto mismo ocurre para todas las estrellas y para todas las constelaciones: las estrellas están situadas a diferentes distancias de la Tierra, formando un obejto en tres dimensiones que desde aquí nos parece plano. Si pudiéramos viajar para ver las constelaciones desde otro ángulo, esos dibujos que durante tantos siglos les han parecido tan claros a nuestros antepasados se desvanecerían.

Queda claro, pues, que las constelaciones no son una entidad clara y con significado, allí arriba en el cielo, ahora que las hemos podido visualizar en tres dimensiones, añadiendo la profundidad al diubjo, en lugar de solamente las dos dimensiones a las que estábamos acostumbrados. ¿Pero, qué tal si añadimos una dimensión extra: el tiempo? Mucho se ha fantaseado en la historia sobre ver el pasado o, ya que hablamos de horóscopo, el futuro. Y el caso es que a diario (sí, sí, a diario) el ser humano ha estado, no sólo mirando al pasado, sino viéndolo con sus propios ojos. Me explico.

Hemos estado hablando antes de las distancias entre las estrellas y la Tierra, y hemos hablado en términos de años-luz: la distancia que la luz recorre en un año. Para que esta unidad quede un poco más clara, voy a poner dos ejemplos. La luz de la Luna, que está a unos 380.000 Km de la Tierra, tarda un poco más de un segundo en llegar hasta aquí, así que se podría decir que está a un segundo-luz. La luz del Sol, que está a unos 150.000.000 Km de la Tierra, tarda unos 8 minutos en llegar hasta aquí, así que la distancia entre la Tierra y el Sol es de unos 8 minutos-luz. Esto, que parece una mera curiosidad, tiene una implicación muy importante. Cuando decimos que la luz tarda 8 minutos en llegar desde el Sol hasta la Tierra significa que estamos viendo la luz que el Sol emitió hace 8 minutos. En otras palabras, estamos viendo el Sol en la posición en la que estaba hace ocho minutos: realmente estamos viendo el pasado.

Con las estrellas de las constelaciones pasa exactamente lo mismo. Cuanto más lejos esté una estrella, más tiempo tarda su luz en llegarnos y, por tanto, más en el pasado la estamos viendo. Si volvemos al ejemplo de las tres estrellas principales de la constelación de Acuario vemos que la luz que podemos ver hoy proveniente de las dos primeras fue emitida cuando Colón aún no había llegado a América, y Granada seguía siendo el último reducto de Al-Ándalus. Sí, estamos viendo el pasado, con nuestros propios ojos y sin artificios raros ni abracadabrismos. La luz que nos llega esta noche desde la tercera estrella, γ-Aquarii, fue emitida en cambio, hace solo 163 años. ¿Increíble, verdad? No sólo estamos viendo el pasado cuando miramos el cielo, sino que estamos viendo diferentes momentos en el pasado. De modo que cuando miramos una constelación, estamos viendo la ilusión en dos dimensiones de un objeto en tres dimensiones que está formado por estrellas que están a muy diferentes distancias de nosotros y a las que, además, estamos viendo en momentos muy diferentes del pasado. Todo cuadra con el determinismo del horóscopo, ¿verdad?

Esto, por supuesto, se aplica a todas las constelaciones y a todas sus estrellas, pero es que aún hay más. Las estrellas, que nos parecen tan fijas y que forman esos dibujos tan rígidos en el cielo se están moviendo a velocidades increíblemente rápidas, lo que pasa es que como están tan lejos no podemos verlo a simple vista, pero sí medirlo con aparatos. Y como se están moviendo tan rápido y cada una para un lado diferente… al cabo de mucho años los dibujos del cielo habrán cambiado.

Espero con este pequeño escrito que hayáis podido ver las constelaciones desde un nuevo punto de vista desde el que queda claro lo arbitrario del concepto de constelación y lo absurdo de pensar que la posición relativa de los planetas, que están más o menos cerca de la Tierra, y las constelaciones, que son dibujos aparentes formados por estrellas muy lejanas y sin relación entre sí, pueda ejercer sobre alguien en la Tierra. Como siempre, y como yo no soy muy buen explicador, os dejo con un vídeo hecho por gente que sí que sabe: un fragmento de un capítulo de la enorme serie Cosmos de Carl Sagan en la que expican todo esto con dibujos y animaciones, y que os hará ver las cosas mucho más claras.

Los astronautas y la ingravidez

Posted in Divulgación by thetuzaro on 11 octubre 2012

Últimamente se me hace bastante cuesta arriba escribir en el blog. Como mis fieles seguidores habrán podido comprobar, en estos últimos tiempos le estoy dando más a mis supercómics que a otra cosa. No obstante aún tengo ganas de escribir artículos de divulgación científica, sobre todo dirigidos a gente bastante ajena al mundillo, y en particular artículos basados en mi trabajo, en lo que hago para ganarme la vida. Sin embargo, eso requiere bastante esfuerzo y tiempo, así que de momento voy a utilizar este artículo para hacer algo de divulgación más sencilla: voy a explicar algo que es bastante común que la gente no entienda o entienda mal, y que, al fin y al cabo, es física bastante básica. Hoy voy a hablar de la ley de la gravedad, de la Estación Espacial Internacional (EEI), de astronautas flotando por el espacio, de Newton y manzanas y de la ingravidez: todo esto en unos pocos párrafos. Para hacerlo me basaré un poco, igual que ya he hecho otras veces, en cómo cuentan la historia en la genial serie El Universo Mecánico.

Todos habéis visto alguna vez algún vídeo en el que salgan astronautas [1] en órbita alrededor de la Tierra, como el que pongo un poco más abajo. La imagen es clara: los astronautas están tranquilamente flotando dentro de la nave y haciendo el moñas porque allí donde están no hay gravedad. Pero, ¿es esto así? Con este escrito espero que os quede claro que la respuesta es no. Me temo que para terminar esta misión con buen pie, tendré que hacer alguna cuenta que otra, pero, antes de que os entren los temblores de piernas, os prometo que las usaré lo mínimo posible y que serán siempre muy fáciles. Ahora mirad el vídeo:

Cómo va eso de la gravedad

Muchos recordaréis que la gravedad es conocida desde la noche de los tiempos, pero descrita simplemente de algún modo parecido a “todo lo que sube baja”. Mucho tiempo después, en el Siglo XVII, Isaac Newton logró explicarla de una manera muy elegante que, de hecho, para muchísimas aplicaciones a escala humana, sigue siendo perfectamente válida; esto, por supuesto, supuso un salto gigantesco en el conocimiento humano. Mucho más tiempo después, a principios del Siglo XX, Albert Einstein revolucionaría la física con una nueva explicación de la gravedad que es, de hecho, mucho más exacta y que describe el universo mucho mejor que la de I. Newton, pero eso es harina de otro costal y para el tema de hoy, con la Ley de la Gravitación Universal de Newton nos basta.

Todos sabemos que si soltamos una piedra a una cierta altura, caerá hacia abajo hasta llegar al suelo. El caso es que si el experimento lo hace una persona al otro lado del mundo (que es redondo, no olvidemos) pasa lo mismo: su piedra también cae hacia abajo hasta el suelo. Sin embargo a nosotros, desde aquí, nos parecería que la piedra cae hacia arriba (Figura 1(a)). ¿Un lío? Si hacemos caso a Newton, no. Su ley de la gravedad nos dice que absolutamente todos los cuerpos que hay en el universo se atraen entre sí. Yo atraigo al ordenador en el que escribo esto y el me atrae a mí, la silla a mi culo y el culo a la silla, la mesa a la puerta y viceversa. Esta atracción es tanto más fuerte cuanto más masa tengan los cuerpos en cuestión. Definir la masa no es trivial, pero para este artículo podemos considerar que cuanto más pesado sea un cuerpo, más masa tiene. Como el cuerpo más pesado que hay a nuestro alrededor es la Tierra, su atracción gravitatoria es la que notamos con más facilidad, es la más fuerte [2]. De hecho, como queda claro si miráis la Figura 1(b), la Tierra nos atrae (a nosotros y a la piedra que estamos soltando) hacia su centro, no hacia abajo. Además, Newton nos dice que la fuerza de la gravedad es más debil según nos alejamos del centro de la Tierra, con lo que se podría pensar que los señores de la Estación Espacial Internacional, que están bien lejos, no tienen gravedad.

Figura 1.

Ahí donde tú estás, hijo mío, ¿hay gravedad?

Vamos a echar unas cuentas para ver cómo de fuerte es la fuerza de la gravedad donde está la EEI en comparación con la fuerza de la gravedad en la superficie de la tierra. Antes he dicho que la fuerza de la gravedad dismuye según nos alejamos de la Tierra. Para ser un poco más precisos, la fuerza de la gravedad disminuye proporcionalmente a la distancia al centro de la Tierra al cuadrado [3]. El radio de la Tierra (es decir, la distancia entre la superficie y el centro) es más o menos 6400 Km. La EEI está unos 400 Km más lejos aún, es decir, a unos 6800 Km de distancia del centro de la Tierra. Dicho de otra manera, la EEI está 1.0625 veces (es decir un 6.25%) más lejos del centro de la Tierra que los que estamos en su superficie. Como la fuerza de la gravedad disminuye con el cuadrado de la distancia al centro de la Tierra, allí donde está la EEI, la fuerza de la gravedad será 1/(1.0625)^2=0.89, o lo que es lo mismo: la fuerza con la que la Tierra atrae a la EEI en órbita es un 89% de la fuerza con la que la atraería si estuviera en la superficie de la Tierra. Esta misma cuenta se puede hacer para cualquier cuerpo de cualquier masa, de modo que se puede concluir que la aceleración hacia el centro de la Tierra en la órbita de la EEI es sólo un 11% más pequeña que en la superficie de la Tierra. De decir, que no hay tanta diferencia, y que, desde luego, no se puede decir que allí donde está la EEI no hay gravedad. Entonces, ¿por qué no se caen?

Órbita terrestre, Newton, una manzana y la Luna.

Lo más probable, por lo visto, es que el famoso episodio de que Newton estuviera sentado bajo un arbol, le cayera una manzana en la cabeza, y así se le encendiera la bombilla para formular su Ley de la Gravitación Universal, no haya pasado nunca, al menos así. No obstante, esta historia nos cuenta que Newton fue el primero en darse cuenta de que la fuerza que hace que una manzana madura caiga del arbol, y la fuerza que hace que la Luna orbite alrededor de la Tierra, son en realidad la misma fuerza.

Imaginemos la siguiente situación. Igual que antes, cogemos una piedra y la soltamos en el aire. La piedra, como sabemos cae al suelo porque la Tierra la atrae a su centro. Si ahora tiramos la piedra hacia delante, horizontalmente, la piedra se aleja de nostros a una velocidad constante [4] y, al mismo tiempo, se acerca al suelo debido a la fuerza de la gravedad hasta que , en algún momento, pega en el suelo y se para. Si tiramos la piedra con más fuerza pasará lo mismo, pero la piedra llegará al suelo un poco más lejos de nosotros. Si la tiramos con más fuerza aún, se repite la jugada, pero llegando aún más lejos. Si pudiéramos lanzar la piedra con suficiente fuerza, llegaría un momento en el que pasaría un fenómeno muy interesante. La piedra comenzaría a ser atraída hacia el centro de la Tierra por la gravedad terrestre, es decir, comenzaría a caer. Sin embargo, la piedra habría avanzado tal distancia horizontalmente (recordemos que hemos tirado la piedra muy, muy fuerte) que, puesto que la Tierra es redonda, su superficie también está ahora más abajo de la horizontal de lo que estaba. En otras palabras: la trayectoria de la piedra se curva por la gravedad terrestre, y la superficie de la Tierra tambien es curva, de modo que la distancia entre la piedra y la superficie de la Tierra es constante, y la piedra sigue dando vueltas a la Tierra indefinidamente: ¡ha entrado en órbita! [5] En la Figura 2 he hecho un dibujito con el que espero que esto se entienda un poco mejor.

Figura 2.

Por esto es que los astronautas de la EEI no caen sobre la superficie de la Tierra. Sí que están cayendo hacia el centro de la Tierra: ¡están en caída libre, de hecho! Pero su velocidad horizontal es tan grande que el ritmo al que son atraídos hacia la Tierra es igual al ritmo al que la superficie de la Tierra se separa de ellos.

La última pregunta sería: ¿por qué si están cayendo se les ve flotar en las imágenes? Eso se debe a que no son sólo los astronautas, sino toda la EEI la que está cayendo constantemente hacia el centro de la Tierra. Cuando estás sentado en una silla, estás siendo atraído hacia la Tierra, pero la silla te impide moverte hacia abajo (y a la silla, que también está atraída hacia el centro de la Tierra, se lo impide el suelo, y así sucesivamente). Sólo notas la fuerza de la gravedad como la presión que la silla te hace en el culo. Si, por el motivo que sea, por chulería, por impresionar a una extranjera, saltáramos de un avión sentados en nuestra silla, como los dos, silla y persona, están en caída libre, ya no notaríamos tal presión en el culo y, de hecho, estaríamos con respecto a la silla, en la misma situación que los astronautas del vídeo de antes.

De hecho, este experimento imaginado es algo que puede uno probar en sus propias carnes, por ejemplo, en La Lanzadera del Parque de Atracciones de Madrid y otras atracciones análogas. También es en lo que se basa el sistema de entrenamiento en ingravidez para los astronautas. Te suben en un avión a todo meter todo lo alto que pueden, y luego dejan caer el avión en caída libre. Durante el rato de caída libre del avión, los que estén dentro reaccionan como lo hacen los astronautas de la EEI. En el vídeo, con el que me despido, podéis ver un ejemplo de este tipo de entrenamiento. Espero que todo este rollete os haya servido para entender mejor qué es eso que les pasa a los astronautas de la EEI y qué relación tiene con la Luna, con Newton y con la famosa manzana.


[1] Estaba tentado de utilizar el término cosmonauta en lugar de astronauta por mi (erronea) creencia de que los astronautas eran gente que iba a otros astros, es decir a otros cuerpos celestes, y cosmonautas eran aquellos que sólo iban al espacio, sin posarse en ningún otro planeta, satélite o asteroide. Una rápida búsqueda en la Wikipedia me ha servido para descubrir que, simplemente, cosmonauta es la palabra más de moda en los países de influencia rusa, astronauta en los de influencia (básicamente) americana, y que luego hay gente que dice taikonauta, que es un neologismo mezclando chino y griego.

[2] Obviamente, nosotros estamos atrayendo a la Tierra con exactamente la misma fuerza hacia nosotros, pero siendo la Tierra tan grande como es, y habiendo gente por toda su superficie, no podemos notar esa atracción que ejercemos sobre el planeta.

[3] En este punto es cuando sería muy cómodo echar mano de las fórmulas y hacer las cuentas en serio, que es lo más fácil. Pero como me he propuesto reducir la presencia de ecuaciones al mínimo (cero si es posible) para no espantar a los débiles de espíritu,voy a intentar explicarlo sólo con palabras. ¡Al toro, que es una mona!

[4] Como no hay ninguna fuerza actuando en la dirección horizontal, por el principio de inercia, la velocidad en esa dirección es constante.

[5] Como antes, por el princpio de inercia, en cada instante, no hay ninguna fuerza que actúe en la dirección paralela a la superficie de la Tierra, a la trayectoria de la orbita. Como la velocidad siempre es paralela (o tangencial, si se quiere) a la superficie de la Tierra, esto significa que el módulo del vector velocidad (la velocidad “en número”, sin tener en cuenta la dirección) no cambia. La aceleración debida a la gravedad lo que hace es sólo cambiar la dirección de la velocidad. Así que, si no tenemos en cuenta la posible fricción por del aire, la piedra sigue dando vueltas indefinidamente alrededor de la Tierra, gracias solamente al impulso incial. Gracias a Óscar Alonso por indicar que esto último no estaba claro.

La multiplicación rusa

Posted in Divulgación by thetuzaro on 13 agosto 2012

Hace unos pocos días publiqué un artículo explicándole a Elena el efecto Doppler, y compartiendo esa explicación con vosotros, queridos y escasos lectores. Como todos los blogueros que conozco, cada vez que escribo algo me hago la pertinente propaganda en Facebook para que, al menos, algunos de mis amigos vengan a leer lo que he escrito (o a mirar los dibujos, aunque sea). Uno de estos amigos, El Fredy, me propuso que lo próximo sobre lo que escribiera fuera la multiplicación rusa, ¡y yo no tenía ni idea de lo que era eso (y él sí, que conste)! Así que me pico la curiosidad, busqué en internet, saqué el mecanismo y aquí estoy, dispuesto a explicároslo a vosotros.

La multiplicación rusa es un método para multiplicar dos números sin que haga falta saberse más tablas que la del dos. Lo mejor es explicarlo con un ejemplo: a ver, ¿cuántas son 66×39? Si cogéis una calculadora (o si le dais aquí), veréis que el resultado es 2574. Si lo queréis hacer a mano, os haría falta saberos las tablas del 3 y el 9 (o bien la del 6, por la propiedad conmutativa del producto: que 66×39 es lo mismo que 39×66, vaya). Por con el métdodo ruso, podéis hacer la multiplicación usando sólo la tabla del dos.

La cosa es sencilla. Escribís la operación que queréis hacer en un trozo de papel:


A continuación, dividís el primer número entre dos (66/2=33) y lo escribís debajo del 66. Del mismo modo, multiplicáis el segundo número por dos (39×2=78), y lo escribís debajo del 39. Tal que así:



La idea ahora es que repitáis este proceso hasta que en la primera columna obtengáis un uno. Pero claro, ahora tenemos un problema, y es que 33/2= 16.5. No pasa nada: olvidaos del .5 y escribid sólo 16.








Una vez llegados a este punto, tachad todas las filas salvo las que empiezan con un número impar:


Si ahora sumamos 78+2496 tenemos 2574, que es el resultado que esperábamos. Esto es lo que se conoce como multiplicación rusa.

¿Cómo funciona todo esto?

El mecanismo de esta multiplicación no tiene nada del otro mundo y es fácil de entender. Vamos a ir paso por paso viendo qué es lo que ocurre. Primero, como ya sabemos el resultado, escribamos el problema al revés:


A continuación, vayamos aplicando los pasos que hemos visto:



Un inciso. Al hacer esto, simplemente estamos escribiendo la multiplicación de otra manera, puesto que 2574=66×39=33×2×39=33×78. La técnica de la multiplicación rusa consiste, simplemente, en ir pasado factores 2 de la izquierda a la derecha hasta que en la izquierda tengamos un uno. Entonces, obviamente, el número de la derecha es el resultado final de la multiplicación. Por ejemplo: 64×13=32×2×13=32×26=16×2×26=16×52=8×2×52=8×104=4×2×104= =4×208=2×2×208=2×416=1×2×416=1×832. Y sí: 64×13=832. Fin del inciso, sigamos con nuestro ejemplo.

Estábamos en esta situación:



es decir, en la misma situación problemática de antes (supongo que ya sospecharéis que aquí es donde está el truco) así que vayamos con cuidado. 33 no es divisible entre 2. En cambio, 32 sí que es divisible entre dos (32/2=16). Así que podemos escribir 33=32+1. De esta manera:



Si os acordáis de algo llamado propiedad distributiva, sabréis que (32+1)×78=32×78+1×78=32×78+78. Como 32 sí es divisible entre dos, sigamos aplicando las reglas de la multiplicación rusa con la multiplicación 32×78, y guardémonos ese 78 restante para el final.


33×78=(32+1)×78=32×78+78 (este 78 nos lo guardamos para el final)

16 ×156





En el ejemplo que puse en el inciso de antes, este número final era la solución al problema, pero sólo porque en ese ejemplo no nos habíamos tenido que enfrentar a una división entre dos de un número impar. No obstante, podemos hacer lo mismo esta vez, pero teniendo en cuenta que por el camino nos dejamos un 78 que nos habíamos guardado para el final. Así que sí, la solución al problema es el número que multiplica al 1 en la última columna más todo aquello que nos hemos dejado por el camino (en este caso, un 78): 2496+78=2574.

Supongo que el secreto de la multiplicación rusa estará claro para todo el mundo ya. Se van pasando factores 2 del multiplicando de la izquierda al de la derecha. Cada vez que el número de la izquierda sea impar, le restamos uno para poder seguir con el procedimiento. Eso sí, lo que hemos restado, nos lo guardamos para luego. Esto se repite sucesivamente hasta que en la columna de la izquierda tengamos un 1. La solución es, como hemos visto, el número que multiplica al 1 más todo lo que nos hemos dejado por el camino, que no es otra cosa que el número de la derecha de cada fila que comienza con un número impar.

Claro, ahora yo releo todo esto, y me doy cuenta de que es un poco barullo, pero estoy seguro de que si lo leéis con cuidado, y, sobre todo, si os hacéis el ejemplo con lápiz y papel, lo entenderéis sin problemas.

El efecto Doppler

Posted in Divulgación by thetuzaro on 8 agosto 2012

Hace poco estuve de vacaciones en Gran Canaria con Elena, y un día, mientras conducía (ella, que es la que conduce bien) nos pasó eso que tantas veces os habrá pasado a todos. Llegando a Las Palmas de Gran Canaria, nos cruzamos con una ambulancia que iba a todo trapo en sentido contrario, con las sirenas a todo volumen y notamos el clásico cambio de tono en el sonido que hace un vehículo cuando se mueve con respecto a uno. Ya sabéis a qué característico sonido me refiero: ñiiiiiiiiiauuuuuuuuuuuuuun. Por si no os queda claro del todo con esta explicación tan intuitiva, mirad este vídeo en el que, más o menos, se oye ese cambio de tono del que hablo.

Unos segundos después, Elena me preguntó “oye, eso, ¿por qué pasa exactamente?”. Se lo intenté explicar así, sobre la marcha, pero entre que yo no soy muy buen explicador, y que sin hacer dibujitos no es tan sencillo, no sé si lo terminó de entender. Así que creo que es buena idea que, aunque este tema está muy trillado y hay montones de vídeo y blogs en la red que lo explican muy requetebien, se lo intente explicar de nuevo por aquí, y así también lo podéis leer los demás. De esta manera, mato varios párajos de un tiro: me entretengo, a lo mejor los que leáis esto aprendéis algo, contribuyo a la redundancia de la información en Internet, y hago algo más allá de la divulgación científica: llamémoslo divulgación científica del amor.

Figura 1. Diapasón. De Wikipedia.

Como una onda.

Como siempre, escribo esto para que gente que no está muy familiarizada con las ciencias lo entienda lo mejor posible, de modo que los de ciencias igual lo encontráis todo muy sabido: pues si es así os jodéis y repasáis, que nunca viene mal. Para empezar a explicar por qué oímos ese cambio de tono en el ruido de las sirenas de la ambulancia (algo que ya habréis adivinado que se llama efecto Doppler, que, claro, se llama así en honor al señor C. A. Doppler que fue quien lo explicó primero) creo que conviene repasar qué es el sonido en sí. Consideremos un diapasón, que es ese objeto de la Figura 1. Si le damos un golpecito, sus dos patitas paralelas empezarán a vibrar a una frecuencia determinada, es decir, oscilarán a un ritmo determinado de veces por segundo. La vibración de las patitas del diapasón empuja a las moléculas de aire de su alrededor, aumentando y disminuyendo la presión localmente con cada oscilación, y haciendo que se muevan a la misma frecuencia que el diapasión. Y esas moléculas de aire, al moverse empujan a las de su alrdedor, y ésas a las que tienen a los lados… de manera que la vibración del diapasón resulta en una variación periódica de la presión del aire que además viaja por el espacio: una onda sonora. Si en el camino de esa onda viajera se interpone una oreja, la onda de presión llegará hasta el tímpano, que es una membrana que está dentro dentro del oído, moverá las moléculas de aire adyacentes a dicha membrana y, por tanto, hará vibrar la membrana a la misma frecuencia con la que están vibrando las patitas del diapasón. Y luego ya pasan una serie de cosas dentro de la cabeza que hacen que el dueño de la oreja oiga el diapasón.

Figura 2. Tres ondas diferentes con tres frecuencias (y, por tanto, periodos) diferentes.

Así que queda claro que el sonido es una onda viajera de presión. Como lo que nos interesa es explicar, recordemos, por qué varía el tono de las sirenas de la ambulancia cuando nos cruzamos con ella en la carretera, vamos a fijarnos primero en lo que ocurre con la presión del aire en un lugar fijo, dentro del oído. Podemos representar en una gráfica (Figura 2) cómo varía la presión a lo largo del tiempo. Como veis va subiendo y bajando repetidamente. El tiempo que tarda la onda en hacer una oscilación completa se llama periodo. Por oscilación completa me refiero a elegir un punto cualquiera de la onda y avanzar hasta que lleguemos a un punto equivalente: hasta que volvamos a empezar. Esto pasa, por ejemplo, entre los dos círculos rojos de la Figura 2(a) y también entre los dos círculos azules. De hecho, empecéis donde empecéis a mirar, la onda siempre volverá a su estado inicial y el tiempo que tarde será el periodo de la onda.

Ahora un poco de atención porque va a aparecer la que creo que es la primera fórmula de mi blog (aunque tampoco va a ser nada del otro mundo). ¿Qué es la frecuencia de una onda? Si el periodo era el tiempo que tarda la onda en volver a su estado inicial (sea cual sea ese estado inicial), la frecuencia el inverso del periodo, o, dicho de otra manera, uno dividido entre el periodo, y mide el número de oscilaciones completas de la onda que tienen lugar en una unidad de tiempo, por ejemplo, en un segundo. Cuanto mayor es la frecuencia de una onda, menor es su periodo y viceversa. Por ejemplo, un diapasón afinado en la nota La, vibra a una frecuencia de 440 oscilaciones completas por segundo, algo que se escribe así, 440 Hz, y se lee 440 Hercios. El periodo de la onda sonora emitida por el diapasón (o lo que tardan las patitas en hacer una oscilación completa) es, por tanto, 0.0023 segundos, aproximadamente.

El tono que nuestro cerebro interpreta cuando le llega una onda sonora, como se intuye por esto que acabo de decir, depende de la frecuencia de dicha onda. Si tomamos otro diapasón que vibre más despacio, menos veces por segundo, significa que la onda sonora generada tendrá menor frecuencia y mayor periodo, y que nuestro cerebro oirá una nota más grave (Figura 2(b)). Por el contrario, si tomamos un tercer diapasón cuyas patitas vibren más rápidamente que el primero, la frecuencia de la onda sonora será mayor, su periodo menor y el sonido que oiga el cerebro será más agudo (Figura 2(c)). Para aquellos que no sepan qué sonido es grave y qué sonido es agudo propongo el siguiente experimento: decid “iiiiiiiiiiiiiiii” con voz de pito y luego “uuuuuuuuuuuuu” con voz de fornido maromo. El primer sonido es agudo y el segundo grave.

Con lo dicho hasta ahora, ya tenemos para enfrentarnos a las sirenas de la ambulancia, así que allá vamos.

Figura 3. Esquema en que las ondas sonoras emitidas por una fuente estática (círculo negro) son recibidas por unos receptores (cuadrados huecos).

Si la ambulancia está quieta.

El efecto Doppler, que es el causante del cambio de tono precibido en el sonido de la ambulancia al cruzarnos con ella, depende de la velocidad relativa entre la fuente del sonido (la ambulancia) y el receptor (nuestros oídos). De modo que vamos a empezar por el caso sencillo en el que está quieto todo el mundo.

En la Figura 3 he dibujado una fuente de sonido, que es el círculo negro, visto desde arriba. El sonido viaja desde este punto en todas direcciones. Para simplificar las cosas, no voy a fijarme en el sonido que viaja hacia arriba o hacia abajo, sino sólo en el que viaja en horizontal. Dibujar estas cosas desde arriba de manera que se entiendan no es tan sencillo porque no se puede dibujar la onda entera como hicimos en la Figura 2. Lo que voy a hacer es dibujar sólo un punto determinado de la onda y ver cómo evoluciona con el tiempo: por ejemplo los puntos marcados con círuclos rojos en la Figura 2(a) en los que la presión es máxima. Los puntos de una onda que están, como estos, en el mismo momento de la oscilación, se llaman frentes de onda.

El sonido que emite la ambulancia viaja en todas direcciones a la misma velocidad, de modo que los frentes de onda, vistos desde arriba, son circunferencias concéntricas. La Figura 3 es sólo una foto en un instante determinado, pero si viéramos cómo evoluciona con el tiempo, las circunferencias se irián haciendo más y más grandes según las ondas se alejaran más y más de la fuente. A la persona que escucha junto a la ambulancia, le llegan los frentes de onda con un determinado periodo (es decir, oye una onda de una determinada frecuencia) independientemente de donde se coloque. Dicha frecuencia es la misma con la que la ambulancia emite el sonido. Ahora bien, ¿qué pasa si la ambulancia empieza a moverse?


Supongamos que la ambulancia se está acercando al señor (o señora, por supuesto) que escucha. Igual que antes, la ambulancia emite un frente de ondas cada cierto tiempo, lo que marca la frecuencia del somido emitido. Esta frecuencia, por supuesto, es la misma que en el caso anterior. El frente de ondas se irá alejando progresivamente del punto en el que fue emitido, formando una circunferencia de diámetro cada vez mayor y al final, acaban llegando al receptor. ¿Qué ocurre en esta nueva situación? Ocurre que mientras emite el sonido, la ambulancia se está moviendo (en la Figura 4 hacia la derecha), de manera que cuando emite un nuevo frente de onda, está un poco más a la derecha de la figura, y, cuando emite el siguiente, la ambulancia está un poco más hacia la derecha, y, cuando emite el siguiente, un poco más aún… Cada uno de estos frentes de onda forma, como siempre, una circunferencia de diámetro cada vez mayor según pasa el tiempo. Pero, mucho ojo, el centro de cada circunferencia lo marca la posición de la ambulancia en el momento de emitir el frente de onda. El resultado es el que podeis ver en la Figura 3. Los frentes de onda a la derecha de la ambulancia y, por tanto, los que le llegan a la persona que escucha, están más juntos entre sí que en el caso en el que la ambulancia estaba quieta. Frentes de onda más juntos significa menor periodo y, por tanto, mayor frecuencia y, como hemos visto antes, el sonido que percibimos es más agudo de lo normal cuando la ambulancia se acerca a nosotros.

Figura 4. Esquema en el que se muestran las ondas sonoras emitidas por una fuente móvil (círculo negro). La fuente se está acercando al receptor de la derecha y alejándose del de la izquierda (respresentados con cuadrados huecos). Los círculos punteados indican posiciones pasadas de la fuente.

… auuuuuuuuuuuuuuuuuuuuuun

¿Y cuando la ambulancia ya ha pasado de largo? El comportamiento de la ambulancia y de los frentes de la onda sonora que emite son exactamente los mismos que en el caso anterior: lo que varía es la posición del oyente. De modo que podemos seguir utilizando la Figura 4, perofijándonos esta vez en el oyente que está a la izquierda de la figura . Como véis, visto desde aquí, lo que ocurre es que los frentes de onda están más separados entre sí de lo que estaban en la Figura 4. Y ahora el argumento es el mismo: frentes de onda más separados (recordemos la Figura 2) significa que el periodo es mayor, y por tanto que la frecuencia es menor, lo que significa que percibimos un sonido más grave de lo normal cuando la ambulancia se aleja de nosotros.

Con esto queda explicado ese cambio de tono que percibimos en las sirenas de la ambulancia al cruzarnos con ella mientras íbamos a Las Palmas de Gran Canaria. Espero que quede claro que el cambio de tono depende de la velocidad relativa entre la fuente del sonido y el que lo escucha. Por eso cuando tú estás conduciendo y te cruzas con una ambulancia en sentido contrario, que es cuando la velocidad relativa es mayor, el efecto es tan pronunciado. En cambio, cuando la velocidad relativa es nula, que ocurre cuando fuente y receptor están parados y también, mucho ojo, cuando viajan a la misma velocidad y en el mismo sentido (por ejemplo, cuando vais en coche detrás de una ambulancia) el sonido que oímos es del mismo tono que el que emite la ambulancia.

Para saber más.

Dije al principio que este efecto está explicado por montones de personas en internet, así que una búsqueda, por ejemplo en Google, de los términos “efecto Doppler” os va a dar muchos sitios donde aprender más. Por otro lado, cualquier libro de física general trata este tema (por ejemplo los escritos por Tipler y Mosca o por Alonso y Finn). Y, por supesto, como siempre, la Wikipedia, claro.

El concepto de derivada

Posted in Divulgación by thetuzaro on 1 agosto 2012

Hace mucho que no escribo nada en plan empollón, así que me voy a animar hoy. Sin embargo, no voy a hablar sobre nada relacionado directamente con mi trabajo, sino que voy a tratar de explicar qué es, qué significa y para qué sirve una herramienta matemática básica con la que muchos de los que leáis esto os habréis tenido que pelear en algún momento: la derivada. Que no cunda el pánico, que no voy ponerme a escribir fórmulas como un loco, aunque la cosa sea de matemáticas.

¿Por qué quiero escribir sobre esto? Pues, sinceramente, porque ayer estuve viendo el segundo capítulo de la magnífica serie educativa sobre física El Universo Mecánico y me gustó mucho la manera en la que introducían el concepto de derivada. Pensado en esto, me acordé de unos mp3 que me bajé hace años de un profesor de una universidad tejana en los que también explicaba el concepto de derivada de una forma muy didáctica. Así que me he propuesto hacer un refrito con añadidos de mi cosecha, y explicaros a vosotros qué es una derivada y, sobre todo, cuál es su significado: para qué vale. Por un lado lo hago como pasatiempo, pero también porque cuando uno aprende estas cosas (y también cuando las enseña a otros) es muy fácil quedarse sólo con la técnica, con las formulas, con una serie de pasos que hay que seguir para realizar una determinada operación, y olvidar el propósito de lo que uno está haciendo, qué significa, qué aplicaciones tiene en la vida real. Para los que seais de ciencias, igual lo que voy a decir os parece de sobras conocido, pero espero que haya muchos compañeros de letras a los que les parezca muy interesante lo que voy a contar. Así que manos a la obra.

Guardias Civiles, probablemente discutiendo la paradoja de Zenón con un conductor (foto de la Wikipedia).

Para que resulte más ameno, vamos empezar con un ejemplo muy sencillo hablando de coches y multas de tráfico. Imaginad que vais en vuestro coche, y tras pasar un pueblo, la Guardia Civil os da el alto y os dice “buenos días, documentación. Iba usted a 80 km/h por una zona que estaba limitada a 50 km/h”. Como es natural, negaréis todo: “imposible, yo siempre cumplo las normas a rajatabla, soy un bendito”. Entonces el guardia saca una foto para demostrar que ibais más rápido de lo debido, pero no pasa nada, vosotros, que sois unos pájaros de cuidado tenéis la respuesta preparada: “mire, señor agente, en la foto se ve claramente que mi coche está quieto, por lo tanto no puedo ir a más de 50 km/h”.

Esto, que parece una parida (y que os recomiendo que no probéis en la vida real, no vaya a ser), es una versión casposa de lo que se conoce como paradoja de la flecha de Zenón. Un tipo lanza una flecha, y Zenón piensa: “si me fijo en cualquier instante de tiempo, la flecha está quieta en un sitio; si me fijo en cualquier instante anterior o posterior, la flecha está quieta en otro sitio diferente: ¿cómo es posible que la flecha se mueva, si en cada instante de tiempo la flecha está quieta? ¡Algo no cuadra!”.

Obviamente la flecha se está moviendo, porque ahora está aquí, y un rato después está allí. Si la flecha ha avanzado, por ejemplo, diez metros en un segundo, podemos decir además que se movía, al menos en promedio, a 10 metros por segundo (que se escribe 10 m/s, por aquello de abreviar). Del mismo modo, el Guardia Civil, os puede enseñar una foto de un instante posterior (pongamos 5 segundos) a la primera foto, en la que se ve que vuestro coche ha avanzado 70 metros. Si os hacéis las cuentas, veréis que si avanzasteis 70 metros en 5 segundos con vuestro coche ibais a un promedio de unos 14 m/s, o, lo que es lo mismo, unos 50 km/h: en el límite, pero legal. En cambio, el guardia no da su brazo a torcer y sigue empeñado en demostrar que en el instante de la primera foto, el coche iba a 80 km/h y que después su velocidad fue disminuyendo ¿Cómo puede hacerlo?

Figura 1. Varios valores de la distancia recorrida por el coche diferentes instantes tras la primera fotografía. Los valores de la velocidad señalados los he calculado utilizando los pares de puntos indicados con flechas.

Ya hemos visto que la manera de calcular la velocidad es ver cuánto se ha movido el coche en un determinado intervalo de tiempo. Para ver cuál es la velocidad en el instante inicial, cuando el guardia hizo la primera foto, lo que tenemos que hacer es irnos fijando en un intervalo de tiempo cada vez más pequeño. Supongamos que tenemos fotos de la posición del coche en un buen número de instantes después del incial. Unos pocos de estos datos están dibujados en la Figura 1. Está bastante claro que, según pasa el tiempo, el coche avanza cada vez menos y menos terreno. En otras palabras, está frenando, tal y como dice el agente. Vamos a calcular la velocidad para intervalos cada vez más pequeños hasta que seamos capaces de calcular la velocidad instantánea al principio, en el momento de la primera foto. En la figura he dibujado unas cuantas flechas indicando los pares de puntos (o pares de fotos) que he utilizado para calcular las velocidades indicadas. Primero he tomado un intervalo de cinco segundos desde el instante inicial; después un intervalo de tres segundos y, finalmente, un intervalo de un segundo. En cada caso, lo que he hecho es dividir la distancia recorrida entre el tiempo transcurrido. Como veis, el valor de la velocidad, según reducimos la duración del intervalo de tiempo, se va pareciendo más y más a los 80 km/h que decía el agente, que al final va a tener razón.

Si seguimos reduciendo el intervalo de tiempo que utilizamos para calcular la velocidad (y asumiendo que el guardia tiene muchísimas fotos, hechas con una precisión acojonante) nos iremos aproximando más y más al concepto de derivada, que no es otra cosa que cuánto varía una cantidad con respecto a lo que varía otra, para un determinado valor de ésta última (en nuestro caso, para un instante determinado, un intervalo de tiempo cortísimo). En la Tabla 1 os muestro la velocidad que se obtiene según vamos haciendo nuestro intervalo de tiempo más y más corto. Claramente, la velocidad se va aproximando más y más al valor de 80 km/h del que os acusaba el Guardia Civil. La conclusión es obvia: podemos hacer el intervalo de tiempo tan pequeño como se nos antoje, y la velocidad será cada vez más cercana a 80 km/h. Por tanto, cuando el intervalo sea tan ridículamente pequeño (y recordad que lo podemos hacer tan pequeño como se nos antoje: no hay límite) que, básicamente, sea un instante, ese instante en el que el guardia os echó la primera foto, la velocidad será tan exageradamente parecida a 80 km/h que, en fin, será 80 km/h, con lo que el guardia gana, os pone la multa y, de paso, resuelve la paradoja de Zenón.

Tabla 1. Resultado de calcular la velocidad del coche en el instante incial utilizando intervalos de tiempo cada vez más cortos.

Esto es el concepto de derivada: poder saber cuánto varía la posición del coche según avanza el tiempo, es decir la velocidad, en cada instante. Y, por supuesto, la cosa no se limita a velocidades y objetos en movimiento. El ritmo de variación de una magnitud, la que sea, en función de cuánto varíe otra magnitud: todo eso son derivadas. Cuánto varía el precio de un producto según varía su demanda; la producción agrícola según varíe la temperatura, o la cantidad de lluvia, la población de un determinado animal según aumente o disminuya la cantidad de alimento, o la población de sus predadores naturales…

En el ejemplo que yo he puesto, nos hemos limitado a calcular la derivada de la posición con respecto al tiempo en el primer instante de nuestro experimento imaginado, justo cuando el guardia tiraba la primera foto. Por supuesto que, como he dicho más arriba, la derivada se puede calcular para cualquier instante, para cualquier valor de lo que se llama la variable independiente (en los ejemplos del párrafo anterior, la demanda de un producto, la temperatura o la cantidad de lluvia en los campos, o la cantidad de alimento para unos animales). Sin embargo, creo que cómo calcular la fórmula general que nos dé la derivada para cualquier valor del tiempo es mejor que os lo explique el capítulo de El Universo Mecánico que me inspiró a mí para escribir esto, porque ya he soltado mucho rollo, ellos lo hacen muy bien y con animaciones. Además, el ejemplo que ellos utilizan es bastante menos enrevesado de lo que sería hacerlo con mi ejemplo del coche que frena. Me conformo con haber intentado convenceros de que la derivada es algo mucho más profundo y útil que simplemente unas reglas que nos enseñaron en el instituto y que, aplicadas a una función matemática, nos dan otra.

Algunas técnicas experimentales: microscopio de fuerza atómica

Posted in Divulgación by thetuzaro on 19 marzo 2012

Estás ante una nueva entrega de la serie Lo que hace este tío para ganarse el pan. En esta ocasión quiero describir otra técnica de las que utilizamos en el laboratorio para caracterizar los materiales semiconductores que se utilizan para fabricar dispositivos electrónicos. Hoy voy a hablar de una técnica que nos permite ver cosas muy, muy pequeñas que se encuentran en la superficie del material. Me refiero a la microscopía de fuerza atómica. Eso sí, lo voy a contar a lo sencillo para que no se me asuste nadie.

¿Qué es lo que se puede ver con esta técnica que no se pueda ver con otras?

Por microscopía entendemos el uso de aparatitos para poder ver cosas que son tan pequeñas que no las podemos ver a simple vista, con el ojo desnudo, que se suele decir. Todos conoceréis los microscopios ópticos convencionales, que son los que suelen salir en las noticias cuando hablan de algo relacionado con la ciencia: ya sabéis, esos cacharritos que están formados por lentes y que tienen unos tubos por los que se asoma uno y ve lo que sea que se esté estudiando. Con estos microscopios podemos ver cosas de hasta más o menos 1 µm (que se lee un micrómetro o una micra, y equivale a 0.0001 cm).

Para ver cosas aún más pequeñas tenemos que tirar de los microscopios electrónicos. En este otro tipo de microscopio, en lugar de tener luz corriente y unas lentes que aumentan lo que queremos ver, tenemos electrones. Básicamente, lo que se hace es lanzar un chorro de electrones, que pega con el material e interactúa con él. Como resultado, otros electrones salen del material, se dirigen con unas lentes especiales para electrones, y se detectan con unos dispositivos especiales, del mismo modo que en el microscopio óptico detectamos la luz con nuestros ojos o con una cámara. Con un microscopio electrónico, se pueden ver cosas bastante más pequeñas, de hasta unos 10 nm (que se lee diez nanómetros, y equivale a 10-7 cm, o 0.0000001 cm). Si me animo, otro día os cuento un poco más de algunos de estos microscopios.

Como alternativa a los microscopios electrónicos, están los microscopios de fuerza atómica (o AFM, por sus siglas en inglés, que son las que utilizaré todo el rato). Con ellos, podemos ver cosas quizá algo más pequeñas que con algunos microscopios electrónicos, de hasta fracciones de 1 nm, que tampoco supone una enorme diferencia. En realidad, a la hora de elegir está técnica o la que he descrito más arriba de los microscopios electrónicos, más que el límite de cuán pequeñas son las cosas que podemos ver, se tienen en cuenta (al menos en mi campo) otros factores que pueden nivelar la balanza de uno u otro lado.

Las ventajas y los inconvenientes de los AFM

Una de las ventajas que los AFM tienen sobre los microscopios eléctronicos es la poca preparación que hay que hacer a la muestra que queremos estudiar para poder visualizarla con el microscopio. Normalmente, con limpiar un poco tu trozo de material con algún disolvente en más que suficiente para poder tomar unas fotos de lo más chulo. En cambio, los microscopios electrónicos suelen requerir algo más de preparación, además de tener que operar en concidiones de vacío.

Otra de las ventajas es lo poco o nada invasiva o destructiva que es la técnica. Es decir: el AFM no modifica ni estropea la superficie del material mientras lo inspecciona. Además, el AFM nos da un mapa topográfico en tres dimensiones de la superficie del material, mientras que los microscopios electrónicos no (o no tanto).

No todo son ventajas, obviamente. Con un AFM tenemos bastante limitado el area de la muestra que podemos fotografiar, que suele estar limitada a cuadrados de 100-200 micras de lado. Además es una técnica bastante lenta. Esto último repercute en dos aspectos. El primero es que, obviamente, nos gusta que las cosas funcionen rápido para poder hacer más en menos tiempo. El segundo aspecto es que, como estamos haciendo fotos de trocitos muy pequeños del material, y las estamos haciendo muy despacito, puede pasar que la muestra se mueva lentamente (por lo que sea, variaciones en tempratura, vibraciones…) y que, igual que con la cámara del móvil, la foto nos salga distorsionada o movida.

¿Cómo funciona la cosa?

El funcionamiento de uno de estos microscopios es bastante ingenioso, y se puede entender bastante bien de forma intuitiva. Alguna vez he escuchado a algún vendedor de AFM comparar el funcionamiento de uno de estos microscopios con los ciegos que caminan con la ayuda de un bastón y es una comparación muy acertada. Nuestro amigo invidente va por la calle y va golpeando el suelo con el bastón para ver si hay obstáculos. Con él puede hacerse una idea mental de la topografía del suelo, puede ver si hay un agujero en la acera o un bordillo. También puede distinguir entre los diferentes tipos de baldosa que se ponen para la parte normal de la acera, los pasos de peatones, las paradas de autobús…

Figura 1. Imagen de microscopio electrónico de una punta de AFM usada. Se puede ver la palanca que se flexiona y la punta que inspecciona la superficie. Fuente: Wikimedia Commons.

Nuestro AFM funciona de una manera muy similar. La parte sensible del microscopio es una palanquita, como un trampolín de los de la piscina, que, en su parte inferior, tiene una punta pequeña y afiliada. Al desplazar dicha punta sobre la superficie del material, nuestro trampolín se flexiona hacia arriba y hacia abajo, y registrando esas flexiones, nos hacemos una idea de la topografía de la superficie de nuestro material. En la Figura 1 podéis ver una imagen (tomada con un microscopio electrónico de los que hablaba arriba, qué cosas) de uno de estos trampolines con punta. Las más sencillas y comunes de estas puntas están fabricadas con silicio, que se prepara con un método relativamente complejo que se puede consultar aquí.

Así que tenemos un trampolín con una punta que deslizamos sobre la superficie del material y que responde a las irregularidades de la superficie. Pero, ¿cómo hacemos para detecar las pequeñísimas flexiones del pequeñísimo trampolín? Para eso hacemos uso de un láser, como podéis ver en la Figura 2. La luz del láser incide en la parte superior del brazo del AFM, del trampolín. Es reflejada, y se detecta con cuatro fotodiodos (unos detectores de luz, vaya) que están colocados muy juntos, formando un mosaico. Cuando la superficie es lisa (Figura 2 (a)), el sistema está alineado de manera que la intensidad de la luz se reparte entre los cuatro fotodiodos, de manera que todos registran la misma señal, y el ordenador que maneja todo el cotarro se da cuenta de que la superficie es lisa. Bien: esto es fácil.

Figura 2. Esquema que muestra como se detecta la flexión del brazo de un AFM. (a) Cuando la superficie es lisa, el láser da en el trampolín, se refleja, y su intensidad se reparte entre los detectores, que registran la misma señal. (b) Cuando la superficie es más baja de lo normal, el brazo se flexiona menos, y la luz del láser que se refleja incide mayoritariamente en los detectores de abajo, que registran más señal que los otros. (c) Cuando la superficie es más alta de lo normal, el brazo se flexiona más, y la luz del láser que se refleja incide mayoritariamente en los detectores contrarios, que esta vez registran más señal que sus compañero.

Según deslizamos nuestra punta por la superficie de la muestra, puede ser que nos encontremos con un trozo que está más bajo de lo normal, como en la Figura 2(b). Como la superficie está más baja de lo normal, el brazo del AFM está más estirado de lo normal, lo que resulta en que el láser se refleje un poquito más abajo de lo normal. Ahora los cuatro cuadrantes del detector no ven la misma intensidad. De hecho, los detectores de abajo ven más de lo normal, y así el ordenador sabe que la superficie es un poco más baja en ese punto.

Por supuesto que también ocurre al revés, como en la Figura 2(c). La superficie puede tener alguna elevación. Entonces nuestro trampolín se flexiona más de lo normal y, de nuevo, unos cuadrantes del detector ven más luz que otros, y así sabemos que la punta está sobre una elevación del terreno. Por supuesto que la cosa es más delicada y la punta también se puede torsionar hacia los lados, pero eso también se puede detectar con nuestro sistema de cuatro fotodiodos.

¡Pero ponnos unas fotos sacadas con ese cacharro! ¡Algún ejemplo concreto, tírate el rollo!

Ya sabía yo que me ibais a pedir algo así. Buscando un poco por la red se pueden encontrar imágenes guapísimas obtenidas con la técnica que os estoy describiendo. Yo he juntado cuatro en la Figura 3, para que os hagáis una idea. La primera foto (Figura 3(a)) la he sacado de Wikimedia Commons. Lo que se puede ver son los bultos (o surcos, según se mire) de un CD-ROM. La imagen reproduce un cuadrado de 15 µm sobre la superficie del CD (o, más bien, de la lámina reflectante que hay dentro).

En la Figura 3(b) (que he sacado de esta referencia) podéis ver dos reconstrucciones superficiales adyacentes en un trozo de silicio. ¿Que qué es una reconstrucción superficial? Como sabréis, los materiales cristalinos están compuestos por átomos ordenados de una dterminada manera. Y se ordenan de esa manera porque están rodeados por todas partes de átomos igulaes a ellos. Pero, ah, amigo, los átomos de la superficie sólo tienen vecinos por un lado, así que se pueden ordenar de varias maneras diferentes que son compatibles con el resto de la estructura del cristal. Lo que veis en la figura son dos de esas posibles configuraciones de los átomos de un cristal de Si. La figura representa un área cuadrada de 26 nm de lado.

En la tercera (extraída de aquí) podéis ver una capa de grafito (que es el material presente en las minas de los lápices, entre otras cosas). El grafito está formado por átomos de carbono, que forman una red en dos dimensiones enlazándose fuertemente entre sí con tres de sus cuatro electrones de valencia. El electrón sobrante se utiliza para enlazar, más debilmente, las diferentes capas entre sí. En la foto podéis ver una de esas capas, y el lugar que ocupa cada átomo de carbono, en cada vértice de los hexágonos de la figura. La imagen tiene 2 nm (0.000000002 m) de lado.

Figura 3. Imágenes tomadas con un AFM de (a) un CD-ROM, (b) dos reconstrucciones superficiales coexistiendo en Si(111), (c) una capa de grafito, y (d) puntos cuánticos de arseniuro de indio crecidos sobre GaAs.

La cuarta está sacada de mi propia tesis doctoral (que por cierto, me voy a hacer publicidad: la podéis consultar aquí) y es cortesía del Dr. José María Ulloa Herrero. Se trata de una capa de puntos cuánticos de arseniuro de indio crecidos sobre un sustrato de arseniuro de galio. Los puntos cuánticos son una estructura muy interesante para, entre otras cosas, fabricar dispositivos emisores de luz, como LED y láseres. La foto representa un área cuadrada de 700 nm de lado (es decir, 0.0000007  m) y los puntitos blancos son los puntos cuánticos, que tienen unos 30 nm de lado y unos 5 nm de alto.

Para saber más

Obviamente, la técnica es bastante más sutil y compleja de lo que he contado aquí. El lector que quiera saber un poquito más, está invitado a buscar, por ejemplo, la entrada de la Wikipedia, o alguno de estos enlaces que he encontrado por ahí, como éste, éste, éste. Algunos de estos enlaces tienen referencias que pueden estar bastante bien.

Algunas técnicas experimentales: fotoluminiscencia

Posted in Divulgación by thetuzaro on 6 marzo 2012

Nueva entrega de la serie de artículos en los que os cuento cosas de las que hago en el trabajo. Se me ha ocurrido que puede ser interesante que os explique algunas de las técnicas experimentales que utilizamos en el laboratorio. Hoy vamos a ver cómo se pueden aprender propiedades de los materiales observando la luz que emiten: hoy toca hablar de la luminiscencia, en general, y de la fotoluminiscencia en particular.

Por luminiscencia se entiende el fenómeno por el que algo, un material, emite luz. En la terminología que empleamos los que nos dedicamos a esto, hay una serie de palabras para diferenciar la luminiscencia en función de cuál es el estímulo que provoca la emisión de la luz. Así, tenemos la catodolominiscencia, cuando la emisión de luz está provocada por un haz de electrones que impacta sobre el material, la electroluminiscencia, cuando es la corriente eléctrica que pasa por el material la que provoca que éste emita luz, o la fotoluminiscencia, que consiste en provocar la emisión de luz mediante la iluminación del material. Es de esto último, de la fotoluminiscencia, de lo que voy a hablar hoy, principalmente.

Las tres cosas que pueden pasar

Figura 1. Esquema con los tres procesos por los que un electrón puede ganar o perder energía a través de la luz.

La fotoluminiscenica, esencialmente, consiste en hacer que el material que queremos estudiar absorba energía en forma de luz, y luego pierda parte de esa energía también en forma de luz. Es esta luz emitida por el material la que nos da la información que buscamos. En general, la ganancia o la pérdida de energía por parte del material en un experimento de fotoluminiscencia se logra haciendo que los electrones ganen o pierdan energía (ver el capítulo de introducción, donde se hablaba de las energías permitidas para los electrones y de cómo la energía del electrón puede cambiar). En este sentido, de cómo los electrones pueden ganar o perder energía en forma de luz, los fenómenos que pueden ocurrir en el material son los que aparecen en la Figura 1.

Fijémonos en el primero de ellos, la absorción. Imaginemos un material que tiene un nivel de energía E1 en el que hay un electrón y un nivel de energía E2, mayor que E1, que está vacío. En esta situación, si hacemos que llegue un fotón (una partícula de luz) que tenga justo la energía que separa a los dos niveles (es decir, si la energía del fotón es Ef=E2E1) puede ocurrir que el electrón absorba la energía del fotón y pueda acceder al nivel de energía E2. Esto, mucha antención, sólo puede ocurrir si la energía del fotón es exactamente igual a la que separa a los dos nieveles energéticos. Es decir, el electrón puede absorber o toda la energía del fotón o nada, pero no sólo una parte. Y, por supuesto, el electrón sólo puede tener las energías E1 y E2 y no ninguna otra.

Ahora que tenemos nuestro electrón en el nivel de alta energía, E2, pueden ocurrir dos cosas. La primera es que el electrón, por si sólo, vuelva al nivel energético inicial, perdiendo la energía que le separa del mismo en forma de un nuevo fotón de energía Ef=E2E1. Este fotón se emite con dirección y fase aleatoria. Es decir, que puede salir hacia cualquier lado y sus propiedades no dependen de nada que haya pasado antes. Este fenómeno se conoce con el nombre de emisión espontánea.

Estos dos fenómenos, absorción y emsión espontánea, son los implicados en la técnica de fotoluminiscencia de la que estamos hablando. Para que la cosa esté completa, no obstante, os voy a describir un tercer fenómeno, que aunque no es particularmente significativo para la fotoluminiscencia, conviene que sepáis, porque es el que está detrás del funcionamiento del láser: estoy hablando de la emisión estimulada.

De nuevo, partimos de la situación en la que electrón está en el estado de alta energía E2. Esta vez, sin embargo, vamos a añadir a la escena un fotón que, de nuevo, tiene justo la energía que separa los dos niveles energéticos. El fotón interactúa con el electrón y con los dos niveles de energía, provocado que el electrón vuelva al nivel E1 y que se emita un fotón, como antes, con energía igual a la que separa los dos niveles electrónicos. Al contrario que en el caso anterior, el fotón emitido estimuladamente, además de tener la misma energía que el fotón incidente, tiene su misma dirección y su misma fase. Esto de la fase quiere decir que los dos fotones suman su intensidad. Así, empezamos con un fotón y un electrón excitado, y ahora tenemos dos fotones viajando juntos. Si os dais cuenta, lo que hemos hecho ha sido amplificar la intensidad de la luz, y en eso se basan los láseres para funcionar, pero no es de eso de lo que estamos hablando hoy, así que lo dejaremos para otro día.

Lo mismo, pero en semiconductores

Vamos a ver ahora qué ocurre si en lugar de tener un sistema imaginario con dos niveles electrónicos aislados tenemos un material semiconductor. La situación es muy, muy parecida a lo que he contado un poco más arriba. La única diferencia radica en el hecho de que, como recordaréis los que hayais leído el artículo introductorio, en el semiconductor los electrones no tienen unos niveles de energía permitida, sino unas bandas de energía permitida. Los electrones tienen una energía correspondiente una banda, que se lama banda de valencia, pero pueden aumentar su energía para llegar a la denominada banda de conducción. Esto puede ocurrir siempre y cuando la energía que le demos al electrón de la banda de valencia sea al menos tanta como la energía de banda prohibida, o gap, que separa la banda de valencia de la banda de conducción.

Figura 2. Diagrama de bandas de un semiconductor, indicando las transiciones electrónicas posibles.

Para que esto quede más claro, lo explico en la Figura 2 en un dibujito. Ahí tenéis las bandas de valencia y conducción (en función del vector de onda, k: ver capítulo anterior), con la primera llena de electrones y la segunda prácticamente vacía. En esta situación, los electrones pueden absorber energía de la luz con la que iluminemos el material, siempre y cuando la energía de los fotones sea mayor que la energía de la banda prohibida o gap. Estas serían las transiciones que he dibujado con flechas azules. Como veis, cada vez que un electrón absorbe un fotón y salta a la banda de conducción, deja un hueco en la banda de valencia. Si repasáis el capítulo de introducción, veréis que lo que nos dedicamos a esto encontramos más cómodo hablar del hueco como una partíicula con todas las de la ley, en lugar de estar trabajando con todos los electrones que rodean al hueco, que son muchos más, y es bastante poco útil.

También puede ocurrir que los electrones vuelvan a la banda de valencia emitiendo un fotón que, de nuevo, tiene que tener tanta energía como la que separa la energía inicial y la final del electrón. Esta sería, por ejemplo, la transición representada con una flecha roja. Por motivos que no vienen al caso ahora, estas transiciones, además de conservar la energía (es decir, que la energía que gana o pierde el electrón tiene que ser igual a la del fotón que se absorbe o emite) tienen que conservar el valor de k: por eso sólo he dibujado transiciones verticales en la figura.

Y así, visto en un diagrama de bandas, ¿cómo se explica la fotoluminiscencia?

Pues así, en un diagrama de bandas, el experimento de fotoluminiscencia se ve como en la Figura 3. Básicamente, son tres pasos los que ocurren. Primero, el material absorbe energía de la luz incidente. Como veis en el primer paso de la Figura 3, un fotón de energía Ef es absorbido por un electrón que sube de la banda de valencia a la de conducción, dejando un hueco en la banda de valencia.

Figura 3. Los tres pasos básicos en los que se basa la fotoluminiscencia.

Como bien sabéis todos, todo lo que sube baja, y las cosas, en general, tienden a minimizar su energía. Así, los ríos buscan el mar, y los charcos se forman en las zonas más bajas de la calle. Lo mismo ocurre con los electrones, que antes de que pase nada más, descienden hasta la parte más baja de la banda (suponiendo que esté libre y no haya electrones con esas energías). Esta energía que pierde el electrón se comunica al cristal, al material que estudiamos, en forma de calor.

Con los huecos pasa más o menos lo mismo. El hueco que nos ha dejado el electrón al pasar a la banda de conducción, igualito que las burbujas en un refresco, pierde su energía subiendo hasta el borde de la banda de valencia. Sí, he dicho bien: pierde energía subiendo por la banda. Recordad que el hueco es eso: un sitio donde falta un electrón. Si todos los electrones que rodean al hueco pierden energía (se van a la parte más baja de la banda) el hueco acaba subiendo por la misma. Como veis, es mucho más conveniente fijarse en las evoluciones de un solo hueco que en las de todos los electrones que lo rodean.

Cuando electrón y hueco están ya relajaditos, puede ocurrir lo que veis en la parte derecha, que el electrón vuelve a su banda original, emitiendo un fotón de energía Eg, que es la energía del gap. Como he dicho un poco más arriba, solemos tratar a los huecos como partículas con el mismo derecho que los propios electrones, así que a esto de que el electrón emita un fotón y baje a la banda de valencia de nuevo, colocándose donde haya un huequito, lo describimos como “el electrón y el hueco se recombinan“.

Que sí, que sí, pero ¿en la vida real qué es lo que se hace?

En la Figura 4 tenéis un esquema del sistema experimental que se suele utilizar para hacer experimentos de fotoluminiscencia. Vamos a seguir el camino que sigue la luz en la figura. Las fuentes de luz que se suelen utilizar en este tipo de experimentos son láseres. Hay varias razones por la que se prefieren estas fuentes de luz sobre lámparas u otras. Por ejemplo, los láseres emiten fotones de una energía muy determinada: se dice que son muy monocromáticos (y ahora, con esta palabra, el lector avispado se habrá dado cuenta de que algo tiene que ver la energía de los fotones con el color de la luz). Además, los láseres pueden emitir una luz muy intensa y en línea recta, lo que permite que podamos dirigir el haz de luz con espejos, y que al final del trayecto no hayamos perdido casi potencia. Si recordáis lo que se vió en la Figura 3, necesitamos que la energía de los fotones de la luz láser sea mayor que el gap del semiconductor. Esto es algo que se consigue con láseres basados en determinados gases y también láseres basados en semiconductores.

Figura 4. Esquema de un experimento de fotoluminiscencia.

Con la ayuda de unos espejos, dirigimos nuestro haz de luz hasta la muestra, donde pasa todo eso que hemos visto en la Figura 3. Entonces, la luz emitida por la muestra (y ojo, no la luz del láser) se recoge con unas lentes y se dirigen con espejos hasta un aparato que se llama monocromador.

Voy a explicarlo de una manera muy, muy básica. Un monocromador es un caja con dos agujeros: uno para que entre la luz y otra para que salga. Dentro de la caja hay un objeto llamado red de difracción, que lo que hace es lo mismo que el prisma de la portada del famoso disco de Pink Floyd: separa la luz que le entra por un lado en los colores que la componen (y, de nuevo, diferente color de la luz significa diferente energía de los fotones que la componen). Girando el prisma conseguimos que el color de la luz que sale por el agujero de salida del monocromador sea uno u otro.

A la salida del monocromador hay un detector, que puede ser por ejemplo un fotodiodo o un fotomultiplicador. Su misión es medir cuánta luz sale del monocromador. Dicha cantidad se registra, por último, en un ordenador. Así, tenemos un sistema automatizado que mide la señal del detector para una orientación de la red de difracción. Luego gira un poquito la red y toma otra medida, y así sucesivamente.

Hay un sistema más moderno y rápido de hacer todo esto, que es utilizar una cámara CCD, con una hilera de píxeles como los que tiene la cámara de vuestro movil, de manera que tenemos, de facto, un montón de detectores puestos uno al lado del otro y así podemos detectar todo lo que sale del monocromador a la vez, sin necesidad de ir punto por punto girando la red de difracción.

Figura 5. Un espectro de fotoluminiscencia, a temperatura ambiente, de uno de los diodos Gunn con los que trabajo. ¡Un ejemplo real como la vida misma!

En la Figura 5 os dejo un ejemplo de un espectro (que es como se llama a la gráfica de intensidad de luz en función de la energía de los fotones) de uno de los diodos Gunn con los que trabajo en Bristol. Lo que se representa es la cantidad de luz que ve el detector en función de la energía de los fotones. Como veis, el pico del espectro está alrededor de 1.42 eV, que es el valor del gap del arseniuro de galio (símbolo químico GaAs: el material en el que se basan muchos de los aparatitos electrónicos que afectan vuestras vidas).

La información que sacamos de todo esto

¿Todo esto para qué vale? Pues para darnos una información muy valiosa sobre el material. Por ejemplo, para saber el valor de la banda de energía prohibida. La del GaAs la sabemos ya, pero podemos hacer aleaciones de GaAs con otros elementos como el aluminio, el nitrógeno o el indio, y entonces el gap cambiará y con la fotoluminiscencia lo podemos conocer.

Otra aplicación es conocer cómo de puro y cristalino es muestro material. Si nuestro material es muy puro, tenemos un pico muy claro, definido y estrecho. En cambio, si nuestro material es inhomogéneo, el valor del gap variará de unos puntos a otros y al final tenemos un montón de picos superpuestos que vemos en la pantalla de nuestro ordenador como un pico muy ancho.

Más aplicaciones: comparando la intensidad de la fotoluminiscencia a temperatura ambiente y a temperatura muy baja, podemos estimar cómo de bueno es el material a la hora de emitir luz. A esto se le llama eficiencia radiativa. Por último, si tenemos materiales adyacentes con diferente composición, la fotoluminiscencia nos puede ayudar a conocer como están alineadas las bandas de estos materiales.

Hay muchas, muchísimas más aplicaciones, y si buscáis un poco por Internet o miráis en la bibliografía que doy al final las podréis descubrir.

Para saber más

No conozco muchos sitios de los que sacar más información sobre esta técnica experimental, así que no puedo poner una lista de lecturas recomendadas tan larga como en otras ocasiones. Os recomiendo tirar de Wikipedia (insisto también en lo de buscar los artículos de la versión en lengua inglesa, que suelen ser mejores… y, ¿por qué no? también os invito a mejorar la versión en español) y que le echéis un vistazo a la lista que pongo a continuación, que trata sobre todo de la física del material, más que de cómo hacer todo esto en el laboratorio. Para eso, si tenéis algún colega que utilice esta técnica, pedidle que os deje echar un vistazo en el laboratorio y seguro que accede encantado.

Capítulo 7.1 de Fundamentals of Semiconductors. Physics and Material Properties. P. Y. Yu and M. Cardona. Springer, 2005.

Capítulo 6 de Optical Processes in Semiconductors. J. I. Pankove. Dover, 1971.