martes, 29 de marzo de 2011

Curiosidades III: ¿Qué produce el ruido de un trueno?

El trueno es el sonido de la onda de choque. Este sonido es entendido desde varios puntos de vista que analizaremos a continuacion.


Primera teoría:

Los científicos creen que la causa del trueno es la rápida expansión del aire que se calienta por medio de un relámpago. La energía del rayo calienta un canal de aire a más de 50000 ºC. Esto se hace muy rapido, en unas millónesimas de segundo para cada sección de la descarga, que el canal de aire caliente no tiene tiempo de expandirse, mientras se calienta. Esto produce una gran presión en el canal, que puede ser mayor a 100 atmósferas. La presión luego genera una perturbación sonora que percibimos como un trueno.


Segunda teoría:

Imaginemos muchas nubes puestas unas sobre otras, compuestas alternativamente de vapores y exalaciones que el calor ha sacado de la tierra con abundancia en diferentes ocasiones.

Consideremos después las nubes superiores caer sobre las inferiores, sin que estas puedan descender, por hallarse sostenidas a alguna distancia de la tierra por otro viento inferior, y las causas comunes que las sostienen. En este caso hallándose el aire que hay entre la nube superior y la inferior, forzado a dejar aquel espacio, el que está en las estremidaes de las dos nubes, huye inmediatamente, dando lugar por este medio a que los extremos de la nube superior, desciendan algo más que su centro, encerrando él una gran porción de aire, que debiendo acabar de salir por un carril estrecho e irregular, ocasiona el ruido que se oye, originado de la violencia y opresión con que huye; y así se puede muchas veces oír el ruido del trueno sin ver el relámpago.
Pero si las exalaciones de azufre y nitrogeno que algunas veces se encuentran entre dos nubes, llegan a inflamarse por alguna agitación violenta, se comunica repentinamente esta llama a todas las materias inflamables que las circuyen, dilata el aire extraordinariamente, y produce los relámpagos, dando ocasión a que en lugar del ruido regular del trueno, se oiga un ruido espantoso, y que parezca encendido el aire. Y como las exhalaciones rechazadas y agitadas por todas partes, pueden inflamarse sin que la nube superior caiga con violencia sobre la inferior para causar ruido, puede suceder que veamos el relámpago sin oír el trueno.
La continuación y repetición del trueno proceden de una especie de eco que se forma en las nubes, a lo cual pueden contribuir también muchos cuerpos endurecidos que están sobre la tierra, y hacen repetir muchas veces el estrépito que se oye después del ruido del trueno. Cuando el fuego del trueno es impelido con violencia hacia la tierra y hace en ella algunos estragos, le damos el nombre de rayo; muchas veces mata hombres y animales; quema y derriba árboles y edificios, y abrasa cuanto encuentra.


Fuente:

wikipedia.es


Leandro Mesas

domingo, 27 de marzo de 2011

Tecnologías para el futuro VII: Avances en computación cuántica

La computación cuántica, o el  uso de la física cuántica en la informática, es considerada el "santo grial" a la hora de conseguir velocidades de procesamiento enormes. Lo más curioso dentro de la computación cuántica es que un procesador de este tipo no utiliza los bits tradicionales, sino un bit con un estado intermedio (consecuencia de la física cuántica) denominado qbit. Esta "superposición cuántica" permite que puedan operar con 2 bits al mismo tiempo. Se estima que un procesador con sólo 30 qbits sería más potente que cualquier ordenador convencional.

Los colisionadores de partículas estudian la materia a nivel cuántico. Arriba, una imagen obtenida en el famoso LHC


Hace unos diez años se produjo el primer intento de construir un ordenador que trabajase con las reglas de la mecánica cuántica, llevado a cabo por físicos de la Stanford en conjunto con IBM. Su principal utilidad era a la hora de factorizar números, un problema para el que los ordenadores convencionales son cuanto menos poco eficientes. Este ordenador tenía 7 qbits, equivalentes a 128 bits en un procesador tradicional. Desde entonces no ha habido grandes avances hasta que, recientemente, un equipo de Harvard liderado por Mike Grinolds ha anunciado la construcción de una máquina de resonancia magnética con un cabezal del tamaño de la cabeza de un alfiler, capaz de trabajar con átómos de nitrógeno incrustados en diamante.

El cabezal que se ha creado tiene un tamaño minúsculo

Fue en 2001 cuando se pensó en utilizar la tecnología de la resonancia magnética nuclear, la misma que se usa en medicina, para manipular los núcleos atómicos de una molécula de forma independiente. El proceso se inicia con el envío de ondas de radio a los núcleos, cuyo eco es luego recogido. Esta técnica funciona con muchas moléculas, como la cafeína, el alcohol, la acetona o la usada en el ordenador de IBM/Stanford, un compuesto denominado perfluorobutadienyl iron.
El talón de Aquiles de esta técnica es que la señal devuelta por una molécula es demasiado débil. El cabezal creado en Harvard permite estimular y controlar la resonancia magnética con electrones individuales. El motivo de que usen átomos de nitrógeno incrustados en diamante es que las reacciones de nitrógeno emiten muchos fotones, por lo que son fácilmente detectables; además, el diamante ofrece una excelente protección contra interferencias externas.

Las reacciones en el nitrógeno son fácilmente observables

El camino de la computación cuántica se ha vuelto a abrir. Además, quien desarrolle un ordenador cuántico funcional, con toda probabilidad, será galardonado con el Nobel de Física.

Fuentes:
www.neoteo.com

Manu Gutiérrez

martes, 22 de marzo de 2011

Tecnologías para el futuro VI: turbinas que optimizan la conversión termoeléctrica

Actualmente, en las centrales térmicas de generación de electricidad (carbón, gas, derivados del petróleo, nucleares...) se usan turbinas de vapor de ciclo Rankine. El ciclo Rankine es un ciclo termodinámico cuyo objetivo es la conversión de calor en trabajo, constituyendo lo que se llama un ciclo de potencia. Como todos los ciclos termodinámicos, su eficiencia está limitada por la eficiencia del ciclo de Carnot, el límite en cuanto a eficiencia que impone el Segundo Principio de la Termodinámica. El ciclo Rankine utiliza agua como fluido, aunque existen también los ciclos de Rankine con fluidos orgánicos. No es el motivo de la entrada, así que, para más información, visitad http://es.wikipedia.org/wiki/Ciclo_de_Rankine.

Esquema del ciclo Rankine


Ingenieros y científicos del Sandia National Laboratories han diseñado un nuevo sistema de turbinas, basado en el estudio del dióxido de carbono en estado supercrítico y en las turbinas de ciclo Brayton. Según numerosos especialistas, el dióxido de carbono supercrítico tiene un gran interés industrial para la generación de energía, tanto en fuentes renovables como no renovables. Se espera que se incremente la eficiencia alrededor de un 50% con respecto al ciclo Rankine, que además ocupa 30 veces más tamaño que las turbinas de ciclo Brayton y tiene unos índices de corrosión mucho más elevados.
El ciclo Brayton de generación de energía podría proporcionar 20MW de energía eléctrica en un espacio de sólamente cuatro metros cúbicos.

Fotografía de las instalaciones del Sandia National Laboratories, en Albuquerque, Nuevo México, EEUU


El nuevo sistema, que se encuentra en fase de optimización tecnológica, consiste básicamente en un motor a reacción que se ejecuta en un líquido a altas temperaturas. Existe además una variante, el uso de ciclos Brayton con helio en lugar de dióxido de carbono supercrítico. Sin embargo, el dióxido de carbono trabaja a una temperatura considerablemente más baja, además de ser más compacto. De esta forma, se reducen cuantiosamente los costes de producción y se aumenta la eficiencia.

 
Esquema del ciclo Brayton

Las propiedades del dióxido de carbono supercrítico a temperaturas superiores a los 500ºC y presiones por encima de los 7,6MPa permiten que el sistema pueda funcionar con una eficiencia térmica altísima, por encima de los indicadores de una planta de carbón de gran potencia. En comparación con otras turbinas de gas, el nuevo sistema podría aumentar la potencia eléctrica por unidad de combustible en un 40% o más.

Fuentes:
es.wikipedia.org
www.tendencias21.net

Manu Gutiérrez

sábado, 19 de marzo de 2011

Curiosidades II: ¿Quién inventó el número 0?

Brahmagupta nació en el año 598 y murió el el año 670, fue un matemático y astrónomo indio. Nació posiblemente en Ujjain, donde vivió toda su vida. Esta se encontraba en la zona central de la India y en ella estaba el más famoso y antiguo observatorio de astronomía del que Brahmagupta era el director.
Brahmagupta está considerado el más grande de los matemáticos de esta época. Murió en el año 670. Es posible que Brahmagupta haya sido el idealizador del concepto del "cero" ya que en su obra Brahmasphutasiddhanta del año 628 aparece por primera vez esta idea. La obra trataba también sobre aritmética y números negativos en términos muy parecidos a los de la moderna matemática.
Brahmagupta


  1. El número cero es aquel que indica ausencia de unidades.
  2. En la serie de los números naturales el origen de ella.
  3. En la serie entera indica el punto inicial para medir o contar en ambos sentido de la serie.
  4. En definitiva cero significa ausencia de unidades en las magnitudes absolutas y origen en las magnitudes relativas.
  5. En las magnitudes relativas la adición de (+S) y (–S) da siempre cero. Asi (+S)+(-S) = 0.
  6. Todo número multiplicado por cero da cero, así S x 0 = 0.
  7. Dividir cualquier número S por cero (S/0) no tiene sentido y dividir 0/0 es infinito. Asi 0/0 es igual a infinitos números ya que cualquier Sx0=0.
  8. Una potencia elevada a cero da la unidad, ya que S^N / S^N =S^N −N = S^0 = 1 ya que dividendo y divisor son iguales.


Se cree que el cero fue empleado por primera vez por las civilizaciones precolombinas. El cero como nosotros lo conocemos fue inventado en la India. Si realizamos investigaciones sobre quién inventó el cero encontraremos que no fue una sola persona la que desarrolló este concepto, pero debemos considerar a Brahmagupta como quien lo utilizó por primera vez tal como lo conocemos hoy en día, ya que la primera mención clara de este número como concepto matemático se dio en su trabajo "Brahmasphuta Siddhanta" en el año 628. En esta obra increíblemente avanzada para la época, el matemático además considera a los números negativos, y las reglas algebraicas para operar con ellos. Entre las diferencias en el uso moderno de estos números, Brahmagupta le asignó cero al resultado de cero dividido por este mismo número.

Fuente:
wikipedia.es
quien-invento.com
curiosidadesdelaciencia.com
Leandro Mesas


jueves, 17 de marzo de 2011

La tabla periódica de las formas

Todo científico o estudiante hoy en día ha tenido contacto con la tabla periódica de los elementos químicos. Ésta ha sufrido una larga evolución desde los tiempos de Mendeléiev hasta nuestros días. La tabla periódica de los elementos ha conseguido facilitar enormemente el trabajo de químicos, biólogos e incluso físicos, al clasificar los elementos en función de unas propiedades "periódicas", es decir, que se repiten reiterativamente al avanzar en la clasificación.

Tabla periódica de Mendeléiev. Le permitió predecir la aparición de nuevos elementos, como el germanio o el aluminio.

Tabla periódica actual. Clasifica a los elementos según su número atómico y su configuración electrónica.

Un equipo de matemáticos del Imperial College de Londres ha decidido emular al ruso Mendeléiev, pero como la tabla periódica de los elementos ya estaba inventada, han decidido crear una tabla periódica de las formas. De esta forma, pretenden clasificar las formas indivisibles en tres, cuatro y cinco dimensiones, aquellas que son como los "átomos" de las formas más complejas. De esta forma, pretenden crear una tabla de formas similar a la de los elementos.
En la tabla periódica de los elementos se clasifican los átomos con los que se forman todas las cosas, y además se explican sus propiedades químicas más importantes. La tabla de las formas, por su parte, clasificará y enumerará las propiedades específicas de las formas indivisibles. Según publica el Imperial College, cuando se decida qué formas incluirá la tabla se procederá a calcular las ecuaciones que las describen, con lo que esperan aumentar los conocimientos de las propiedades geométricas de éstas, y también aprender cómo combinarlas con otras.
El director del proyecto, Alessio Corti, afirma que la tabla periódica de las formas contendrá un número ingente de formas "que no podrá colgarse como un póster en la pared", pero que sí se convertirá en una herramienta tan útil como la tabla periódica de los elementos.





Una de las formas analizadas por los matemáticos del Imperial College de Londres

Lo más importante es que, además de incluir las formas "cotidianas" (tridimensionales) se incluirán formas de cuatro y cinco dimensiones, importantísimas para la ciencia. Según Tom Coates, el experto en topología y geometría del proyecto, “La mayoría de la gente está familiarizada con la idea de las formas tridimensionales. Para los que no trabajan en nuestro campo, resulta difícil imaginar formas de cuatro o cinco dimensiones. Sin embargo, comprender este tipo de formas es realmente importante para muchos aspectos de la ciencia”. Por ejemplo, según explica Coates, en robótica sería necesario calcular la ecuación de una forma de cinco dimensiones para averiguar cómo enseñar a un robot a mirar un objeto y mover su propio brazo para coger dicho objeto.
El presente proyecto, que presumiblemente concluirá en tres años, es financiado por el Engineering and Physical Sciences Research Council (EPSRC), Leverhulme Trust, la Royal Society y el European Research Council (ERC).



Fuentes:
www.tendencias21.net (noticia e imágenes)
es.wikipedia.org (imágenes)
www.mcgraw-hill.es (imágenes)

Manu Gutiérrez

martes, 15 de marzo de 2011

Tecnologías para el futuro V: Sistema para la alerta de tsunamis en menos de 10 minutos.

Un grupo de sismólogos de Estados Unidos ha desarrollado un sistema capaz de avisar a la población de la llegada de un tsunami tan solo después de unos minutos de producirse el terremoto inicial en el mar.



Este sistema a recivido el nombre de RTerg (Real-Time Earthquake Energy), y servirá para reducir el número de muertes por tsunami ya que dará más tiempo a los habitantes de áreas que tienen mayor posibilidad de padecer uno de estos fenómenos para ponerse a salvo.

Cuando se produce un terremoto, lo normal es que una extensa zona de subducción se rompa a una velocidad de 3 Km/S , y a una profundidad entre 20 y 50 metros por debajo de la superficie terrestre. Dada esta profundidad, las deformaciones verticales de la corteza que provoca el terremoto son aplanadas horizontalmente, por lo que el tamaño de elevación de la corteza tiende a ser pequeño. Si el terremoto se produce en el océano, las olas resultantes pueden medir alrededor de 20 Cm.

Sin embargo, los maremotos que dan lugar a tsunamis funcionan de un modo distinto. Cuando éstos se producen, la ruptura de la corteza se produce más lentamente que en el casao anterior y se propaga hacia arriba, provocando elevaciones verticales en la corteza mucho más altas de lo normal. Como resultado, las olas también aumentan,llegando a alcanzar alturas de entre 10 y 20 metros, en entornos cercanos a las costa.

Los terremotos que provocan tsunamis son más lentos, duran más y propagan una energía menos eficiente. Los elementos que mide el RTerg son el tamaño de las olas, un tiempo de duración excesivo de la ruptura de la corteza, un movimiento de ésta predominantemente a escasa profundidad, y las deficiencias en ratios de energía a tiempo real. Estas mediciones son realizadas por el sistema mediante algoritmos. El proceso completo sería el siguiente: el RTerg recibe una notificación, procedente de alguno de los centros de alerta por tsunami, de que se ha producido un terremoto. Esta notificación señala al sistema la localización del terremoto, su profundidad y su magnitud aproximada.

EN caso de que la magnitud del terremoto sea de 6,5 o más en la escala Richter, en un minuto el sistema recibe, además, otros datos sobre el fenómeno, procedentes de unas 150 estaciones sísmicas de todo el mundo. Una vez recopilados estos datos, el RTerg aplica sus algoritmos a cada segundo de ruptura, y determina si el terremoto se convertirá en un terremoto tsunami.

En la mayoría de los casos de terremotos tsunami, las inundaciones costeras no se producen hasta 30 ó 40 minutos después de que se produzca el terremoto. Por tanto, si el RTerg puede lanzar un aviso en alrededor de 10 minutos, quedarán unos 20 ó 30 minutos para que la población se ponga a salvo.



Tendencias21.net
larazón.es

Leandro Mesas

jueves, 10 de marzo de 2011

Tecnologías para el futuro IV: televisiones de nanocristal

En la actualidad existen numerosos tipos de tecnologías a la hora de fabricar dispositivos de imagen, como televisores, monitores, teléfonos móviles, ... A continuación hablaré de las tres tecnologías más extendidas (CRT, PDP y LCD), a modo de introducción. También se encuentra muy difundida la tecnología TFT, aunque ha sido desplazada por el LCD.
La más obsoleta, aunque aún se utiliza, es la CRT. Las siglas significan, en inglés, Tubo de Rayos Catódicos. La tecnología fue inventada por William Crookes en 1895 y desarrollada por Ferdinand Braun en 1897, aunque no se usó hasta 1940 con la aparición de los primeros televisores. Funciona mediante el impacto de electrones (rayos catódicos, como se llamaban cuando se descubrieron) en una pantalla de fósforo, con píxeles individuales formados a su vez por tres píxeles de colores (rojo, azul y verde) para crear colores según la intensidad con la que brillan cada uno de los píxeles. El tubo de rayos catódicos hace impactar los electrones contra la pantalla empezando en la esquina superior izquierda, avanzando a lo largo de la fila y bajando a la siguiente al finalizar, cambiando la trayectoria gracias a unos deflectores. Esto se produce con gran rapidez, por lo que da la impresión de ser una imagen contínua. Su principal desventaja es que emiten radiación nociva para los ojos, peor cuanto más cerca (monitores de ordenador).

Sistema CRT

Otra de las tecnologías más usadas es el PDP, o "Plasma Display Panel", más conocida simplemente como plasma. Se usa habitualmente en pantallas de gran tamaño, mayores de 37 pulgadas de diagonal. La pantalla consta de muchas celdas individuales entre dos paneles de cristal que contienen una mezcla de gases nobles (neón y xenón). El gas se convierte en plasma electrónicamente, provocando que una sustancia fosforecente (que no es fósforo, a diferencia del CRT) emita luz. Proporcionan una gran luminosidad y gran calidad de imagen, a costa de emitir una gran cantidad de calor. Son muy poco eficientes, energéticamente hablando.

Sistema PDP

La tecnología más extendida hoy en día es el LCD, de las siglas en inglés de Pantalla de Cristal Líquido. Son pantallas planas y delgadas, formadas por píxeles colocados delante de una fuente emisora de luz (en las pantallas más actuales se utilizan diodos LED, que consumen muy poca energía, a costa de una menor vida útil). Su funcionamiento es muy complejo y existen diversos sistemas, pero de forma general lo que se hace es filtrar la luz (mediante el cristal líquido) emitida para cada píxel, de forma que emite el color deseado. Estas pantallas tienen un consumo energético muy inferior al plasma, pero con una calidad de imagen menor.

Píxel individual de un sistema LCD

Existen muchas tecnologías nuevas que pretenden desmarcarse a la hora de sustituir al LCD y al PDP. Destacan las televisiones de nanocristal, que consiguen mejor calidad de imagen que el PDP y menor consumo energético que el LCD. Miembros del Samsung Advanced Institute of Technology (Yongin, Corea del Sur), liderados por el ingeniero electrónico Byoung Lyong Choi, han construido una pantalla a color basada en "puntos cuánticos de nanocristal". Éstos consiguen en los píxeles rojos un 50% más de brillo y un 70% menos de consumo.
Los puntos cuánticos son cristales semiconductores, con un diámetro de una milmillonésima parte de un metro, que emiten luz a diferentes longitudes de onda (diferentes colores). Esta tecnología tiene una década de antigüedad, pero hasta ahora no se habían solucionado los problemas que aparecían a la hora de construir grandes pantallas sin comprometer la calidad de imagen. El equipo de Samsung ha conseguido solucionar estos problemas. Para ello, utilizaron una oblea de silicio modelada como un “sello de tinta” para recoger las tiras de puntos hechos de seleniuro de cadmio, y presionarlo sobre un substrato de vidrio para crear píxeles rojos verdes y azules sin necesidad de utilizar un disolvente.





Nanocristal

Las pantallas de nanocristal son una tecnología muy prometedora, debido a sus ventajas, ya mencionadas: mayor calidad de imagen y menor consumo. No debemos olvidar que todo gasto de energía es una carga para el planeta, por lo que deberíamos reducirlo al mínimo de todas las maneras que estén en nuestro poder.

Fuentes:
es.wikipedia.org
www.e-ciencia.com

Manu Gutiérrez

martes, 8 de marzo de 2011

Materiales del futuro IV: Nanotubos de Carbono

Se denominan nanotubos a estructuras con forma de tubo que poseen un diámetro muy pequeño, del orden del nanómetro (nm). Un nanómetro equivale en escala a la billonésima parte de un metro, 1 nm = 1^⁻9 m. En la actualidad existen nanotubos de muchos materiales, tales como silicio o nitruro de boro, pero generalmente el término se aplica a los nanotubos de carbono.

Los nanotubos de carbono son una forma de cristalizar de este material, en una estructura parecida al diamante o el grafito. Su estructura se puede considerar como una lámina de grafito enrollada sobre sí misma. Dependiendo del grado de enrollamiento y la manera como se conforma la lámina original, el resultado puede llevar a nanotubos de distinto diámetro y estructura interna. Los nanotubos conformados como si las esquinas de un folio se uniesen por sus extremos formando un canuto, se denominan nanotubos monocapa. Existen también nanotubos cuya estructura se asemeja a la de una serie de tubos concéntricos, incluidos unos dentro de otros igual que las muñecas rusas. Estos últimos son los denominados nanotubos multicapa.


Nanotubos Monocapa

Nanotubos Multicapa


Los nanotubos están siendo estudiados por su interés fundamental para la química y por sus aplicaciones tecnológicas. Es, por ejemplo, la primera sustancia conocida por la humanidad capaz de sustentar indefinidamente su propio peso, una condición necesaria para la construcción de un ascensor espacial.

APLICACIONES

  • Electroquímicas. Una importante aplicación de los nanotubos, dada su gran superficie y su baja resistividad, es la electroquímica, como el desarrollo de supercondensadores, dispositivos para el almacenamiento de hidrógeno y fabricación de celdas solares.

  • Electrónica. De entre las aplicaciones de los nanotubos de carbono, quizá las más interesantes se encuentren en el dominio de la electrónica, ya que éstos pueden desempeñar el mismo papel que el silicio en los dispositivos electrónicos pero a escala molecular, donde los semiconductores dejan de funcionar. Además, debido a que los avances en la industria electrónica se basan en hacer los dispositivos cada vez mas diminutos, que conlleva un aumento en el rendimiento de la velocidad de proceso y la densidad de los circuitos, será necesario utilizar nanotubos de carbono en su fabricación. Los nanotubos de carbono pueden ser utilizados para fabricar múltiples dispositivos entre los que destacan los transistores y las memorias informáticas.

  • Otras aplicaciones industriales.

    • Biomedicina: Investigadores de universidades italianas han hecho crecer celulas nerviosas en sustratos, cubiertos por redes de nanotubos de carbono.
    • Automóviles: Mangueras antiestáticas de combustible.
    • Automóviles: Partes plásticas conductoras para pintado con spray electrostático
    • Aeroespacio: Partes de aviones
    • Packaging: Antiestático para electrónicos
    • Tintas conductoras
    • Materiales extremadamente negros: La sustancia más oscura conocida, hasta la fecha, se ha creado a partir de nanotubos de carbono.
    • Deportes: Debido a la alta resistencia mecánica de los nanotubos, se están empezando a utilizar para hacer más fuertes las raquetas de tenis, manillares de bicicletas, palos de golf, y flechas de ultima generación.
Fuentes.

es.wikipedia.org
nanotubosdecarbono.com

Leandro Mesas




jueves, 3 de marzo de 2011

Curiosidades I: Manifestaciones: ¿cómo contar los asistentes?

Es curioso cuando hay una manifestación, a la que asisten cantidades ingentes de personas, y los medios afirman con toda seguridad: "hubo 200.000 asistentes", o cuando en un concierto nos dicen "la asistencia superó los 50.000 espectadores". Se nos plantea una cuestión: ¿qué pasa, que en las manifestaciones hay que firmar para entrar? ¿o cuentan uno por uno los asistentes desde un helicóptero?

Imagen de un helicóptero sobrevolando la manifestación contra Hosni Mubarak

La respuesta se halla, como suele pasar, en la tecnología. Por poner un ejemplo actual, consideremos la Plaza de la Liberación (Al Tahrir Square) en El Cairo, capital de Egipto. Allí han tenido lugar las protestas contra el régimen dictatorial de Hosni Mubarak, gobernante autoritario de Egipto durante 30 largos años. Se utilizan aplicaciones como el famoso "Manifestómetro", que se sirve de Google Maps para calcular la asistencia a la manifestación. Se establece una densidad máxima de personas (en el caso de la Plaza de la Liberación, 6 personas por metro cuadrado), se descuentan elementos tales como mobiliario urbano y árboles para conseguir una mayor precisión, y se mide la superficie ocupada por los manifestantes. De esta forma, podemos conseguir una cifra muy aproximada de los manifestantes.

 Imagen de Al Tahrir Square durante las manifestaciones

En nuestro país, la Policía se suele servir de planos y fotografías de superficie y aéreas para medir la densidad de personas por metro cuadrado y la superficie ocupada, y después se sirven de software especializado para realizar los cálculos pertinentes. Desde luego, nosotros también podemos calcular de forma aproximada los asistentes a la manifestación, con herramientas como el anteriormente citado "Manifestómetro", SIGPAC, ...

Imagen del "Manifestómetro"
 
Desde luego, que una manifestación sea o no apropiada es muy subjetivo. Pero lo que es más objetivo es el número de asistentes, por mucho que los medios tergiversen estos datos según sus intereses. En mi humilde punto de vista, la manifestación de Al Tahrir Square se cuenta dentro de las justificadas.

Fuentes:
www.e-ciencia.com
Imágenes de Google

Manu Gutiérrez