Un ingeniero descubre el número primo más grande conocido

Después de 14 años de intentos, Jonathan Pace, un ingeniero eléctrico de 51 años de Germantown, Tennessee, (EE.UU.), ha descubierto el número primo más grande conocido. El número 2 elevado a la 77,232,917 potencia -1 tiene más de 23 millones de dígitos, casi un millón más que el récord anterior.

Pace forma parte de una red llamada «Gran Búsqueda en Internet de los Primos Mersenne» (GIMPS, por sus siglas en inglés), formada por voluntarios que dedican su tiempo a encontrar números cada vez más grandes de una extraña familia de entre los primos, la de los Mersenne, de la que hasta ahora solo se conocen cincuenta miembros.Es decir, que si encontrar primos ya es difícil, los de esta clase se llevan la palma. El trabajo requirió seis días de computación continua en los que el ingeniero utilizó su propio ordenador. Fue el 26 de diciembre cuando encontró el número, que ha sido bautizado como M77232917.

Los números primos son aquellos mayores que 1 que solo pueden ser divididos por sí mismos y por 1. Fueron descubiertos hace más de 2.000 años por el famoso matemático griego Euclide. Pero los de Mersenne, que llevan el nombre de un monje francés, quien fue el primero en detallar su fórmula hace 350 años, son aún más raros. Se definen por la ecuación N = 2n-1, donde N y n son ambos números primos.

Un matemático vencido

Dar con uno de ellos es todo un logro matemático. En los últimos años, la computación ha ayudado en la búsqueda. El nuevo récord, por el que Pace se llevará 3.000 dólares, supera al anterior, conseguido en 2016 por Curtis Cooper, un matemático de la Universidad de Central Missouri en Warrensburg (EE.UU.). Entonces, el profesor dio con el 2 elevado a la 74,207,281 potencia -1, que tiene un total de 22.338.618 dígitos y superaba en cinco millones el récord anterior que él mismo había conseguido, superándose a sí mismo un total de cuatro veces.

Aparte de la hazaña de cálculo, estos hallazgos no tienen grandes efectos prácticos, aunque en los últimos años se han empleado en criptografía. GIMPS, fundada en 1996, ha descubierto los últimos 16 primos Mersenne. Los voluntarios descargan un programa gratuito para buscar esos números, con un premio en efectivo ofrecido a cualquier persona que tenga la suerte de encontrar uno nuevo. Puede que un nuevo récord no tarde en llegar.

http://www.abc.es/ciencia/abci-ingeniero-descubre-numero-primo-mas-grande-conocido-201801050957_noticia.html

Eduardo Manuel Rama Ferradás (4ºB ESO)

Publicado en Actualidade científica | Deixa un comentario

Conocer los genes de defensa de las plantas para la mejora sostenible de la agricultura

Las plantas se defienden de sus patógenos mediante un complejo sistema de mecanismos moleculares en el que intervienen muchos genes. Es importante conocer cuáles son los genes implicados en defensa y cómo funcionan, ya que este conocimiento nos va a permitir mejorar la resistencia en plantas de interés agroalimentario, mediante estrategias biotecnológicas que puedan evitar un uso excesivo de químicos y pesticidas, contaminantes del medio ambiente.

Las plantas necesitan defenderse de organismos que las depredan y perjudican. Para ello, disponen de un arsenal de moléculas y estructuras celulares con capacidad defensiva que, permiten detener la invasión de la mayoría de agentes patógenos. Muchas de estas defensas se encuentran ya presentes cuando sus tejidos y células son atacados. Otras son rápidamente fabricadas como consecuencia de señales de alerta, que se transmiten desde la superficie de las células atacadas a su “centro logístico de coordinación de tareas”, el núcleo, donde se encuentran los cromosomas, y conducen a la activación de genes específicos para la defensa, a la vez que provoca una reprogramación del metabolismo celular, optimizándolo para responder al desafío del invasor. Muchas plantas han evolucionado mediante selección natural [1], conservando unos genes que codifican proteínas capaces de reconocer a determinados patógenos de manera muy específica (genes R o de resistencia) [2]. Por ello son capaces de transmitir la señal de alarma y organizar el sistema de defensa en la planta con tal rapidez y eficacia que les permite detener el desarrollo del patógeno o, incluso, eliminarlo. Sin embargo, muchos patógenos también han sido capaces de evolucionar, evitando o anulando este reconocimiento específico por parte de la planta y su sistema de defensa, por lo que finalmente pueden invadirla.

Desde su origen, la agricultura se ha centrado principalmente en obtener poblaciones de plantas (variedades) con características que fuesen beneficiosas, ya sea desde el punto de vista alimenticio, o de la salud, o el económico. El mantenimiento de estas características de interés en una variedad y en sucesivas generaciones de la misma, implica un proceso denominado selección artificial, en el que el hombre interfiere directamente. Esta selección artificial está basada en las características que las plantas manifiestan al medio que las rodea (fenotipo) y pueden, de algún modo, ser detectadas por el hombre (ej. la forma, el tamaño, el color o el sabor, etc. que la planta muestra como consecuencia de su composición génica o genotipo). La selección artificial procede a una velocidad mayor que la selección natural. Si bien la mejora de plantas se ha practicado desde hace miles de años, la selección artificial de los individuos de mayor interés ha provocado que el material genético de una planta cultivada llegue a ser muy diferente al de sus antecesores (ej. la fresa). Esto ha permitido la obtención de variedades de plantas que, o bien no contienen genes R de resistencia apropiados, o contienen “fallos” en la respuesta de defensa frente a la infección de determinados patógenos. La fresa es una planta de enorme importancia a nivel mundial por las características culinarias del fruto y por sus propiedades saludables para el consumo humano, pues es rico en sales minerales, vitaminas A, B, C y D, polifenoles y otros compuestos antioxidantes. La fresa cultivada (Fragaria x ananassa) es una especie octoploide. Es decir, posee ocho juegos de cromosomas y es consecuencia de un cruzamiento artificial y posterior selección para tamaño y sabor, a partir de las especies F. virginiana (notable por su sabor) y F. chiloensis (notable por su tamaño) [3]. Ninguna de las variedades de fresa que se comercializan actualmente son realmente resistentes a muchos de los patógenos que las atacan, por lo que gran parte de las cosechas se pierde por ataque de los mismos que impide su comercialización. Conocer cuáles son los genes R y los genes que se activan/desactivan en respuesta a patógenos es muy importante para la fresa u otras variedades de plantas de interés agroalimentario, ya que este conocimiento puede permitir, mediante ingeniería genética, modificarla de manera muy específica y dirigida, para hacerla más resistente. Asimismo, es importante que esta modificación genética se realizara sobre un único gen o grupo de genes concreto, a diferencia de la mejora mediante un cruzamiento clásico tradicional, donde se desconocería qué genes o combinación de genes implicados en la resistencia se seleccionan. Además, el proceso de selección tradicional puede conducir a la pérdida de otros caracteres agronómicos de interés. Más aún, en el caso de fresa, la selección artificial para resistencia por cruzamiento clásico es inviable, ya que las variedades cultivadas son octoploides, y a ella podrían contribuir múltiples loci distribuidos en los diferentes subgenomas.

Actualmente existen tecnologías génicas, como por ej. el uso de microarrays o la secuenciación masiva de RNA (RNAseq) [4], que permiten conocer cuántos y qué genes de la planta podrían estar involucrados en organizar una respuesta de defensa eficiente frente a un patógeno particular. Una vez identificados dichos genes, tecnologías de silenciamiento génico [5] permiten ver el efecto que produce en la planta la inactivación total o parcial de dicho gen, previo a la infección del patógeno (¿será la planta más o menos resistente?). También se puede determinar el efecto que tiene que el gen esté siempre activo (sobreexpresión génica) antes de que el patógeno trate de infectar la planta (¿estará la planta mejor o peor preparada para defenderse cuando el patógeno llegue?). Se pueden realizar ambos estudios introduciendo el gen identificado en plásmidos artificiales derivados del plásmido-Ti procedente de la bacteria Agrobacterium tumefaciens, capaz de transferir genes a plantas [6]. En general, esta técnica involucra el cultivo de células o tejidos de la planta en el laboratorio, dado que la transferencia de genes se realiza sólo a algunas células de la planta. A partir de estas células transformadas se regeneran plantas completas (plantas transgénicas), que llevan los genes transferidos de manera estable, los expresan y los transmiten a la descendencia para realizar los experimentos de susceptibilidad al patógeno. No obstante, el proceso descrito anteriormente es largo. Para poder conocer rápidamente la función de un gen, a menudo se utilizan técnicas de “transformación y expresión temporal del gen” en un tejido u órgano particular de la planta. En fresa, el fruto es un órgano ideal para este fin (Figura 1).

Así, células de A. tumefaciens portando el plásmido con el gen de interés se pueden infiltrar en el tejido del fruto, mediante inyección, para transferir el gen a las células de fresa. Esta transferencia permite observar si las células del fruto que han recibido el gen (transgen) y lo expresan manifiestan mayor o menor resistencia a una infección. Una vez conocida la función del gen, el paso siguiente es modificar genéticamente la planta, sobreexpresando o silenciando de forma estable el gen beneficioso para que pueda aportarle definitivamente una mayor resistencia a un patógeno, u otro carácter de interés agronómico. Las plantas transgénicas así obtenidas se pueden incluir luego en planes de mejora tradicional a través de reproducción sexual para transferir los genes de interés a variedades de alto rendimiento.

Figura. Bacteria A. tumefaciens portando el plásmido vacío (control) o con el gen de interés (transgen), se inyecta manualmente a cada mitad del fruto. Luego, en cada mitad del fruto se inocula el patógeno de fresa. Si el transgen está involucrado en la activación de la defensa, el crecimiento del patógeno y el daño que este produce en el fruto se verá disminuido en la cara del fruto en la que se ha infiltrado.

 

http://www.sebbm.es/web/es/divulgacion/rincon-profesor-ciencias/articulos-divulgacion-cientifica/2429-conocer-los-genes-de-defensa-de-las-plantas-para-la-mejora-sostenible-de-la-agricultura

José Gómez Fernández (4ºB ESO)

Publicado en Actualidade científica | Deixa un comentario

Descubren una gran tierra en la zona de habitabilidad de un sol lejano

La interminable lista de exoplanetas descubiertos sigue creciendo. Los científicos han averiguado que uno que fue descubierto en 2015 y llamado K2-18b podría ser una tierra «engordada» situada dentro de la zona de habitabilidad de su estrella. Esto indica que el exoplaneta no está ni muy lejos ni muy cerca de su sol y que por eso podría tener agua líquida en superficie, (siempre y cuando su atmósfera lo permitiera), por lo que podría ser un objetivo interesante para la búsqueda de vida extraterrestre. Por si fuera poco, los investigadores han redondeado el descubrimiento con el hallazgo de la que parece ser otra gran tierra «hermana» de K2-18b y situada bajo la influencia de la misma estrella: K2-18c. Estos avances se han publicado en la web ArXiv.

«Haber sido capaz de medir la masa y la densidad de K2-18 b fue increíble, pero haber tenido la suerte de descubrir un nuevo exoplaneta fue muy afortunado e igualmente emocionante» ha dicho en un comunicado Ryan Cloutier, primer autor del estudio e investigador en el Instituto de búsqueda de exoplanetas de la Universidad de Montreal.

Tal como ha averiguado el equipo de Cloutier, los dos planetas están en la órbita de K2-18, una enana roja, una estrella más fría, débil y longeva que el Sol, situada a unos 111 años luz de distancia en la constelación de Leo. Aunque ambos planetas tienen una masa comparable a la de la Tierra, parece ser que K2-18c está demasiado cerca de su estrella como para caer en la zona de habitabilidad.

El instrumento HARPS, de «High Accuracy Radial Velocity Planet Searcher», montado en el telesocopio del Observatorio de la Silla, del Observatorio Europeo Austral (ESO), midió la velocidad radial de las estrellas. Esto le permitió detectar un «cabeceo» causado por el tirón gravitacional de los planetas. Gracias a eso, se estimó la masa y la composición rocosa de ambos objetos.

«Si puedes calcular la masa y el radio, puedes medir la densidad del planeta y averiguar de qué está hecho», ha dicho Cloutier. De hecho, han considerado que la composición del planeta puede ser de roca cubierta por una fina atmósfera gaseosa, como la Tierra, o bien mayoritariamente de agua cubierta por una capa de hielo.

«Con los datos actuales no podemos distinguir entre estas dos posibilidades», ha dicho el investigador. Pero no siempre será así: «Con el telescopio espacial James Webb, que será lanzado en 2019, podremos sondear la atmósfera y ver cómo es».

Este telescopio tendrá unas capacidades increíbles y será usado para observar el Sistema Solar, el Universo más lejano y temprano y para avanzar en el estudio de exoplanetas. Por ese motivo, «tienes que ser meticuloso a la hora de elegir qué exoplaneta estudias», ha dicho René Doyo, coautor de la investigación. De ahí la importancia de estudios como este. «K2-18b es uno de los mejores objetivos para hacer un estudio de su atmósfera», ha propuesto.

http://www.abc.es/ciencia/abci-descubren-gran-tierra-zona-habitabilidad-lejano-201712072008_noticia.html

Raquel Andrés Ramos (4ºA ESO)

Publicado en Actualidade científica | Deixa un comentario

Las plantas fluorescentes son ya una realidad

Supongo que a alguno se le ha podido pasar por la cabeza esas imágenes tan especulares que James Cameron generó para Avatar, con paisajes nocturnos increíbles de árboles y plantas que emitían luz. No vais desencaminados, porque esto es exactamente algo así.

Las plantas fluorescentes son plantas modificadas genéticamente para que emitan luz de forma autónoma. Esto que parece tan sencillo de explicar, parece que no lo ha sido tanto llevarlo a cabo.

Cómo sabéis, el gen de la bioluminiscencia se encuentra de forma natural en algunos seres vivos, no es nada inventado de forma artificial. Animales como las luciérnagas, o numerosas especies marinas abisales lo poseen, también se encuentran en algunas bacterias y hongos. Explicado de una forma sencilla, para que se de la luminescencia en un ser vivo, debe darse un proceso químico, en el que la proteína luciferina debe ser oxidada y catalizada por la enzima luciferasa. A través de esta reacción se consigue que el cuerpo emita luz.

Lo que nos encontramos ya hoy con estas plantas fluorescentes, capaces de emitir luz, es el resultado del avance en la ciencia de la modificación de genes, que no sólo se concentra en obtener especies vegetales mas productivas o resistentes.

Pero, ¿por qué?

Bueno, parece que el fin de la aparición de estas plantas fluorescentes es el de hacernos ahorrar energía. Según podemos leer en la página web de Bioglow, una de las empresas que ha desarrollado esta técnica, la intención del desarrollo y la mejora de estos organismos responde a la intención de en un futuro, poder tener en nuestras ciudades árboles y plantas bioluminiscentes que nos permitan reducir el consumo de energía lumínica. De esta forma, con un numero elevado de estos individuos podría llegar a ser viable reducir drásticamente la iluminación nocturna de nuestras ciudades, que sería sustituida por estos árboles y plantas fluorescentes.

Y ahora, ¿qué?

Quizá sea demasiado pronto para poder emitir juicios de valor, pero no quita que nos hagamos algunas preguntas.

Por todos es conocido la incertidumbre social con respecto a los Organismos Genéticamente Modificados, donde las posiciones tanto a favor como en contra parecen irreconciliables, y ambas disponen de argumentos aparentemente bastante sólidos.  Es cierto que la mejora y la evolución genética se ha dado de forma natural en el planeta, y se sigue dando. Lo que si que ya no parece tan sensato es jugar a ser dioses simplemente por el hecho de que tengamos la tecnología y los conocimientos para poder hacerlo. Mejorar especies vegetales de forma natural para mejorar sus rendimientos o resistencias poco tiene que ver con pasar genes de animales a plantas, sin haber valorado realmente y no conocer los posibles problemas para la salud a medio o largo plazo. Y mucho menos, no saber demasiado bien que podría pasar a nivel vegetal y ambiental.

Hay que señalar que estos procesos de mejora implican la obtención de variedades mejoradas, que se usan para el cultivo intensivo, y acaban provocando pérdida de biodiversidad por la poca variedad y el tan amplio uso de éstas, y de esto si que estamos seguros. ¿Qué nos deparará pues el futuro con tantas dudas e incertidumbres en este tema?

Parece cierto que la aparición de estas plantas fluorescentes responde a un escalón más en la evolución humana, no es necesario para las plantas, pero si para nosotros. Empezamos a ser conscientes de que no podemos consumir recursos como lo estamos haciendo, sobre todo los energéticos, y esta podría pasar por ser una de las soluciones. Si que es verdad que hay muchas más, mas económicas, sencillas y fáciles de aplicar para reducir el consumo energético en las ciudades y zonas rurales, pero también parece que gusta la idea de avanzar hacia un mundo con plantas que emiten luz.

Ante todo, no hay que olvidar que nos encontramos ante OGMs, y no sabemos que implicaciones podría llegar a tener para el ecosistema global el uso de estas plantas fluorescentes fuera de un laboratorio. ¿Estamos dispuestos a asumir el riesgo? ¿es de verdad necesario?¿y es ahora el momento?

http://medioambientum.com/las-plantas-fluorescentes-son-ya-una-realidad/

Cristina Abella Machín (4ºB ESO)

Publicado en Actualidade científica | Deixa un comentario

A NANOTECNOLOXÍA

A nanotecnoloxía engloba aqueles coñecementos e técnicas que o ser humano está a desenvolver para observar, caracterizar, comprender, predicir e utilizar as propiedades das estruturas de tamaño nanométrico. Un nanômetro (1 nm) é unha milésima de milésimas de metro, unha lonxitude moi pequena na que só podiamos alinear algúns átomos. Esta nova disciplina ten como escenario a nanoescala (ou nanomundo), que pode definirse como o intervalo de lonxitude entre aproximadamente 1 e 100 nm.

O nanomundo está poboado por nanoobxectos e nanoestruturas que mostran fenómenos interesantes, que non aparecerían neles si o seu tamano era moito maior. É fácil entender como unha estrutura se fai máis pequena a fracción relativa dos átomos localizados na súa superficie aumenta, dándolle diferentes propiedades. Ademais debemos ter en conta outros fenómenos que só a intrigante mecánica cuántica pode explicar. Ao controlar a xeometría e tamano dos nanoobxectos e as nanoestruturas, pódense modificar a condutividad eléctrica, a coloración, a reactividade química, a elasticidade, etc. Podemos  aos ´´nanos´´  grazas aos novos microscopios electrónicos de transmisión ou a ferramentas fabulosas como o microscopio de túneles (STM) ou o microscopio de forza atómica (AFM). Estas ferramentas permiten a observación e manipulación de átomos e moléculas, así como estruturas e materiais biolóxicos.

A nanotecnoloxía evoluciona de xeito imparable pola converxencia das ideas e propostas de biólogos, químicos, físicos, enxeñeiros e médicos. Estamos ante unha área científica moi multidisciplinar onde convergen as estratexias que nos permitirán deseñar, sintetizar e fabricar materiais e dispositivos con propiedades melloradas ou completamente novas. No caso da bioloxía desempeña un papel fundamental na nanotecnoloxía, xa que a vida en si é pura nanotecnoloxía. Non é necesario máis que observar o interior dunha célula para darse conta de que realiza todas as súas funcións grazas a “máquinas nanométricas”. Estas nanomáquinas son o resultado dun proceso evolutivo moi longo. A bioloxía presenta ante os nosos ollos un gran arsenal de solucións e estratexias que se experimentaron en diferentes formas de vida ofrecendo  ideas para deseñar novos adhesivos, novos tecidos que repelen auga, materiais máis resistentes ou novas drogas, por mencionar algúns exemplos.

Os produtos da Nanotecnoloxía invadirán todos os sectores económicos: materiais, electrónica, informática e comunicacións, enerxía e medio ambiente, transporte, construción, téxtil, biotecnoloxía, saúde, agricultura, alimentación, etc. En laboratorios e pequenas moléculas capaces de se tornaren interruptores ou memorias minúsculas, nanotubos de carbono formidable rendemento mecánico, follas de grafeno que fabrican os procesadores futuras, as nanopartículas de varias sustancias a seren incorporados en outros materiais probado como reforzo ou bactericida, nanofios e Quantum dots servir como biomarcadores ou aumentar o rendemento da enerxía solar, os liposomas células e dendritas capaces de liberar fármacos ou nutrientes dun xeito controlado, materiais nanoporosas útiles en auga ou almacenamento filtrado hidróxeno, etc.

Grazas á súa natureza transversal e á variedade de aplicacións que se farán realidade no futuro, a nanotecnoloxía xera un gran interese en moitos segmentos da sociedade: políticos, empresarios e cidadáns.Este interese inicial permite incorporar elementos da Nanotecnoloxía

en materias convencionais dende unha perspectiva máis integrada e aplicada. Deste xeito, os contidos relacionados cunha das áreas emerxentes máis importantes da ciencia do século XXI pódense proporcionar e, por outra, para espertar o interese e as vocacións científicas.

A nanotecnoloxía permite esta aproximación á ciencia e é unha oportunidade que os profesores da ciencia non deberían perder. Por este motivo, a Fundación Española de Ciencia e Tecnoloxía promoveu a publicación, fai un par de anos, da Unidade Didáctica de Nanociencia e Nanotecnoloxía que se distribuíu en todas as escolas do país. Esta iniciativa, xunto con outras xa existentes, como a Rede NANODYF [5] ou iniciativas como NanoYOU [6], facilitarán a chegada da nanotecnoloxía na aula.

http://www.sebbm.es/web/es/divulgacion/rincon-profesor-ciencias/articulos-divulgacion-cientifica/320-la-nanotecnologia-del-laboratorio-a-las-aulas

Lucía Dapena García (4ºA ESO)

Publicado en Actualidade científica | Deixa un comentario

Las cenizas de los volcanes antárticos podrían rodear al planeta

Las cenizas de los volcanes antárticos podrían rodear el planeta y afectar especialmente al tráfico aéreo en amplias zonas del hemisferio sur, según simulaciones informáticas realizadas por el Barcelona Supercomputing Center. El modelo pronostica las trayectorias de las nubes de cenizas, la concentración en los niveles relevantes para la aviación, y el grueso de los depósitos tanto para dominios regionales como globales.

Simulaciones informáticas han demostrado que los volcanes antárticos podrían suponer una amenaza más grande de lo que se creía previamente y afectar al tráfico aéreo en amplias zonas del hemisferio sur.

Una investigación centrada en los posibles impactos de la dispersión de cenizas procedentes de la isla Decepción pone de manifiesto cómo las nubes de ceniza atrapadas en vientos circumpolares a cotas altas tienen el potencial de llegar a latitudes más bajas y afectar el tráfico aéreo del hemisferio sur.

El estudio, realizado por Barcelona Supercomputing Center en colaboración con el Instituto de Ciencias de la Tierra Jaume Almera –CSIC,  se ha publicado en la revista Scientific Reports.

La investigación se ha basado en varios conjuntos de simulaciones, teniendo en cuenta diferentes escenarios meteorológicos y diferentes características eruptivas. Estas simulaciones han demostrado que las cenizas de las latitudes más bajas, como las de la isla Decepción, podrían rodear el planeta.

Esto puede ocurrir incluso en caso de erupciones moderadas, ya que podrían alcanzar latitudes tropicales, una gran parte de la costa atlántica de Sudamérica, Sudáfrica y el sur de Oceanía. Así pues, una dispersión de partículas volcánicas, más amplia de lo que se creía anteriormente, podría producir consecuencias significativas para la seguridad aérea en estas áreas.

Los experimentos se han realizado con el modelo meteorológico y de dispersión atmosférica NMMB-MONARCH-ASH del BSC-CNS a escalas regional y global. NMMB-MONARCH-ASH es un nuevo modelo de transporte meteorológico y atmosférico en línea para simular la emisión, transporte y deposición de partículas de tephra (cenizas) liberadas de erupciones volcánicas.

Necesidad de evaluaciones específicas

El modelo pronostica las trayectorias de las nubes de cenizas, la concentración en los niveles relevantes para la aviación, y el grueso de los depósitos tanto para dominios regionales como globales.

Uno de los objetivos del estudio es incrementar la conciencia sobre la necesidad de realizar evaluaciones específicas de riesgos para gestionar mejor el tráfico aéreo en caso de erupción.

Varios episodios volcánicos que se han producido en los últimos años, incluyendo Eyjafjallajökull (Islandia, 2010), Grímsvötn (Islandia, 2010) y Cordón Caulle (Chile, 2010) han generado grandes pérdidas económicas para la industria aeronáutica y sus grupos de interés.

El artículo concluye que, en circunstancias específicas, las cenizas volcánicas de los volcanes antárticos pueden alterar el tráfico aéreo, no sólo en proximidad, sino que podrían alcanzar Sudáfrica (6.400km) y rutas aéreas que conectan África con Sudamérica y Australia.

https://www.tendencias21.net/Las-cenizas-de-los-volcanes-antarticos-podrian-rodear-al-planeta_a44283.html

Mario Valderas García (4ºA ESO)

Publicado en Actualidade científica | Deixa un comentario

El cerebro estaría conectado con el cosmos a escala cuántica

¿Cómo pueden los procesos cerebrales físicos dar lugar a la consciencia, que es inmaterial? En la relación entre la actividad neuronal y la escala cuántica del cosmos podría estar la respuesta, según algunos científicos. Es lo que proponen Dirk K F Meijer y Hans J.H. Geesink, de la Universidad de Groninga, en Holanda, en un artículo publicado en “NeuroQuantology”.

Era de esperar que los avances del último siglo en física cuántica y la cosmovisión derivada de ellos llevaran a una variación de la definición de “consciencia” y “mente”.

Quizá algún día estos avances ayuden a responder a la inquietante pregunta sobre cómo de los procesos cerebrales (es decir, físicos) puede emerger la consciencia, que es inmaterial.

La relación entre la actividad neuronal (la de las células del cerebro) y la escala cuántica (la de las partículas que conforman los átomos) ya fue abordada en los años 90 por los investigadores Roger Penrose y Stuart Hameroff con una sorprendente teoría que, hace poco y a raíz de nuevos hallazgos, ha sido revisada.

Se trataba de la hipótesis de la “Reducción Objetiva Orquestada u Orch OR”, que propone que la consciencia se deriva de la actividad de las neuronas a escala cuántica o subatómica, es decir, de procesos cuánticos biológicamente orquestados en los microtúbulos o minúsculas estructuras tubulares situadas dentro de las neuronas del cerebro.

Esa actividad cuántica entrañada a un nivel cerebral profundo, además de gobernar la función neuronal y sináptica, conectaría los procesos cerebrales a procesos de autoorganización presentes fuera del cerebro, en la estructura cuántica de la realidad, afirmaban Hameroff y Penrose. Es decir, que nuestro cerebro podría estar conectado a una estructura externa, que de alguna manera sería ‘protoconsciente’.

El cerebro habla con los campos

Hace unos meses, la revista NeuroQuantology publicaba un artículo sobre la consciencia desde una perpectiva cuántica, que va incluso más allá de la propuesta de Hameroff y Penrose.

Firmado por los científicos Dirk K F Meijer y Hans J.H. Geesink de la Universidad de Groninga, en Holanda, teoriza que nuestro cerebro, además de ser un órgano de procesamiento ligado a nuestro organismo, con el que intercambia información continuamente, está vinculado al resto del universo a nivel cuántico.

Según Meijer y Geesink, a dicho nivel, nuestro cerebro estaría conectado con campos cósmicos como el de la gravedad, el de la energía oscura, el de la energía punto cero o el de las energías de los campos magnéticos de la Tierra.

Esa conexión se daría a través de mecanismos bien establecidos por la teoría cuántica como el entrelazamiento cuántico (que vincula a partículas entrelazadas más allá del espacio-tiempo) o el efecto túnel cuántico (que se da cuando una partícula cuántica viola los principios de la mecánica clásica, al atravesar una barrera de potencial imposible de atravesar para una partícula clásica).

La idea nos recuerda a la propuesta en 2008 por un estudio, en el que se relacionaba la capacidad de orientación de las aves migratorias con una posible “conexión cuántica” de estas con el campo magnético terrestre; aunque en aquel caso el campo magnético no “conectaba” con el cerebro de las aves, sino con los electrones presentes en los iones más inestables de sus retinas.

El idioma es una geometría

Meijer y Geesink proponen que el cerebro podría “comunicarse” con esos tipos diversos de campos gracias a una geometría, la conocida como geometría de toro o toroidal, que básicamente está constituida por espirales circunscritas en una esfera (se puede entender imaginando una rosquilla).

Al parecer, el toroide es la forma que tienen los átomos, los fotones y toda unidad mínima constitutiva de la realidad. Pero no solo: Según los investigadores holandeses, nuestro  cerebro se organizaría también siguiendo esta estructura (aquí hemos hablado antes de las geometrías que forma el cerebro en su actividad).

Esa coincidencia geométrica es la que permitiría al cerebro acoplarse a los campos que nos rodean, para recibir de ellos información continuamente en forma de ondas. Gracias a esto, en nuestra mente se actualizaría, de manera continua, un espacio de memoria global simétrica al tiempo.

Además,  el acoplamiento y ajuste continuos del cerebro a los campos externos, afirman Meijer y Geesink, permitirían guiar la estructura cortical del cerebro hacia una mayor coordinación de la reflexión y de la acción, así como hacia una sincronía en red, que es la necesaria en los estados de consciencia.

La mente como campo

Pero los investigadores holandeses van más allá de todo esto en sus postulados. También señalan que la consciencia no es exclusiva del cerebro, sino que surgiría en todo el universo a escala invariante, de nuevo a través del acoplamiento anidado toroidal de varias energías de campos.

Quizá esto pudiera relacionarse con el concepto de “protoconsciencia” de Hameroff y Penrose del que hemos hablado antes; e incluso con la idea de la matriz de información universal del paradigma holográfico propuesto por el físico David Bohm en el siglo XX.

Meijer y Geesink llegan a describir la mente como un campo situado alrededor del cerebro (lo llaman campo estructurado holográfico), que recogería información externa al cerebro y la comunicaría a este órgano, a gran velocidad (no en vano hablamos de procesos cuánticos). Los investigadores aventuran que este hecho podría explicar la rapidez con la que el cerebro registra y procesa información del entorno, a nivel consciente e inconsciente.

Ese campo estructurado holográfico estaría, según ellos, en la cuarta dimensión o espacio-tiempo, aunque tenga efectos en nuestro cerebro tridimensional e incluso en la manera en que percibimos el mundo en tres dimensiones.

Curiosamente, una idea “parecida” proponía hace unos años el antropólogo Roger Bartran, en su obra Antropología del cerebro: la conciencia y los sistemas simbólicos, aunque en aquel caso la parte de consciencia humana “fuera del cerebro” se ubicaba en los sistemas culturales, con los que algunas regiones cerebrales están estrechamente ligadas.

Implicaciones

Para los científicos holandeses, su hipótesis tiene profundas implicaciones filosóficas: Sugiere que existe una “profunda  conexión de la humanidad con el cosmos” que nos obliga a tener “una gran responsabilidad sobre el futuro de nuestro planeta”, escriben en su artículo.

Asimismo, su teoría podría conllevar un atisbo de respuesta para la pregunta con la que iniciamos este artículo: ¿Cómo los procesos cerebrales (es decir, físicos) dan lugar a la consciencia, que es inmaterial?

Quizá sea que existe un campo mental situado en la cuarta dimensión, allí conectado a otros campos externos mientras, al mismo tiempo, forma parte física de nuestro cerebro. Pero habrá que esperar a que ese campo mental sea una certeza para poder lanzar conclusiones definitivas.

https://www.tendencias21.net/El-cerebro-estaria-conectado-con-el-cosmos-a-escala-cuantica_a44304.html

Ana Prieto Conde (4ºB ESO)

Publicado en Actualidade científica | Deixa un comentario

Inteligencia artificial y teatro accesible para personas sordas y ciegas

Esta nueva tecnología del grupo de investigación SoftLab de la UC3M se ha empleado para hacer accesible la comedia musical de Broadway “La Familia Addams” en el Teatro Calderón de Madrid (España), en un proyecto en el que han colaborado la agencia creativa C&W, COMUNICAdos y Escena Global y que ha contado con el apoyo de la Consejería de Educación e Innovación de la Comunidad de Madrid. Gracias a ello, las personas con discapacidad auditiva y visual pueden disfrutar de cualquiera de las representaciones de esta comedia musical desde el pasado 3 de diciembre, Día Internacional de las Personas con Discapacidad. Esto significa que más de un millón de personas sordas en España podrán acceder por primera vez en su vida a un musical de esta calidad y envergadura.

Esta innovación, desarrollada por este grupo de investigación del Instituto de Desarrollo Tecnológico y Promoción de la Innovación Pedro Juan de Lastanosa de la UC3M, se basa en un software que permite, mediante un sistema de realidad aumentada, ver los subtítulos adaptados y a un intérprete de lengua de signos de forma totalmente individual. Además, el sistema se sincroniza automática con la obra, sin intervención humana, gracias a técnicas de inteligencia artificial que detectan en todo momento qué es lo que sucede en el escenario. Después, el espectador recibe los contenidos de accesibilidad a través de la aplicación GoAll.

Stage-sync es una tecnología que va aprendiendo a medida que se van realizando representaciones y se adapta a los cambios de ritmo y actores que se suelen producir en el teatro. Utilizando técnicas de deep learning combinadas con procesamiento de audio consigue una sincronización perfecta entre la representación y los elementos de accesibilidad. Además, con el sistema de visualización de realidad aumentada ya no es necesario incluir los subtítulos en la escenografía, sino que cada espectador puede verlos ‘integrados’ en el espectáculo.

Según el responsable del SoftLab de la UC3M, el profesor Ángel García Crespo, hasta ahora solo se producían esporádica y puntualmente unas pocas representaciones teatrales con este público objetivo en mente y no se incluía la lengua de signos. “Ahora ya es posible que todas las representaciones sean accesibles”, indicó.

Este proyecto de adaptación en el Teatro Calderón ha contado con la colaboración de Samsung, así como del director de arte Carlos Alcalde, a través de las productoras Entrecalles Producciones y DTF Transmedia, que han trabajado estrechamente con los creativos de la agencia C&W para integrar los elementos artísticos y estéticos junto con los contenidos de accesibilidad, otra acción pionera y única en este ámbito. “Cuando LETSGO y Esteve empezaron a adaptar la obra, nos dimos cuenta de que Cosa (la mano de La Familia Addams) no podría tener el mismo protagonismo en teatro que en cine y pensamos que – en realidad- esta era la oportunidad perfecta para darle un papel principal convirtiendo a Cosa en nuestro traductor de lengua de signos; algo que parece natural para el personaje puesto que se expresa exclusivamente con las manos”, declaró Carmelo Rodríguez, de la agencia creativa C&W.

El proyecto está financiado con el apoyo de la consejería de Educación e Investigación de la Comunidad de Madrid como parte de las ayudas del programa “Cheque Innovación”, un programa de ayudas cofinanciadas por el Fondo Europeo de Desarrollo Regional para incentivar el uso de los servicios de Innovación.

http://noticiasdelaciencia.com/not/26705/inteligencia-artificial-y-teatro-accesible-para-personas-sordas-y-ciegas/

Raquel Andrés Ramos (4ºA ESO)

Publicado en Actualidade científica | Deixa un comentario

La escalada de calor podría llegar a los 5ºC a finales de este siglo

Si las emisiones de CO2 continúan al ritmo actual, hay un 93% de posibilidades de que el calentamiento climático supere los 4ºC a finales de este siglo, acercándose a los 5ºC por encima de los niveles preindustriales (1860), según un nuevo estudio estadístico realizado por los investigadores Patrick Brown y Ken Caldeira, de la Carnegie Institution for Science, publicado en la revista Nature.

Los resultados de esta investigación sugieren que finalmente se impondrá la escalada de la temperatura recogida en los escenarios más pesimistas del panel de expertos sobre el cambio climático (IPCC), presentados en 2014.

Los resultados del modelo climático desarrollado en esta investigación indican que podemos esperar que las temperaturas globales aumenten en cualquier punto del rango entre 3.2ºC y 5.9ºC sobre los niveles preindustriales a finales de este siglo, con una diferencia de aproximadamente un factor dos entre las proyecciones más severas y las menos severas, explican los investigadores en un comunicado.

“Nuestros resultados sugieren que no tiene sentido descartar las proyecciones de calentamiento global más severas basadas en el hecho de que los modelos climáticos son imperfectos en su simulación del clima actual”, explica uno de los autores del estudio,  Patrick Brown. “Por el contrario, en todo caso, estamos demostrando que las deficiencias del modelo se pueden utilizar para descartar las proyecciones menos severas”.

La cuestión de las nubes

El nuevo estudio aclara una cuestión que intriga a los científicos: el papel que juegan las nubes en el calentamiento global, ya que se cree que la elevación de las temperaturas afecta a la distribución y el tipo de nubosidad presente en la atmósfera.

Las nubes recalientan la atmósfera por el efecto invernadero y la enfrían también por la radiación solar, y es difícil determinar cuál de las dos tendencias va a dominar en el futuro, porque de ello dependerá en gran parte el comportamiento del clima.

Los modelos que mejor pueden recrear las condiciones actuales son los que simulan una reducción en el enfriamiento de las nubes en el futuro y, por lo tanto, estos son los modelos que predicen mejor el calentamiento futuro, considera Brown.

Este estudio indica que si las emisiones siguen un escenario lineal, hay un 93 por ciento de posibilidades de que el calentamiento global supere los 4 grados Celsius a finales de este siglo. Estudios previos habían puesto esta probabilidad en un 62 por ciento, indica, por su parte, Ken Caldeira.

Los modelos climáticos se desarrollan mediante algoritmos que usando ecuaciones físicas simulan el comportamiento de la atmósfera y de los océanos. En estos modelos, el calentamiento global se elabora calculando la concentración en la atmósfera de gases de efecto invernadero.

Enfoque original

Aunque hay unos cuarenta modelos climáticos mundiales que proyectan diferentes niveles de calentamiento climático, no existe consenso sobre la mejor manera de modelizar diferentes aspectos del sistema climático, explican los investigadores.

Los modelos desarrollados por el IPCC a partir de las concentraciones de C02 actuales proyectadas hasta 2081 y 2100, calculan un aumento de la temperatura que estará entre los 2,6ºC y los 4,8ºC por encima de los niveles preindustriales.

El modelo desarrollado en esta investigación ha comparado las propuestas de los diferentes modelos y las ha alimentado con recientes observaciones de satélite sobre la atmósfera actual. A continuación, se han apoyado sobre los modelos más fiables para obtener proyecciones climáticas futuras hasta el año 2100.

El resultado de esta labor es categórico: los modelos que mejor simulan el periodo climático actual tienden a proyectar al futuro un calentamiento próximo a los 5ºC. La novedad de esta aproximación es que, más que extraer valores medios de los diferentes modelos, se ha basado en los modelos más sensibles y realistas, lo que otorga una verosimilitud mayor al escenario planteado.

Se calcula que con 5ºC por encima de los niveles preindustriales, la extinción afectaría al 16% de las especies conocidas, según Mark Urban, del Departamento de Ecología y Biología Evolutiva de la Universidad de Connecticut (EEUU). Sudamérica, Australia y Nueva Zelanda serían las regiones más afectadas, según este estudio, publicado en la revista Nature en 2015.

En otro momento histórico en el que el clima se calentó 5ºC, debido a la liberación de CO2 a la atmósfera como consecuencia del vulcanismo de una pluma de manto en Siberia, se produjo la extinción Pérmico-Triásico, que acabó con el  95 % de las especies marinas​ y el 70 % de las especies de vertebrados terrestres, hace 250 millones de años. Se cree que el calentamiento climático de entonces influyó decisivamente en la Gran Mortandad.

https://www.tendencias21.net/La-escalada-de-calor-podria-llegar-a-los-5%C2%BAC-a-finales-de-este-siglo_a44314.html

Ángel Gómez Feás (4ºB ESO)

Publicado en Actualidade científica | Deixa un comentario

LA INTELIGENCIA ARTIFICIAL AYUDA A DESCUBRIR DOS NUEVOS EXOPLANETAS

Gracias a un sistema de inteligencia artificial (IA) desarrollado por Google, la Nasa ha identificado un octavo planeta que orbita alrededor de Kepler-90. Esta estrella, tiene una masa similar a la de nuestro Sol (1,13 para ser precisos) y se encuentra a 2.545 años luz de la Tierra. El hallazgo convierte a K-90 en el primer sistema solar que, al igual que el nuestro, está formado por ocho planetas.

Pese a que el telescopio espacial Kepler ya había captado la señal de este mundo rocoso, bautizado como Kepler-90i (los otros 7 planetas, Kepler-90 b,c,d,e,f,g y h, fueron descubiertos en 2013) pero se trataba de una señal muy débil que no pudo ser confirmada… hasta que se recurrió al software de inteligencia artificial desarrollado por Google.
De acuerdo con Christopher Shallue, uno de los ingenieros responsables del programa de IA, todo comenzó “alimentando” al sistema con unas 15.000 clasificaciones de “sí, esto es un planeta” y “no, esto no es un planeta”. Así entrenaron a la IA mediante lo que se conoce como una red neuronal convolucional (básicamente una imitación digital de cómo funcionan las neuronas en la corteza visual. En el comunicado de prensa realizado por la Nasa, Shallue explicó que el software es muy similar al modelo que Google había desarrollado previamente para diferenciar gatos y perros.

Señaló cómo los astrónomos ya habían estudiado más de 35.000 señales bastante más claras, pero no habían podido centrarse en las más débiles y menos prometedoras. Y fueron precisamente estas las que analizó el programa de Google. Esas señales débiles fueron lo que Google analizó, y cómo se descubrió Kepler-90i, un mundo que si bien es rocoso, tiene una temperatura demasiado elevada como para albergar vida: por encima de los 430ºC.

Si bien la noticia es de gran relevancia, ya que señala la entrada por la puerta grande de la IA en la astronomía, el telescopio Kepler ya había descubierto 2.525 exoplanetas, una decena de ellos rocosos, con un tamaño similar al terrestre y con posibilidades de ser aptos para albergar vida.
Los responsables del hallazgo también señalan que fue detectado un segundo exoplaneta, esta vez en el sistema Kepler-80, similar en tamaño a la Tierra.

http://www.quo.es/ciencia/la-inteligencia-artificial-ayuda-a-descubrir-dos-nuevos-exoplanetas

Brais Martínez Iglesias (4ºC ESO)

Publicado en Actualidade científica | Deixa un comentario