miércoles, 27 de junio de 2012

Sobre el cenit del petróleo.


    Alguna vez os habréis preguntado cuántos años nos pueden quedar de petróleo en el planeta. Cuántos años más podremos seguir subsistiendo centrándonos en este recurso energético.
Recuerdo haber leído hace bastantes años en un libro, un dato que afirmaba que podríamos seguir disponiendo de petróleo hasta el año 2100 sin que su producción disminuyese. Con el paso de los años y con la escucha de la información propagada por los medios de comunicación, ese dato lo acabé tachando de poco riguroso y aleatorio. Llegué a creer que en pocos años la extracción mundial de crudo llegaría a su tope. Sin embargo, he estado informándome últimamente sobre este tema y he llegado a la conclusión de que lo que había leído hace años, no iba tan desencaminado.

Lo que me ha llevado a buscar información sobre todo este tema, es el hecho de que en los últimos dos meses, el precio de la gasolina aquí en España, haya pasado de 1,55 € a 1,28 €/litro ¿Cómo puede un recurso energético que algunos dicen que está a punto de agotarse, disminuir su precio de una forma tan significativa? Una de las respuestas está clara, y es que si el petróleo llega a cotas de coste muy elevadas, la generación de biocombustibles se haría rentable, y eso no les interesa. Otra respuesta es que todavía queda en el planeta mucho más petróleo del que creemos. Desde mi punto de vista, ambas respuestas son complementarias.

Cartel de CuantaRazon
Un ejemplo de la dificultad que existe para cuantificar la cantidad de petróleo que todavía tenemos en el planeta, es el caso del yacimiento petrolífero del río Kern, en California. 


Este yacimiento, fue descubierto en 1899. Al principio, dada la elevada viscosidad del crudo, se estimó que solo se podría extraer un 10 % del crudo. En 1942, se dijo que del depósito solo se podrían extraer 54 millones de barriles más. Fuera de todo pronóstico, al final se consiguieron extraer 736 millones de barriles y aun esperan obtener 900 millones más. Es decir, que se ha conseguido un total de 1582 millones de barriles más de lo esperado. Con este ejemplo, pretendo dar una visión superficial de lo que difieren los primeros cálculos con los definitivos, de entender que con el paso de los años y de las mejoras técnicas, la extracción de petróleo puede aumentar de una forma enorme. 


Antes de la crisis económica, se consumían en el mundo 30.000 millones de barriles al año. Estudios recientes estiman que las reservas restantes del planeta son de 1,3 billones de barriles. Lo que nos daría para abastecernos durante 40 años escasos. Estas reservas, sin embargo, están cuantificadas como reservas que serían rentables para extraer con la tecnología actual, sin tener en cuenta la evolución técnica. 
Sin tener en cuenta los detalles técnicos, se estima que la cantidad de barriles aumentaría hasta los 8 billones en todo el mundo. Si a todo esto, se le añade la posibilidad de extraer de las arenas bituminosas el betún (muy semejante al petróleo), los datos se dispararían todavía más.

Arenas bituminosas
Con la tecnología que disponemos hoy en día, tan solo se consigue un 35% del petróleo total de un yacimiento. Hay que entender, que el petróleo no se encuentra formando lagos en cuevas subterráneas, sino todo lo contrario. El petróleo yace incrustado a una elevadísima presión en el interior de los poros de las rocas. Esto es así ya que los restos de vegetales y microorganismos del cámbrico, fueron sepultados por sucesivas capas de rocas, que generando una elevada presión y calor transformaron los sedimentos en petróleo con el paso de los milenios.


"Árbol de Navidad"
Esto puede parecer a primera vista como un impedimento, sin embargo, para la primera fase de extracción del crudo es todo lo contrario; ya que debido a la elevada diferencia de presión entre el subsuelo y la superficie, el petróleo aflora sin necesidad de aportarle energía exterior durante algunos años. En este proceso se emplea el sistema llamado "árbol de navidad" para controlar la cantidad de petróleo que se extrae. Este método sin embargo, solo permite extraer hasta un 15 % del total del depósito.

Para poder operar en la segunda etapa de extracción, se necesita restablecer la presión perdida por la primera etapa. Esto se puede solucionar con la inyección de gas natural y agua en el yacimiento. Con métodos como la prospección sísmica, que consiste en la emisión de ondas sísmicas desde la superficie al subsuelo, se puede, mediante un geófono (es un tipo de transductor), estudiar los distintos tipos de onda y sus trayectos para así recrear una imagen del subsuelo que luego se puede relacionar con las capas geológicas. De esta forma, se puede saber de antemano cuales son las mejores zonas para perforar el yacimiento para asegurar una extracción óptima. Esto se debe a que dependiendo de la disposición de las capas geológicas, puede ser más favorable una extracción vertical o en forma de "L".

Tras haber realizado estas dos etapas, se ha conseguido extraer entorno a un 35 % - 40% del total del yacimiento. Aquí es donde entra en juego la tercera fase, mediante la cual, una vez los métodos estén lo suficientemente avanzados, permitirán extraer hasta un 60 %.
En esta tercera fase, el crudo restante está muy espeso, lo que imposibilita su ascensión a través de los poros de las rocas.
Uno de los métodos que se están investigando, es el método de la ignición, mediante el cual queman una parte de los hidrocarburos con un calentador y una bomba de aire, de forma que el calor fluidifica el petróleo. Además, al mantenerse la combustión, se genera CO2 que favorece la ascensión  del crudo.

Proceso de ignición.

Otros métodos en proceso de investigación son procesos biológicos basados en el bombeo de microorganismos y nutrientes que crecen entre la roca y el combustible, de forma que favorecen el desprendimiento de este.

La inyección de CO2 a elevada presión también favorece la fluidificación del crudo. Este método podría revalorizar la idea de extraer y almacenar el CO2 en las centrales eléctricas de ciclo combinado mediante la implantación de la CAC (Captura y Almacenamiento de CO2). Aunque su transporte hasta las zonas de extracción de petróleo podría se inviable dependiendo de la situación.


   Queda claro que la variación de los precios del petróleo se rige en función de la capacidad de reserva de que dispongan. Y esta aumenta cada determinado tiempo y con el avance de la tecnología.
Según todo lo expuesto anteriormente, se puede decir que aun queda un elevado porcentaje de crudo sin extraer en todos los pozos descubiertos. A mayores, también se sabe que aun quedan muchos yacimientos por descubrir que todavía no han sido investigados.

Todos estos datos nos alejan de la idea de un inminente cenit del petróleo y nos conduce a aceptar que hasta cerca del año 2100, no se comenzará a notar una verdadera crisis en este sector.

Solo cabe esperar, que todos los políticos que sean conscientes de toda esta información, no se relajen y dejen de subvencionar energías renovables tal y como están haciendo hoy en día en España. Si para 2100 las próximas sociedades pueden estar desligadas de esta forma de energía será mucho mejor para todos nosotros y para el planeta. 
Sería interesante apostar desde hoy por una red eléctrica descentralizada para poder ir contribuyendo al desarrollo de futuras estaciones de recarga de coches eléctrico (la red eléctrica actual sería incapaz de soportar tal saturación) que permitan una reforma completa en el sistema de transporte actual, en el que de momento, los coches eléctricos son vistos como vehículos inviables. Y esto solo se puede conseguir alejándonos de nuestra dependencia energética con los combustibles fósiles.



Fuentes:
[IyC]





lunes, 5 de marzo de 2012

5 de Marzo: Día mundial de la eficiencia energética.

   Hoy, 5 de Marzo, es el día mundial de la eficiencia energética. Un día en el que al menos los temas sobre energías renovables y su política, deberían salir más que nunca a la luz en los medios de comunicación.
Sin embargo, y por desgracia, lo poco que se ha escuchado, hubiese sido mejor que se quedase guardado en un cajón. Concretamente, en un programa de la "cadena SER", en el que hace un par de horas, tuve el placer de escuchar las palabras más absurdas del último mes. Vinieron de la boca de una profesora de una escuela técnica de ingenieros, lo cual todavía me hizo hervir más la sangre.
Su charla, por impresionante que parezca, se centró en decir que las energías renovables, no son renovables.
Sí, así de sorprendente.
Habló sobre energía eólica, y comentó que la energía eólica no podía llamarse renovable, debido a su dependencia del consumo de carburantes para transportar los aerogeneradores en camión a sus respectivas zonas de instalación y para sus futuros mantenimientos.
También habló sobre la biomasa; y en este caso, se lució diciendo que no era renovable porque era una energía que procedía de la tierra.
 
   Poco hay que comentar sobre estas palabras. Quizás la tristeza de que, teniendo la oportunidad de proyectar una idea generalizada a un numeroso público sobre las distintas tecnologías de que se disponen, de sus beneficios económicos y medioambientales,  se desperdicie para decir una sarta de sandeces con tintes demagógicos e ignorancia absoluta.

   Punto y aparte y para abordar un poco el tema de la eficiencia energética hoy, comentar que, esa energía "no renovable", batió el pasado mes de febrero, su plusmarca histórica.
De forma concreta, la eólica cubrió sola, durante ese mes, el 21,7 %  de los Kilovatios totales consumidos en España. Dicho de otra manera, 1 de cada 5 kilovatios consumidos, fueron producidos por los aerogeneradores, gracias a los cuales, conseguimos ahorrar 260 millones de euros de importaciones de combustibles fósiles, con sus correspondientes emisiones de CO2.

   Pero supongo que este tipo de datos nunca son los que más gusta ofrecer a  los ciudadanos, no vaya a ser que entonces protestemos por la supresión de ayudas y subvenciones que está sufriendo este tipo de energía, que cada día, nos sigue demostrando hasta donde puede otorgarnos autoabastecimiento energético.







miércoles, 1 de febrero de 2012

Eficiencia energética: Variadores de velocidad en la industria.


 Después de un mes entero con exámenes que se ha hecho eterno por fin vuelvo a tener tiempo para actualizar el blog. Y qué mejor que actualizarlo abordando uno de los temas más importantes para la industria, que es la eficiencia energética.

Gráfica de rendimiento de un transformador.
A partir de una determinada intensidad,
el rendimiento comienza a disminuir.
Cuando hablamos de eficiencia energética, directamente estamos hablando, a grandes rasgos, de producir más (o lo mismo)  gastando menos energía, y para una empresa, gastar menos es lo que la puede llevar a convertirse en la más competitiva a nivel de precios dentro de un sector.
Además, el consumo eléctrico en el sector industrial, a nivel comunidad autónoma, puede abarcar más del 60 % del total, por lo tanto, a mayores de buscar la eficiencia para su propio beneficio, las empresas deben de buscar la máxima eficiencia para asegurar una correcta distribución eléctrica a la población.

Hasta aquí todo claro. Ahora bien, ¿cómo podemos disminuir el consumo eléctrico de una industria?
Para esto existen muchos métodos, desde la corrección del factor de potencia de una instalación mediante el acople de un banco de condensadores, hasta la instalación de variadores de frecuencia. En este post, me centraré específicamente en los variadores de frecuencia y concretamente en un tipo determinado, que son los variadores de velocidad.


Variador FR-D700 de Mitsubishi 
Un variador de frecuencia, como su nombre indica es un dispositivo que permite la variación de la frecuencia suministrada por la red eléctrica (50 Hz en Europa, 60 Hz en América). 
El interés práctico de estos dispositivo, reside en que en la industria, el 80 % de los motores existentes, son motores de inducción trifásicos, en general, motores asíncronos de jaula de ardilla, que debido a su escaso mantenimiento y su robustez permiten trabajar en cualquier ambiente adverso.

El único problema que presentan este tipo de motores, es que trabajan a velocidad constante, la cual viene impuesta por la frecuencia de la red y por el número de polos que tenga el motor.

Motores asíncronos de jaula de ardilla.
Por lo tanto, a lo largo de los años, en muchas aplicaciones industriales que requerían velocidades variables, se ha empleado el motor de corriente continua, el cual presenta el gran inconveniente de tener un colector delgas, que requiere un mantenimiento frecuente y lo convierte en un motor mucho menos robusto que el de jaula de ardilla.

Sin embargo, gracias a la aparición de la electrónica de potencia, los motores de c.c. han sido relegados.




El funcionamiento de un variador de velocidad (generalmente un PWM), se basa, a grandes rasgos, en la existencia de un rectificador y un inversor, de forma que la corriente alterna de línea, es convertida a corriente continua en el rectificador, y luego otra vez a alterna en el inversor, donde se le puede asignar la frecuencia deseada para alimentar posteriormente al motor.
De esta forma, manejando la velocidad del motor a nuestro antojo según se requiera, podemos disminuir enormemente el consumo eléctrico de una industria, evitar paradas innecesarias y arrancar el motor de una forma más suave, sin que tengan lugar los pares en frío a los que suelen someterse en el arranque y las elevadas intensidades de arranque, que pueden reducir enormemente la vida útil de los aislantes y conductores.
Esquema de un variador de velocidad.

Para poder calcular los beneficios que aporta la instalación de un variador de velocidad en compresores, ventiladores y bombas, hay que emplear las leyes de afinidad, las cuales están disponibles  en cualquier página  de internet, y que permiten calcular el nuevo consumo.
Leyes de afinidad.

Hace poco leí un ejemplo práctico en el que, se pasó de una potencia de consumo de 309,53 KW, a una de 251,88KW,  lo que permitió un ahorro de 63,19 KW.
Viéndolo así,  parece una cantidad sin importancia, pero teniendo en cuenta que un motor asíncrono puede operar más de 7000 horas al año, el ahorro se dispararía a 550 MW*h/año, lo que se traduciría en casi 50 000 € anuales. A parte de mejorar la calidad de funcionamiento del motor, sin forzarlo en momentos puntuales.



Un inconveniente con el que hay que tener cuidado a la hora de instalar un variador de velocidad en un motor asíncrono, es que puede puede suministrar una tensión distorsionada no senoidal, lo que implica la aparición de armónicos. En el caso de que fuesen armónicos negativos (el 5º armónico por ejemplo) el campo rotatorio que generaría se opondría al sentido de giro del motor,  por lo que se estaría perdiendo par motor y velocidad. Además, los armónicos pueden sobrecalentar los conductores a causa del "efecto Skin" por culpa del cual la corriente alterna tiende a distribuirse por la superficie del conductor.
Una solución a este problema, sería la utilización de circuitos separados para alimentar a los variadores.

La instalación de variadores de velocidad en la industria, es hoy en día  un negocio que está creciendo a pasos agigantados. La amortización económica de instalar este tipo de dispositivo, suele ser inferior al año y cada vez las personas tienen más conciencia acerca de los beneficios de la eficiencia energética.
Sin embargo aun queda mucho que andar, teniendo en cuenta datos como los que facilitan algunas estadísticas, según los cuales, tan solo el 20 % de los empresarios, tienen conocimiento de la existencia de los variadores de velocidad y de sus beneficios.





                                           Vídeo explicativo de un variador de frecuencia. 






domingo, 1 de enero de 2012

Fin del proyecto Rómulo.

   Hace unos meses, subí un post sobre el proyecto desertec y sobre el sistema de transporte de la energía eléctrica para casos de grandes distancias o trayectos submarinos. En una de las imágenes, se representaban las líneas de HVDC que estaban en proceso de construcción, y una de ellas, era la que unía la Península Ibérica con las islas Baleares. Esta conexión, fue ideada en el año 2004 en el proyecto Rómulo, y fue finalizada hace unos días (16 de diciembre de 2011) con un coste total de 375 millones de euros.
También se conoce como Cometa, que es el acrónimo de Conexión Mediterránea de Transporte de Alta tensión. 

La unión eléctrica se llevó a cabo desde Sagunto (Valencia) hasta Santa Ponsa (Mallorca), de forma que se unieron los dos puntos más cercanos entre la Península Ibérica y el archipiélago. Para llevar el cableado de un lado a otro se han empleado dos barcos especializados que son únicos en el mundo: el italiano Giulio Verne y el noruego Skagerrak. Se necesitaron 20 días para conectar cada uno de los 3 cables con cada extemo, debido a la lentitud con la que hay que asentar los cables en el lecho marino durante los 237 Km, a profundidades máximas de casi un kilómetro y medio.

Puntos de unión del proyecto Rómulo.

El proyecto iniciado en el 2007, se prolongó durante 4 años. El hecho de que haya durado tanto se debe a los numerosos y costosos requisitos de interconexión que ofrece la HVDC, que exige la construcción en cada extremo, de conversores de corriente continua en corriente alterna además de ajustes en el sistema eléctrico balear. Como ya sabemos, la distribución a corta distancia y dentro de poblaciones, se realiza siempre con alterna debido a la facilidad de variación de voltajes con el uso de transformadores trifásicos.

Buzo instalando el cable submarino.
Por el momento, el cableado funciona de forma parcial y bajo un estudio de calidad. Una vez se haya pasado este tiempo de control, pasará a funcionar de forma permanente adaptándose a la demanda eléctrica de las Islas Baleares, cediendo una potencia de 400 MW a 250 KV.
Esta conexión es sin duda un gran impulso para las islas, que, además de introducirlas en el mercado eléctrico ibérico, les confiere una mayor estabilidad y fiabilidad a su suministro eléctrico, suministrándole el 25 % de su demanda total.

Desde un punto de vista ecológico, se puede destacar que esta interconexión cierra la necesidad de la apertura de nuevas centrales en el archipiélago que en los últimos años, estaba viendo incrementado su consumo energético.

Finalizado este proyecto, se tiene ya en el punto de mira la interconexión de España con Francia a través de los Pirineos, mediante el uso de una tuneladora que excavará un túnel subterráneo. En la parte española ya se han perforado 40 metros. Pero todavía toca esperar ya que la longitud total va a ser de 65 kilómetros. Debido a esta larga distancia, también se empleará el transporte mediante corriente continua.

Sección de los cables empleados en el proyecto Rómulo (foto de REE)


Queda bien plasmada la importancia que está tomando este tipo de tecnología para conectar redes eléctricas de distintos países con una alta eficiencia. Con el paso de los años, quizás sea una de las soluciones para poder abastecer la necesidad energética creciente de los distintos países del mundo.
Sería interesante que se siguiese investigando para poder realizar proyectos como el Rómulo, a precios más bajos y en tiempos más cortos. Pero viendo los últimos recortes de 600 millones de euros que se le ha hecho a I+D+i en España, quizás sea un asunto complicado.



                                                        Video sobre el proyecto Rómulo.




Fuentes:

[entrelineas]
[REE]

lunes, 19 de diciembre de 2011

Energía Nuclear de Fusión: El Tokamak y el futuro de la energía.

 
   Últimamente he estado viendo vídeos sobre la energía nuclear de fusión. En concreto, sobre los diseños y proyectos actuales en los que se está intentando obtener de una forma segura y viable este tipo de energía y me pareció interesante hablar sobre este tema aquí.

Como introducción, hay que saber que todo proceso de fusión, consiste en la unión de dos núcleos atómicos que dan como resultado uno más pesado, liberándose energía.

La liberación de energía en un proceso de fusión, se rige por la famosa ecuación de Einstein:
                                                                                 
                                                                           E = mc^2 \,\!

De tal forma que al fusionarse dos átomos para dar uno más pesado, esta variación de masa multiplicada por la velocidad de la luz al cuadrado, daría como resultado, la energía total transformada. ¿Esto es mucho?
Pues con 10 gramos de deuterio y 15 gramos de tritio, se podría generar la suficiente energía como para abastecer la demanda de una persona, a lo largo de toda una vida. Visto de otra manera, se aproxima que con un gramo de una reacción de fusión de este tipo, se genera 1000 veces más energía que con 1 gramo de U235.


                                                         H2 (D)+ H3(T) —> He+ n + 18 MeV        
                                                    



Esta reacción pertenece a la fusión que se está estudiando actualmente, y corresponde a la unión de un átomo de Deuterio y otro de Tritio (isótopos del hidrógeno). Como resultado, se forma un átomo de helio.
¿Son elementos abundantes? El deuterio se puede sacar del agua  de los océanos. De forma concreta, por cada 500 litros de agua, se pueden extraer 10 gramos de deuterio. El tritio, lo obtendríamos del litio. (15 gramos de tritio por cada 30 de litio). Ambos son elementos que podemos considerar inagotables en la naturaleza.

La razón por la que se trabaja con esta reacción específica, se debe a que necesita menor presión que la que tiene lugar en el núcleo solar. (Sería imposible simular esas condiciones de presión). Por el contrario, debemos de aumentar la temperatura hasta 150 millones de grados o incluso más (¡135 millones más que el núcleo solar!)

                            


                               4×H1 + 2×e- —> He4 + 2 neutrinos + 6 fotones + 26 MeV 
                                                        Reacción de fusión en el núcleo solar.




   En vista de los valores numéricos de temperatura que se han mencionado, es lógico pensar que para llevar a cabo una reacción de fusión, se necesita una cantidad de energía inmensa para vencer las fuerzas de repulsión magnéticas y nucleares de los átomos. Nos vamos haciendo una idea por lo tanto de qué condiciones vamos a necesitar. La cuestión es ¿Dónde y cómo podemos recluir deuterio y tritio en estado de plasma a semejantes temperaturas?

Antes de responder a estas preguntas, retrocedamos unos cuantos años en el tiempo.
La fusión nuclear, no es un concepto que podamos considerar reciente. De hecho, la primera reacción nuclear, se llevo a cabo en 1952, en el interior de una Bomba de Hidrógeno (o termonuclear).
Explosión bomba de Hidrógeno.
Pero cómo pudieron a hacer para suministrar la cantidad de calor necesaria para ello, si todavía hoy en día se tienen complicaciones. La respuesta está en que, la fusión nuclear, se puede producir fácilmente de forma descontrolada, mediante una reacción en cadena. Lo que quiere decir esto es que, antes de la fusión, la bomba de Hidrógeno explotó como una bomba nuclear convencional de fisión. En ese instante, la temperatura que se genera, es de decenas o cientos de millones de grados, ideal para que posteriormente, se desencadene la fusión nuclear, confiriéndole a la bomba H una potencia varias veces superior a las de Hiroshima y Nagasaki.


Visto esto, a menos que queramos destruir el planeta, no es la forma que nos interesa para obtener la reacción de fusión nuclear, por lo tanto, habrá que construir un avanzado reactor nuclear que lo permita.

Para el estudio y construcción de este reactor, nació en 1986, un proyecto internacional en el que colaboran países como  Rusia, la Unión Europea, EEUU, Japón, Canadá y China.
Este proyecto, lleva el nombre de proyecto ITER, que en español se traduce como "Reactor Termonuclear Experimental Internacional" y está siendo construido en Cadarache (Francia) y ha supuesto una inversión de 10.300 millones de euros. Se espera que esté completamente operativo para 2020 aproximadamente.

El reactor que están construyendo, consiste en un modelo de Tokamak. (acrónimo ruso que en español se expresa como "Cámara toroidal de bobinas magnéticas"). 


Sección de un Tokamak.
La estructura de un Tokamak, tiene forma toroidal, como un donuts (pero cuyo interior se encuentra al vacío), de 2 metros de radio interno y 6,2 de radio externo. Lo que sería la superficie del "donuts", en el Tokamak se corresponde con un conjunto de bobinas superconductoras de niobio encargadas de generar un campo magnético cerrado que sigue la trayectoria del toroide (imaginar un hilo que pasa por dentro del donuts, ese sería el campo magnético toroidal) . En el agujero central del "donuts", estaría ocupado por un material por el que se inducirá un campo magnético variable.

Ya tenemos una descripción básica de lo que es un Tokamak. Ahora, interesa saber en qué principios se apoya, cómo sería su funcionamiento y si con esa configuración podría albergar en su interior plasma a temperaturas de 150 millones de grados.

Es evidente que no podemos confinar un flujo de plasma a 150 millones de grados de cualquier forma. Primeramente las paredes del recipiente se desgastarían, el plasma se enfriaría y tendríamos que suministrarle muchísima más energía, de tal forma que ni tan si quiera se llegaría a la condición Break-Even en la que la ganancia de energía es igual a la energía suministrada al sistema.
Expliquemos entonces la idea del confinamiento magnético.



El confinamiento magnético, consiste en confinar el plasma girando en el interior del Tokamak e ir elevando su temperatura hasta que se produzca la fusión.
Como se sabe, cuando circula una intensidad por una bobina, se genera un campo magnético a lo largo de su eje. Este campo magnético es idéntico al que se forma en el Tokamak. Según la ecuación de Lorentz, cuando una carga eléctrica en movimiento se ve afectada por un campo magnético aparece una fuerza sobre esta que modifica su trayectoria.

Para darle una mayor estabilidad a ese plasma giratorio, se le aplica una corriente de inducción a ese plasma mediante una columna que atraviesa el eje del Tokamak.
De  esta forma, igualmente que el secundario de un transformador, circulará una corriente eléctrica a lo largo del plasma. Esta corriente, inducirá un campo magnético poloidal a su alrededor y además, contribuirá a un primer calentamiento del plasma, que culminará con un calentamiento mediante radiacción. Todo esto es posible gracias a que el plasma posee cargas eléctricas libres.


Flujos magnéticos dentro del Tokamak.

   Por lo tanto este es el sistema de producción de energía nuclear que han decidido llevar a cabo.
Quedan todavía muchos años de investigación, pero sin duda, en cuanto se llegue al resultado esperado, será el inicio de otra nueva revolución industrial.
Estamos hablando de una fuente de energía prácticamente inagotable que, en unión con las demás fuentes de energías renovables, blindaría la futura necesidad energética para siempre.
Nos olvidaríamos de la emisión de gases efecto invernadero, ya que lo único que emite este tipo de reactores es helio, que es un gas inerte sin ninguna repercusión ambiental.
El riesgo de un fallo eléctrico interrumpiría directamente la operación sin ningún peligro de explosión como Chernobyl o Fukushima. Además, el tritio, aun siendo radiactivo, produce emisiones beta de baja energía, por lo que no sería peligroso para la salud. Es sin embargo, radiotóxico por ingestión o inhalación, pero las cantidades con las que se trabaja serían absolutamente insuficientes, ya que se disiparía en el aire atmosférico sin dar ningún otro tipo de problemas.

   Y esta es la necesidad o más bien obligación que tiene el ser humano para esta primera mitad de siglo. Intentar obtener esta nueva forma de energía para poder decir por fin adiós a toda la saga de combustibles fósiles que nos han ayudado a llegar hasta donde estamos. A partir de aquí, toca seguir evolucionando e irnos olvidando del fuego de nuestros antepasados prehistóricos.


                                                        Vídeo sobre el proyecto ITER.
     

                                                  Interior del Tokamak en funcionamiento.


Fuentes:

[Wiki]
[cult]
[bib]

miércoles, 7 de diciembre de 2011

Bacterias y energía.

   Las bacterias son microorganismos unicelulares, y son los organismos más abundantes de todo el planeta. Crecen en todos los hábitats terrestres, en todas partes. Desde los desiertos hasta los mares. Incluso resisten las condiciones del espacio exterior. Son los organismos más resistentes. En cada gramo de tierra, se pueden encontrar decenas de millones de ellas...

Bacterias E. Coli (x15000)
La primera idea de la existencia de estos microorganismos, emergió en una enciclopedia médica de 14 volúmenes, llamada "El Canon de medicina", escrita en 1020 por el médico musulmán Avicena. Evidentemente la idea que existía por aquel entonces, era una idea difusa basada en el pensamiento y no en la observación, ya que no existían medios suficientes como para poder profundizar en el tema.
Foto de Anton van Leeuwenhoek. 
Hubo que esperar casi 700 años para poder observarlas por primera vez (1683). El honor estuvo en las manos de Anton van Leeuwenhoek, científico de los Países Bajos, quien consiguió realizar estas observaciones con microscopios construidos por el mismo.
Otro gran impulso al estudio de las bacterias, llegó a mano de  Louis Pasteur, quien en 1859, derribó la teoría de la "generación espontánea".
Con el paso de los años, los estudios se fueron haciendo más rigurosos, y se le fueron atribuyendo a las bacterias numerosas propiedades que incitan un gran interés en la actualidad.
En el panorama de las energías renovables, están cobrando un papel de gran interés en la obtención de biocombustible: El etanol (alcohol etílico: C2H6O)


Astillas de madera para crear etanol.
Actualmente, el país más volcado en la generación de este biocombustible, es sin duda alguna EEUU.
En 2007, la empresa Range Fuels, atrajo millones de dolares de capital privado para la construcción de una planta de este biocombustible. Su objetivo, transformar 1000 toneladas diarias de astillas de madera y otros desechos en más de un millón de litros de etanol. El resultado, fue un fracaso absoluto. La conversión de biomasa en carburante resultó ser más difícil de lo que preveían y las ventas prácticamente nulas debido a la dificultad de competir en precio y prestaciones con la gasolina. En resumen: Grandes inconvenientes.
Lo mismo pasa con el etanol obtenido a partir del maíz. Se ve acorralado ante la necesidad de consumir entorno al 40% de la cosecha nacional, lo que provoca un aumento en el precio de los alimentos. (En 2010 se generaron  50.000 millones de litros de etanol en EEUU)


Otros métodos mejor planteados son utilizar la cáscara y el tallo del maíz en vez de la parte comestible, la caña de azúcar, producir combustibles líquidos a partir de algas o, donde entran en juego las bacterias, crear microorganismos manipulados genéticamente que segreguen hidrocarburos.
Recientemente en EEUU, se ha transformado la bacteria E.Coli (la encargada de la síntesis de insulina) en una productora que, recibiendo radiación solar, CO2 y agua, da como resultado diferentes hidrocarburos, entre ellos biodiésel. Esta bacteria, se alteró de tal forma que expulsa el aceite de manera que no hay que matarla para extraerlo. El aceite generado, flota en lo alto de la cuba donde se encuentran las bacterias, por lo que se puede retirar con facilidad para su posterior refinado. Esta bacteria presenta un crecimiento 3 veces superior al de la levadura y una capacidad de resistencia sorprendente para desarrollarse en ambientes extremos.
De momento se ve completamente imposible que este tipo de generación pueda reemplazar al petróleo. Pero tienen expectativas de que con el tiempo e invirtiendo el capital suficiente, se pueda frenar el aumento desmesurado de la demanda del combustible fósil.
Hay que tener en cuenta que un litro de metano tan solo aporta dos tercios de la energía que aportaría un litro de gasolina. Y sumándole que el ahorro de emisiones de CO2 a la atmósfera es más bien poco, hace que no se vea como el sustituto perfecto.

   Estos últimos días me he encontrado con un invento muy interesante en el que también se emplean bacterias para su funcionamiento. Se trata de una micropila bacteriana, y se considera la generadora de bioelectricidad más pequeña del mundo hasta el momento. Ha sido construida empleando la tecnología de microfluídos y una de las ventajas del uso de esta tecnología es que cualquier reacción química en un microfluido se desarrolla más rápidamente. Como pila que es,  su objetivo es generar corriente eléctrica, y por lo tanto, tendrá que tener un ánodo y un cátodo.

Pila bacteriana
Es aquí donde entra en juego la bacteria Shewanella Oneidensis (bacteria marina), la cual coloniza el ánodo creando una película (biofilm) sobre su superficie. Este ánodo está inmerso en un líquido que posee nutrientes para que la bacteria desarrolle su metabolismo. En el metabolismo bacteriano, se producen electrones mediante una reacción redox (obtención de ATP), que van a parar al cátodo, cerrando por lo tanto el circuito eléctrico. La electricidad que puede producir esta pila, es muy baja, (del orden de 7000 veces menos que una pila tipo AA) lo que imposibilita su comercialización para el funcionamiento de equipos electrónicos. Sin embargo el interés de esta pila reside más allá de la macroescala, y se centra en el futuro diseño de chips.


Shewanella Oneidensis.

   Las bacterias nos rodean día a día, y a veces, nos acabamos olvidando de sus utilidades y tan solo pensamos en ellas como propagadoras de enfermedades. Es cierto que cada año mueren miles de personas en todo el mundo por contagios bacterianos, y eso es difícil de remediar por el momento. Sin embargo, también es verdad que sin ellas la vida sería imposible.
En manos de los científicos queda la labor de buscar nuevas tareas que puedan ser asignadas a estos microorganismos, que, mejorados genéticamente, pueden llegar a ser una fuente productiva de energía a gran escala.




Fuentes:

[wiki]
[microbiologia]
[IyC]
[foto]