|
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile
Rodrigo González Fernández, con formación en la agronomía, en el derecho, en la empresa más un grupo multidisciplinario de profesionales buscamos traerles lo mejos de los blogs del mundo para las personas, para las empresas. Soliciten nuestras conferencias, charlas y cursos; rogofe47@mi.cl Santiago Chile
|
Tabla de contenidos[ocultar] |
La fisión nuclear del uranio es la principal aplicación práctica civil de la Energía Nuclear, y se emplea en cientos de centrales nucleares en todo el mundo, en países como Francia, Japón, Estados Unidos, Alemania, Argentina, Brasil, Suecia, España, China, Rusia, Corea del Norte, México, Pakistán o India.
Tiene como principal ventaja que no utiliza combustibles fósiles, con lo que no emite a la atmósfera gases tóxicos o de efecto invernadero. Esto es importante en el momento actual debido al Protocolo de Kioto que obliga a pagar una tasa por cada tonelada de CO2 emitido, estrategia seguida para evitar el calentamiento global. Sin embargo, las emisiones contaminantes indirectas derivadas de la construcción de una central nuclear, de la fabricación del combustible y de la gestión posterior de los residuos radiactivos no son despreciables.
Históricamente, las centrales nucleares fueron diseñadas con un uso militar, consiguiendo la fabricación del plutonio necesario para fabricar bombas de implosión como Fat Man, la bomba atómica lanzada sobre Nagasaki. Más tarde se comprobó que el plutonio fisible generado podía ser utilizado a su vez como combustible de fisión, aumentando enormemente[cita requerida] la eficiencia de las centrales nucleares y reduciendo así uno de los problemas de las mismas.
Como cualquier aplicación industrial humana, las aplicaciones nucleares generan residuos, algunos muy peligrosos. Sin embargo, los generan en volúmenes muy pequeños comparados con otras aplicaciones, como la industria petroquímica, y de forma muy controlada. Los residuos más peligrosos generados en la fisión nuclear son las barras de combustible, en las que se generan isótopos que pueden permanecer radiactivos a lo largo de miles de años. Son los transuránidos como el curio, el neptunio o el americio. También se generan residuos de alta actividad que deben ser vigilados, pero que tienen vidas medias cortas, es decir, duran pocos años y pueden ser controlados.
Debido a esto, actualmente los movimientos ecologistas ven en la energía nuclear una peligrosa fuente de contaminación, y grupos de opinión pública han presionado por su eliminación. Sin embargo, algunos de los gurús de los grupos ecologistas en los últimos tiempos abogan por un uso controlado de esta forma de energía mientras se desarrollan otras más seguras y limpias, como las renovables y la fusión, para poder así desechar en gran parte la quema de combustibles fósiles.
Existen, sin embargo, estrategias para tratar algunos de los residuos de forma más eficiente. Una de ellas se basa en el uso de centrales nucleares de nueva generación (Sistemas Asistidos por Aceleradores o ADS en inglés) usando torio como combustible adicional que degradan los desechos nucleares en un nuevo ciclo de fisión asistida y pasan como una alternativa viable para las necesidades energéticas de la población ante la dependencia del petróleo, aunque deberán vencer el rechazo de la población. Esta técnica es llamada transmutación, y el primer proyecto será construido alrededor del 2014 (Myrrha).
También existen métodos de aprovechamiento de algunos de los residuos peligrosos mediante el reciclado, separando los isótopos que pueden aprovecharse en aplicaciones médicas o industriales.
El tratamiento de los combustibles de fisión, en cualquier caso pasa por el almacenamiento de los residuos que no pudieran ser eliminados en cuevas profundas, los llamados almacenamientos geológicos profundos (AGP) donde el objetivo final es que queden enterrados con seguridad durante varios miles de años aunque esto no puede garantizarse.
Otro problema asociado a los reactores de fisión es la susceptibilidad de ser objetivos de los terroristas, igual que lo pueden ser otras instalaciones que fabrican productos tóxicos. Sin embargo, estas instalaciones poseen niveles de seguridad más elevados que la mayoría del resto de instalaciones industriales.
El empleo pacífico o civil de la energía de fusión está en fase experimental, existiendo dudas sobre su viabilidad técnica y económica.
La fusión es otra de las energías nucleares posibles, siendo estudiada en estos momentos la viabilidad de su aplicación en centrales de producción eléctrica como el ITER, el NIF u otras. Esta posibilidad promete ser la opción más eficiente y limpia de las conocidas por el hombre para generar electricidad. Sin embargo aun faltan varios años para poder ser utilizadas.
El principio en el que se basa es juntar suficientes núcleos de deuterio y tritio mediante presión o calor hasta lograr un estado llamado plasma. En dicho estado, los átomos se disgregan y los núcleos de hidrógeno pueden chocar y fusionarse obteniendo helio. La diferencia energética entre dos núcleos de deuterio y uno de helio se emite en forma de energía que servirá para mantener el estado de plasma y para la obtención de energía.
La principal dificultad consiste en confinar una masa de materia en estado de plasma, ya que no hay recipiente capaz de soportar dichas temperaturas. Para solucionarla se está trabajando con alternativas como el confinamiento magnético y el confinamiento inercial.
El proyecto ITER, en el que participan entre otros Japón y la Unión Europea, pretende construir una central experimental de fusión y comprobar su viabilidad económica. El proyecto NIF, en una fase mucho más avanzada que ITER, pretende lo mismo en Estados Unidos usando el confinamiento inercial .
Con un valor de 12.000 millones de euros en activos[cita requerida], la energía nuclear produce alrededor del 20-25% (según la producción de renovables y la demanda) del total de electricidad en España.
En España actualmente se encuentran en funcionamiento nueve centrales nucleares: Santa María de Garoña, Almaraz I y II, Ascó I y II, Cofrentes, Vandellós II y Trillo.
Se paralizaron en la moratoria nuclear Lemóniz, I y II, Valdecaballeros I y II y Trillo II.
Se encuentran desmanteladas o en proceso de desmantelamiento Vandellós I y José Cabrera.
Las bombas nucleares (bomba atómica) y termonucleares, se fundamentan en una reacción de fisión explosiva y se emplearon por primera vez en Hiroshima y Nagasaki, durante la Segunda Guerra Mundial. Después de la Segunda Guerra Mundial se desarrolló una segunda generación de bombas termonucleares, llamadas bombas de hidrógeno, más potentes y destructivas que las de fisión, que se fundamentan en reacciones de fusión de hidrógeno pesado activadas por una reacción de fisión previa (fecha de la primera detonación de una bomba de hidrógeno: 1 de noviembre de 1952). Más tarde, a partir del año 1974, se construyeron las llamadas bombas de neutrones, con menor capacidad explosiva aunque con radiación intensiva de neutrones. Con esta generación de bombas nucleares se pretendía disponer de un arma capaz de matar o inhabilitar a las tropas enemigas, con sólo una destrucción limitada de las infraestructuras en el radio de acción de la bomba.
La energía nuclear es aquella que resulta del aprovechamiento de la capacidad que tienen algunos isótopos de ciertos elementos químicos para experimentar reacciones nucleares y emitir energía en la transformación. Una reacción nuclear consiste en la modificación de la composición del núcleo atómico de un elemento, que muta y pasa a ser otro elemento como consecuencia del proceso. Este proceso se da espontáneamente entre algunos elementos y en ocasiones puede provocarse mediante técnicas como el bombardeo neutrónico u otras.
Existen dos formas de aprovechar la energía nuclear para convertirla en calor: la fisión nuclear, en la que un núcleo atómico se subdivide en dos o más grupos de partículas, y la fusión nuclear, en la que al menos dos núcleos atómicos se unen para dar lugar a otro diferente.
|
Me ha resultado muy clarificadora esta estadística de FeedBurner, FeedBurners View of the Feed Market, a la que llego vía Denken Über, acerca del mercado de agregadores o lectores de feeds, confeccionada desde la privilegiada posición de lo veo todo que FeedBurner tiene al respecto. Hacía tiempo que no veía estadísticas de este subsegmento, lo último que había sabido al respecto eran unas apreciaciones de Michael Arrington, Just how bis is Google Reader?, en las que discutía unos datos de Hitwise que situaban a Google Reader claramente por detrás de agregadores como Bloglines y Rojo, argumentando que la extensiva utilización de AJAX por parte de Google Reader provocaba que la página se refrescase un número muy inferior de veces de las que necesitaba hacerlo en otros agregadores convencionales, provocando una penalización artificial de las estadísticas. Lo que el propio Michael comentaba era que sería preciso esperar a que FeedBurner, que todo lo ve, publicase sus propias estadísticas, para poder valorar realmente el tamaño de Google Reader.
Pues ya tenemos estadísticas de FeedBurner, y el resultado es francamente sorprendente, al menos para mí: Google Reader es bastante más grande de lo que imaginaba. De hecho es, en términos de número de clics originados, el segundo lector de feeds más grande tras el pionero My Yahoo!, mi primer agregador web allá por el año noventa y tantos, que es responsable de algo más de la mitad (54%) de los clics originados. Hay que tener en cuenta que My Yahoo! sólo muestra titulares, de manera que tienes que hacer clic para poder ver algo más que el titular de la noticia, lo que le da una mayor conversión. Si consideramos impresiones, y por tanto eliminamos My Yahoo!, Google Reader pasa a representar nada menos que el 59%, frente a un 33% de Bloglines y otros varios competidores con representación de un sólo dígito. Teniendo en cuenta que yo llevo utilizando Bloglines desde el año del tango, que seguramente seguiré utilizándolo porque contiene mi histórico de noticias leídas desde hace tiempo inmemorial (en el que viene muy bien poder hacer búsquedas ¿dónde había leído yo aquello de ?), y además casi nos viene dado pensar en Google como esa empresa que lo hace fenomenal en la búsqueda, pero que sólo alcanza audiencias mínimas en casi todos los demás productos que tiene, yo diría que la panorámica de mercado es, como mínimo, muy sorprendente. Google Reader fue lanzado en Octubre de 2005, irrumpiendo en un subsector que contaba con competidores sólidos, asentados y de referencia. En muy poco tiempo, no sólo es el jugador más importante, sino que marca una tendencia con respecto a la forma de leer las noticias en la que únicamente le puede hacer sombra la enormemente prometedora Netvibes, mientras que competidores como Bloglines o My Yahoo! permanecen en situación de casi total inmovilidad. De hecho hoy, en una clase práctica, he puesto Google Reader por primera vez como ejemplo en lugar de poner Bloglines
Technorati Tags: aggregators, feed readers, FeedBurner, RSSEn mi columna de Libertad Digital de hoy, La ventaja del dinosaurio, una reflexión sobre los efectos que Microsoft obtiene derivados del simple hecho de ser grande, y de manera independiente a otras características de su producto. Por ejemplo, la ventaja de ser incluido en toda máquina nueva viene derivada del hecho de tener un interés en que el propio sistema operativo sea grande y pesado, de manera que obligue al cambio de máquina y produzca así beneficios en simbiosis a su canal natural de distribución, los fabricantes de ordenadores. O el hecho de poder apalancar otros productos, como el navegador o los servicios online, que pasan a tener una cuota de mercado elevada no por sus méritos como productos, sino por el hecho de incluirlos como opción preinstalada por defecto en el sistema operativo. En el fondo, el uso de exactamente las mismas técnicas que colocaron a Microsoft donde hoy está.
¿Es malvada y criticable Microsoft por utilizar la técnica de apalancarse en su tamaño? No, en absoluto. Se trata de una técnica legítima - siempre que los Tribunales de Defensa de la Competencia no digan lo contrario - e inherente al funcionamiento de las reglas de la economía. Es muy posible que cualquier otra empresa en su situación intentase hacer uso de estrategias similares. ¿A qué viene, por tanto, el artículo? Simplemente, a la necesidad de plantearse si lo que es una ventaja para el dinosaurio, lo es igualmente para el ecosistema o para cualquier otro de sus integrantes. ¿Obtienen los clientes de Microsoft una ventaja derivada del hecho de que la empresa se apalanque en su tamaño para colocar sus productos? ¿O estarían mejor esos clientes con un sistema que no les obligase, por ejemplo, a cambiar necesariamente de máquina? ¿Obtiene una ventaja alguien - aparte de Microsoft - derivada del hecho de que determinados productos como el navegador o los servicios online obtengan un dominio de manera artificial y distorsionando la libre competencia? Esa, para mí, es la parte interesante de la discusión.
Technorati Tags: dinosaur, Libertad Digital, live, Microsoft, MSIE, Vista | |||||
El presidente de la Corte Suprema, Enrique Tapia, durante la lectura del discurso inaugural. | |||||
| |||||
Tapia señaló como una necesidad imperiosa que se decrete la autonomía financiera para administrar de la mejor manera los fondos entregados por el Ministerio de Hacienda.
La Nación |
A.L.V.
Todos esperaban que el discurso inaugural del Año Judicial 2007 del presidente de la Corte Suprema, Enrique Tapia, haría arder Troya. Sin embargo, el magistrado sólo esbozó una tibia crítica a la gestión del ministro de Justicia, Isidro Solís.
Tapia hizo referencia al mal momento por el que pasan las relaciones con Solís, debido a que no se ha solucionado temas como reformar los Juzgados de Familia, sacar adelante la nueva justicia laboral y terminar con la demora en el nombramiento de jueces.
En su discurso, Tapia indicó que durante el 2006 hubo serias falencias que repercutieron en el funcionamiento del Poder Judicial como la postergación de varios proyectos discutidos por la Mesa Judicial durante el año 2004.
En suma si bien las relaciones institucionales de que se viene hablando, no han sido óptimas, el Pleno de este Tribunal ha insistido en la continuación y fortalecimiento del diálogo por medio de la Mesa Judicial. Por lo que esperamos de parte del Ministerio de Justicia la voluntad necesaria para tratar los problemas existentes, señaló en el discurso.
Isidro Solís afirmó que no esperaba un discurso confrontacional y que trabajará arduamente para enfrentar el reajuste de remuneraciones y la modificación del reglamento sobre los recursos de queja disciplinaria.
Nunca esperé un tono conflictivo. Yo creo que eso fue una anticipación de la prensa y que claramente se ha despejado la polémica con el presidente, quien ha demostrado una extraordinaria mesura al dar a conocer todas las aspiraciones del Poder Judicial, dijo Solís.
Autonomía
Tapia fue enfático al señalar que es un necesidad imperante que sea decretada la autonomía financiera para que sean administrados de la mejor manera los fondos entregados anualmente por el Ministerio de Hacienda.
Para concretar esta independencia sería necesario que la cantidad de recursos se determine en un porcentaje del presupuesto nacional fijado en una ley permanente, lo cual no debe ser entendido como un costo mayor.
El Poder Judicial no debiera estar sujeto a la dependencia de entes externos en la ejecución y administración de su presupuesto previamente determinado.
No es posible concebir la existencia ni el cumplimiento eficiente y eficaz, regular y continuo de la función judicial, sin los recursos necesarios ni la autocapacidad de administrarlos, dijo Tapia.
El buen funcionamiento de la Corte Suprema fue un punto importante dentro del discurso, puesto que las estadísticas presentadas en la ceremonia señalan que las salas de la Corte Suprema resolvieron 7.745 causas siendo que sólo ingresaron 6.755.
Vacas locas Hamburguesas y priones El riesgo del consumo de productos contaminados por priones obliga a desarrollar métodos capaces de detectar estos componentes en productos considerados sensibles, como la carne picada 28 de febrero de 2007 | Bibliografía JOSÉ JUAN RODRÍGUEZ JEREZ La encefalopatía espongiforme bovina o enfermedad de las «vacas locas» y la variante humana de Creutzfeldt-Jakob plantean numerosos y difíciles retos científicos, y no es posible responder a todas las preguntas con una certeza absoluta. Todo ello obliga a definir nuevos métodos de análisis que permitan conocer y definir los nuevos desafíos. Una de las principales necesidades es realizar análisis no sólo en mataderos, sino también en los productos sensibles que, por su forma de elaboración, pueden estar contaminados con ingredientes que no deberían estar presentes y que no se detectan con facilidad, como es el caso de la carne picada. En EEUU, uno de los países con mayor número de consumidores de hamburguesas, se han instaurado controles para determinar la cantidad de carne y de vísceras en el alimento y garantizar la total seguridad del producto. Desde entonces ha sido mucha la información que se ha publicado y muchas las iniciativas emprendidas para minimizar los riesgos. En la mayoría de los países las acciones que se han aplicado han seguido la misma secuencia, es decir, análisis de todos los animales tras la toma de muestras directa en los mataderos, susceptibles de presentar lesiones, y retirada y destrucción de todos los materiales específicos de riesgo (MER). Sin embargo, tras la confirmación de la potencial transmisión de los priones a las personas sensibles se consideró la necesidad de controlar no sólo los mataderos, sino también la presencia de otros componentes en la carne, especialmente aquellas partes del sistema nervioso central o restos de algunos ganglios linfáticos, que se puedan añadir a la carne de forma no conocida. Este peligro ha quedado especialmente reflejado en EEUU, uno de los países con mayor número de consumidores de carne picada del mundo. Preocupa especialmente el hecho de no poder conocer exactamente el contenido de la mezcla, ya que en algunos casos se puede mezclar la carne con algunas vísceras, entre las que se encuentra una parte de sesos o incluso algunos ganglios linfáticos. Por este motivo, en EEUU se instauraron controles destinados a determinar la cantidad de carne y de vísceras que puedan existir en las hamburguesas con el fin de garantizar la total seguridad del producto. Por ello, se han desarrollado protocolos específicos que pretenden detectar restos de sistema nervioso central en el interior de la masa de carne. El problema se presentó al intentar detectar ese material indeseable, ya que las técnicas inmunológicas son difíciles de aplicar, e imposible la biología molecular. En este sentido, no se puede utilizar el PCR o el análisis genético puesto que si la especie es la misma, la genética también, lo que complica biología molecular. Por ello, se podrían emplear técnicas inmunológicas contra elementos propios del sistema nervioso, o bien técnicas microscópicas que permitan diferenciar las estructuras mediante tinciones más o menos específicas. La carne picada es un triturado en el que la continuidad de los tejidos se ha destruido, por lo que la diferenciación por el aspecto es extraordinariamente compleja. Por lo tanto, la probabilidad de detectar una mezcla indeseable es baja si no se cuenta con una ayuda que permita distinguir las proteínas musculares de las que no lo son. Como solución a este problema se ha planteado una asociación entre la inmunohistoquímica y la microscopía. En realidad se trata de una técnica bien conocida en la anatomía patológica, puesto que consiste en usar anticuerpos específicos del elemento a detectar, que se marcan de manera que al unirse con su antígeno precipitan un colorante que tiñe la zona. Posteriormente, y mediante observación al microscopio, se puede apreciar la existencia de esas zonas marcadas y confirmar la existencia del elemento que se quiere detectar. Esta técnica es la que están empleando como referencia los servicios de inspección del departamento de agricultura de EEUU (FSIS-USDA, en sus siglas inglesas) desde el año 2004. Sin embargo, el protocolo tiene limitaciones importantes que impiden que pueda ser un buen sistema de control rutinario de las hamburguesas de consumo. En primer lugar, se necesita mucho tiempo para poder analizar una muestra, incluso más de una semana para poder confirmarlos, y además es imprescindible el trabajo de personal altamente cualificado. |
PRUEBAS INMUNOLÓGICAS | ||||||||||||||
Posteriormente se aplica un nuevo anticuerpo marcado que reconoce la unión del primero con su correspondiente antígeno. Una vez que se consolida esta unión, se puede detectar por la aparición de un producto coloreado que se puede medir por medio de un lector. Las ventajas de este sistema son indudables, ya que puede estandarizarse de tal manera que cualquier analista entrenado puede realizarla, como técnica es mucho más sencilla y tiene un coste sensiblemente menor. En consecuencia, el empleo podría dar resultados mucho más competitivos. No obstante, debe tenerse en cuenta que el objetivo es claramente la eficacia. Todo ello ha generado una polémica importante entre algunos investigadores estadounidenses, especialmente entre el FSIS e investigadores de la Universidad de Colorado, que no han llegado a un acuerdo sobre las conclusiones de los diversos estudios que se están realizando. |
Bibliografía | ||
|