tu no estas solo o sola EN ESTE MUNDO SI TE GUSTO UN ARTICULO COMPARTELO, ENVIALO A LAS REDES SOCIALES, TWITTER, FACEBOOK

viernes, marzo 02, 2007

salmones en Chile

SALMONES EN CHILE
Rodrigo González Fernánbdez, director de la consultajuridica.blogspot.com, ha dicho: Un amigo que tiene salmoneras y otras cosas me solicitó información sobre los Salmones en el mundo. De inmediato me  puse a estudiar sobre la materia. Debo ser franco que lo único que sabía hasta hace algunas horas eran los fuertes problemas medioambientales que se vienen. Los estudiaremos y posiblemente abramos un blog. PERO MIREN HAY INTERÉS POR VENIR A CHILE CON INVERSIONES EN EL SECTOR...
Gigante noruego de salmones prepara su entrada a Chile
MundoMaritimo.cl - hace 18 horas
La compañía noruega Leroy Seafood Group, productora del 2% de salmones a nivel mundial, podría comenzar pronto sus operaciones en Chile luego de comprar ...
Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile

LA ENERGIA NUCLEAR ELEMENTOS BASICOS

ENERGIA NUCLEAR NOCIONES BASICAS
 

Tabla de contenidos

[ocultar]

[editar] Energía de fisión

La fisión nuclear del uranio es la principal aplicación práctica civil de la Energía Nuclear, y se emplea en cientos de centrales nucleares en todo el mundo, en países como Francia, Japón, Estados Unidos, Alemania, Argentina, Brasil, Suecia, España, China, Rusia, Corea del Norte, México, Pakistán o India.

Tiene como principal ventaja que no utiliza combustibles fósiles, con lo que no emite a la atmósfera gases tóxicos o de efecto invernadero. Esto es importante en el momento actual debido al Protocolo de Kioto que obliga a pagar una tasa por cada tonelada de CO2 emitido, estrategia seguida para evitar el calentamiento global. Sin embargo, las emisiones contaminantes indirectas derivadas de la construcción de una central nuclear, de la fabricación del combustible y de la gestión posterior de los residuos radiactivos no son despreciables.

Históricamente, las centrales nucleares fueron diseñadas con un uso militar, consiguiendo la fabricación del plutonio necesario para fabricar bombas de implosión como Fat Man, la bomba atómica lanzada sobre Nagasaki. Más tarde se comprobó que el plutonio fisible generado podía ser utilizado a su vez como combustible de fisión, aumentando enormemente[cita requerida] la eficiencia de las centrales nucleares y reduciendo así uno de los problemas de las mismas.

Como cualquier aplicación industrial humana, las aplicaciones nucleares generan residuos, algunos muy peligrosos. Sin embargo, los generan en volúmenes muy pequeños comparados con otras aplicaciones, como la industria petroquímica, y de forma muy controlada. Los residuos más peligrosos generados en la fisión nuclear son las barras de combustible, en las que se generan isótopos que pueden permanecer radiactivos a lo largo de miles de años. Son los transuránidos como el curio, el neptunio o el americio. También se generan residuos de alta actividad que deben ser vigilados, pero que tienen vidas medias cortas, es decir, duran pocos años y pueden ser controlados.

Debido a esto, actualmente los movimientos ecologistas ven en la energía nuclear una peligrosa fuente de contaminación, y grupos de opinión pública han presionado por su eliminación. Sin embargo, algunos de los gurús de los grupos ecologistas en los últimos tiempos abogan por un uso controlado de esta forma de energía mientras se desarrollan otras más seguras y limpias, como las renovables y la fusión, para poder así desechar en gran parte la quema de combustibles fósiles.

Existen, sin embargo, estrategias para tratar algunos de los residuos de forma más eficiente. Una de ellas se basa en el uso de centrales nucleares de nueva generación (Sistemas Asistidos por Aceleradores o ADS en inglés) usando torio como combustible adicional que degradan los desechos nucleares en un nuevo ciclo de fisión asistida y pasan como una alternativa viable para las necesidades energéticas de la población ante la dependencia del petróleo, aunque deberán vencer el rechazo de la población. Esta técnica es llamada transmutación, y el primer proyecto será construido alrededor del 2014 (Myrrha).

También existen métodos de aprovechamiento de algunos de los residuos peligrosos mediante el reciclado, separando los isótopos que pueden aprovecharse en aplicaciones médicas o industriales.

El tratamiento de los combustibles de fisión, en cualquier caso pasa por el almacenamiento de los residuos que no pudieran ser eliminados en cuevas profundas, los llamados almacenamientos geológicos profundos (AGP) donde el objetivo final es que queden enterrados con seguridad durante varios miles de años aunque esto no puede garantizarse.

Otro problema asociado a los reactores de fisión es la susceptibilidad de ser objetivos de los terroristas, igual que lo pueden ser otras instalaciones que fabrican productos tóxicos. Sin embargo, estas instalaciones poseen niveles de seguridad más elevados que la mayoría del resto de instalaciones industriales.

Véase también: Reactor nuclear

[editar] Energía de fusión

El empleo pacífico o civil de la energía de fusión está en fase experimental, existiendo dudas sobre su viabilidad técnica y económica.

La fusión es otra de las energías nucleares posibles, siendo estudiada en estos momentos la viabilidad de su aplicación en centrales de producción eléctrica como el ITER, el NIF u otras. Esta posibilidad promete ser la opción más eficiente y limpia de las conocidas por el hombre para generar electricidad. Sin embargo aun faltan varios años para poder ser utilizadas.

El principio en el que se basa es juntar suficientes núcleos de deuterio y tritio mediante presión o calor hasta lograr un estado llamado plasma. En dicho estado, los átomos se disgregan y los núcleos de hidrógeno pueden chocar y fusionarse obteniendo helio. La diferencia energética entre dos núcleos de deuterio y uno de helio se emite en forma de energía que servirá para mantener el estado de plasma y para la obtención de energía.

La principal dificultad consiste en confinar una masa de materia en estado de plasma, ya que no hay recipiente capaz de soportar dichas temperaturas. Para solucionarla se está trabajando con alternativas como el confinamiento magnético y el confinamiento inercial.

El proyecto ITER, en el que participan entre otros Japón y la Unión Europea, pretende construir una central experimental de fusión y comprobar su viabilidad económica. El proyecto NIF, en una fase mucho más avanzada que ITER, pretende lo mismo en Estados Unidos usando el confinamiento inercial .

[editar] Energía Nuclear en España

Con un valor de 12.000 millones de euros en activos[cita requerida], la energía nuclear produce alrededor del 20-25% (según la producción de renovables y la demanda) del total de electricidad en España.

En España actualmente se encuentran en funcionamiento nueve centrales nucleares: Santa María de Garoña, Almaraz I y II, Ascó I y II, Cofrentes, Vandellós II y Trillo.

Se paralizaron en la moratoria nuclear Lemóniz, I y II, Valdecaballeros I y II y Trillo II.

Se encuentran desmanteladas o en proceso de desmantelamiento Vandellós I y José Cabrera.

[editar] Armas nucleares

Las bombas nucleares (bomba atómica) y termonucleares, se fundamentan en una reacción de fisión explosiva y se emplearon por primera vez en Hiroshima y Nagasaki, durante la Segunda Guerra Mundial. Después de la Segunda Guerra Mundial se desarrolló una segunda generación de bombas termonucleares, llamadas bombas de hidrógeno, más potentes y destructivas que las de fisión, que se fundamentan en reacciones de fusión de hidrógeno pesado activadas por una reacción de fisión previa (fecha de la primera detonación de una bomba de hidrógeno: 1 de noviembre de 1952). Más tarde, a partir del año 1974, se construyeron las llamadas bombas de neutrones, con menor capacidad explosiva aunque con radiación intensiva de neutrones. Con esta generación de bombas nucleares se pretendía disponer de un arma capaz de matar o inhabilitar a las tropas enemigas, con sólo una destrucción limitada de las infraestructuras en el radio de acción de la bomba.

[editar] Véase también

[editar] Enlaces externos

Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile

QUE ENTENDEMOS POR ENERGIA NUCLEAR

Energía nuclear

En Chile ya se va a empezar a hablar de la energía nuclear. Vamos aprendiendo sobre este particular

Planta nuclear en Kewaunee, Wisconsin.

La energía nuclear es aquella que resulta del aprovechamiento de la capacidad que tienen algunos isótopos de ciertos elementos químicos para experimentar reacciones nucleares y emitir energía en la transformación. Una reacción nuclear consiste en la modificación de la composición del núcleo atómico de un elemento, que muta y pasa a ser otro elemento como consecuencia del proceso. Este proceso se da espontáneamente entre algunos elementos y en ocasiones puede provocarse mediante técnicas como el bombardeo neutrónico u otras.

Existen dos formas de aprovechar la energía nuclear para convertirla en calor: la fisión nuclear, en la que un núcleo atómico se subdivide en dos o más grupos de partículas, y la fusión nuclear, en la que al menos dos núcleos atómicos se unen para dar lugar a otro diferente.

Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile

ENRIQUE DANS LOS AGREGADORES

Panorámica del mercado de agregadores

AggregatorsMe ha resultado muy clarificadora esta estadística de FeedBurner, FeedBurner’s View of the Feed Market, a la que llego vía Denken Über, acerca del mercado de agregadores o lectores de feeds, confeccionada desde la privilegiada posición de “lo veo todo” que FeedBurner tiene al respecto. Hacía tiempo que no veía estadísticas de este subsegmento, lo último que había sabido al respecto eran unas apreciaciones de Michael Arrington, Just how bis is Google Reader?, en las que discutía unos datos de Hitwise que situaban a Google Reader claramente por detrás de agregadores como Bloglines y Rojo, argumentando que la extensiva utilización de AJAX por parte de Google Reader provocaba que la página se refrescase un número muy inferior de veces de las que necesitaba hacerlo en otros agregadores convencionales, provocando una penalización artificial de las estadísticas. Lo que el propio Michael comentaba era que sería preciso esperar a que FeedBurner, que todo lo ve, publicase sus propias estadísticas, para poder valorar realmente el tamaño de Google Reader.

Pues ya tenemos estadísticas de FeedBurner, y el resultado es francamente sorprendente, al menos para mí: Google Reader es bastante más grande de lo que imaginaba. De hecho es, en términos de número de clics originados, el segundo lector de feeds más grande tras el pionero My Yahoo!, mi primer agregador web allá por el año noventa y tantos, que es responsable de algo más de la mitad (54%) de los clics originados. Hay que tener en cuenta que My Yahoo! sólo muestra titulares, de manera que tienes que hacer clic para poder ver algo más que el titular de la noticia, lo que le da una mayor conversión. Si consideramos impresiones, y por tanto eliminamos My Yahoo!, Google Reader pasa a representar nada menos que el 59%, frente a un 33% de Bloglines y otros varios competidores con representación de un sólo dígito. Teniendo en cuenta que yo llevo utilizando Bloglines desde el año del tango, que seguramente seguiré utilizándolo porque contiene mi histórico de noticias leídas desde hace tiempo inmemorial (en el que viene muy bien poder hacer búsquedas… ¿dónde había leído yo aquello de…?), y además casi nos viene dado pensar en Google como esa empresa que lo hace fenomenal en la búsqueda, pero que sólo alcanza audiencias mínimas en casi todos los demás productos que tiene, yo diría que la panorámica de mercado es, como mínimo, muy sorprendente. Google Reader fue lanzado en Octubre de 2005, irrumpiendo en un subsector que contaba con competidores sólidos, asentados y de referencia. En muy poco tiempo, no sólo es el jugador más importante, sino que marca una tendencia con respecto a la forma de leer las noticias en la que únicamente le puede hacer sombra la enormemente prometedora Netvibes, mientras que competidores como Bloglines o My Yahoo! permanecen en situación de casi total inmovilidad. De hecho hoy, en una clase práctica, he puesto Google Reader por primera vez como ejemplo en lugar de poner Bloglines…

Technorati Tags: , , ,
Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile

EN EL BLOG DE ENRIQUE DANS HOY

La ventaja del dinosaurio, en Libertad Digital

DinosaurEn mi columna de Libertad Digital de hoy, “La ventaja del dinosaurio“, una reflexión sobre los efectos que Microsoft obtiene derivados del simple hecho de ser grande, y de manera independiente a otras características de su producto. Por ejemplo, la ventaja de ser incluido en toda máquina nueva viene derivada del hecho de tener un interés en que el propio sistema operativo sea grande y pesado, de manera que obligue al cambio de máquina y produzca así beneficios en simbiosis a su canal natural de distribución, los fabricantes de ordenadores. O el hecho de poder apalancar otros productos, como el navegador o los servicios online, que pasan a tener una cuota de mercado elevada no por sus méritos como productos, sino por el hecho de incluirlos como opción preinstalada por defecto en el sistema operativo.  En el fondo, el uso de exactamente las mismas técnicas que colocaron a Microsoft donde hoy está.

¿Es malvada y criticable Microsoft por utilizar la técnica de apalancarse en su tamaño? No, en absoluto. Se trata de una técnica legítima - siempre que los Tribunales de Defensa de la Competencia no digan lo contrario - e inherente al funcionamiento de las reglas de la economía. Es muy posible que cualquier otra empresa en su situación intentase hacer uso de estrategias similares. ¿A qué viene, por tanto, el artículo? Simplemente, a la necesidad de plantearse si lo que es una ventaja para el dinosaurio, lo es igualmente para el ecosistema o para cualquier otro de sus integrantes. ¿Obtienen los clientes de Microsoft una ventaja derivada del hecho de que la empresa se apalanque en su tamaño para colocar sus productos? ¿O estarían mejor esos clientes con un sistema que no les obligase, por ejemplo, a cambiar necesariamente de máquina? ¿Obtiene una ventaja alguien - aparte de Microsoft - derivada del hecho de que determinados productos como el navegador o los servicios online obtengan un dominio de manera artificial y distorsionando la libre competencia? Esa, para mí, es la parte interesante de la discusión.

Technorati Tags: , , , , ,
Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile

DESDE LA NACION: Suprema aminora disputa con Justicia y busca autonomía financiera

Viernes 2 de marzo de 2007

El presidente de la Corte Suprema, Enrique Tapia, durante la lectura del discurso inaugural.
- Lea el discurso del ministro Tapia
Suprema aminora disputa con Justicia y busca autonomía financiera

Tapia señaló como una necesidad imperiosa que se decrete la autonomía financiera para administrar de la mejor manera los fondos entregados por el Ministerio de Hacienda.



La Nación

A.L.V.

Todos esperaban que el discurso inaugural del Año Judicial 2007 del presidente de la Corte Suprema, Enrique Tapia, haría arder Troya. Sin embargo, el magistrado sólo esbozó una tibia crítica a la gestión del ministro de Justicia, Isidro Solís.

Tapia hizo referencia al mal momento por el que pasan las relaciones con Solís, debido a que no se ha solucionado temas como reformar los Juzgados de Familia, sacar adelante la nueva justicia laboral y terminar con la demora en el nombramiento de jueces.

En su discurso, Tapia indicó que durante el 2006 hubo serias falencias que repercutieron en el funcionamiento del Poder Judicial como la postergación de varios proyectos discutidos por la Mesa Judicial durante el año 2004.

“En suma si bien las relaciones institucionales de que se viene hablando, no han sido óptimas, el Pleno de este Tribunal ha insistido en la continuación y fortalecimiento del diálogo por medio de la Mesa Judicial. Por lo que esperamos de parte del Ministerio de Justicia la voluntad necesaria para tratar los problemas existentes”, señaló en el discurso.

Isidro Solís afirmó que no esperaba un discurso confrontacional y que trabajará arduamente para enfrentar el reajuste de remuneraciones y la modificación del reglamento sobre los recursos de queja disciplinaria.

“Nunca esperé un tono conflictivo. Yo creo que eso fue una anticipación de la prensa y que claramente se ha despejado la polémica con el presidente, quien ha demostrado una extraordinaria mesura al dar a conocer todas las aspiraciones del Poder Judicial”, dijo Solís.

Autonomía

Tapia fue enfático al señalar que es un necesidad imperante que sea decretada la autonomía financiera para que sean administrados de la mejor manera los fondos entregados anualmente por el Ministerio de Hacienda.

Para concretar esta independencia sería necesario que la cantidad de recursos se determine en un porcentaje del presupuesto nacional fijado en una ley permanente, lo cual no debe ser entendido como un costo mayor.

“El Poder Judicial no debiera estar sujeto a la dependencia de entes externos en la ejecución y administración de su presupuesto previamente determinado.

No es posible concebir la existencia ni el cumplimiento eficiente y eficaz, regular y continuo de la función judicial, sin los recursos necesarios ni la autocapacidad de administrarlos”, dijo Tapia.

El buen funcionamiento de la Corte Suprema fue un punto importante dentro del discurso, puesto que las estadísticas presentadas en la ceremonia señalan que las salas de la Corte Suprema resolvieron 7.745 causas siendo que sólo ingresaron 6.755.

Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile

AGRICULTURA BLOGGER. ESTUDIO SOBRE VACA LOCA

Vacas locas

Hamburguesas y priones
El riesgo del consumo de productos contaminados por priones obliga a desarrollar métodos capaces de detectar estos componentes en productos considerados sensibles, como la carne picada

28 de febrero de 2007 | Bibliografía
JOSÉ JUAN RODRÍGUEZ JEREZ

La encefalopatía espongiforme bovina o enfermedad de las «vacas locas» y la variante humana de Creutzfeldt-Jakob plantean numerosos y difíciles retos científicos, y no es posible responder a todas las preguntas con una certeza absoluta. Todo ello obliga a definir nuevos métodos de análisis que permitan conocer y definir los nuevos desafíos. Una de las principales necesidades es realizar análisis no sólo en mataderos, sino también en los productos sensibles que, por su forma de elaboración, pueden estar contaminados con ingredientes que no deberían estar presentes y que no se detectan con facilidad, como es el caso de la carne picada. En EEUU, uno de los países con mayor número de consumidores de hamburguesas, se han instaurado controles para determinar la cantidad de carne y de vísceras en el alimento y garantizar la total seguridad del producto.

La encefalopatía espongiforme bovina o «enfermedad de las vacas locas» es una enfermedad de reciente aparición. Los primeros casos de animales enfermos se declararon en el Reino Unido en 1986. En 1996 se detectó en personas una nueva enfermedad, una variante de la enfermedad de Creutzfeldt-Jakob, que se relacionó con la epidemia de EEB en el ganado vacuno. Se cree que la causa de esa enfermedad es el consumo de carne de vacuno y/o de otros productos derivados del vacuno contaminados.

Desde entonces ha sido mucha la información que se ha publicado y muchas las iniciativas emprendidas para minimizar los riesgos. En la mayoría de los países las acciones que se han aplicado han seguido la misma secuencia, es decir, análisis de todos los animales tras la toma de muestras directa en los mataderos, susceptibles de presentar lesiones, y retirada y destrucción de todos los materiales específicos de riesgo (MER). Sin embargo, tras la confirmación de la potencial transmisión de los priones a las personas sensibles se consideró la necesidad de controlar no sólo los mataderos, sino también la presencia de otros componentes en la carne, especialmente aquellas partes del sistema nervioso central o restos de algunos ganglios linfáticos, que se puedan añadir a la carne de forma no conocida.

Este peligro ha quedado especialmente reflejado en EEUU, uno de los países con mayor número de consumidores de carne picada del mundo. Preocupa especialmente el hecho de no poder conocer exactamente el contenido de la mezcla, ya que en algunos casos se puede mezclar la carne con algunas vísceras, entre las que se encuentra una parte de sesos o incluso algunos ganglios linfáticos. Por este motivo, en EEUU se instauraron controles destinados a determinar la cantidad de carne y de vísceras que puedan existir en las hamburguesas con el fin de garantizar la total seguridad del producto.

Hamburguesas y priones

EEUU aplica protocolos específicos para detectar restos de sistema nervioso central en el interior de la masa de carne de hamburguesa
Desde el conocimiento del riesgo intrínseco relacionado con el consumo de productos contaminados por priones las hamburguesas están consideradas como uno de los alimentos más peligrosos. Este producto está compuesto básicamente de carne picada, algunas especias y sal. Sin embargo, en algunos países, y especialmente en EEUU, la carne se puede mezclar con algunas pequeñas cantidades de vísceras, como algunas cantidades de sesos.

Por ello, se han desarrollado protocolos específicos que pretenden detectar restos de sistema nervioso central en el interior de la masa de carne. El problema se presentó al intentar detectar ese material indeseable, ya que las técnicas inmunológicas son difíciles de aplicar, e imposible la biología molecular. En este sentido, no se puede utilizar el PCR o el análisis genético puesto que si la especie es la misma, la genética también, lo que complica biología molecular. Por ello, se podrían emplear técnicas inmunológicas contra elementos propios del sistema nervioso, o bien técnicas microscópicas que permitan diferenciar las estructuras mediante tinciones más o menos específicas.

Detección de elementos indeseables

Una de las primeras medidas para la detección de estos elementos fue el empleo de técnicas microscópicas, de la misma manera que se hace para detectar la existencia de harinas de carne en la alimentación animal. Las harinas, la carne y el hueso poseen unas características muy diferentes si se visualizan al microscopio, hasta tal punto que se considera uno de los sistemas más fiables para la detección de mezclas, tanto por su precisión como por su bajo precio. En el caso de la mezcla con carne, la situación es muy diferente ya que no se trata de una mezcla de diferentes productos sino de componentes muy similares. Por una parte está la carne, con sus estructuras características, pero por otra están todos los elementos que la acompañan, como tejido conjuntivo, grasa y terminaciones nerviosas que facilitan la transmisión del impulso nervioso. Si esto es así en el músculo entero, y se puede diferenciar con cierta facilidad, es mucho más complejo en el caso de la carne picada.

La carne picada es un triturado en el que la continuidad de los tejidos se ha destruido, por lo que la diferenciación por el aspecto es extraordinariamente compleja. Por lo tanto, la probabilidad de detectar una mezcla indeseable es baja si no se cuenta con una ayuda que permita distinguir las proteínas musculares de las que no lo son. Como solución a este problema se ha planteado una asociación entre la inmunohistoquímica y la microscopía. En realidad se trata de una técnica bien conocida en la anatomía patológica, puesto que consiste en usar anticuerpos específicos del elemento a detectar, que se marcan de manera que al unirse con su antígeno precipitan un colorante que tiñe la zona. Posteriormente, y mediante observación al microscopio, se puede apreciar la existencia de esas zonas marcadas y confirmar la existencia del elemento que se quiere detectar.

Esta técnica es la que están empleando como referencia los servicios de inspección del departamento de agricultura de EEUU (FSIS-USDA, en sus siglas inglesas) desde el año 2004. Sin embargo, el protocolo tiene limitaciones importantes que impiden que pueda ser un buen sistema de control rutinario de las hamburguesas de consumo. En primer lugar, se necesita mucho tiempo para poder analizar una muestra, incluso más de una semana para poder confirmarlos, y además es imprescindible el trabajo de personal altamente cualificado.


PRUEBAS INMUNOLÓGICAS
Para poder reducir el tiempo de análisis y abaratar costes en la detección de materiales indeseables en la carne, se publicó en 2006 una comparativa de tres métodos diferentes de análisis. Este trabajo indicaba la sustitución del actual protocolo de referencia por una nueva técnica de ELISA. En realidad, el principio es parecido al de inmunohistoquímica?microscopía, y se basa en la capacidad de detectar las proteínas extrañas presentes en el sistema nervioso o en los ganglios linfáticos que no se encuentran en la carne. Esto se hace mediante anticuerpos monoclonales, empleados contra un preparado de la hamburguesa o la carne picada.

Posteriormente se aplica un nuevo anticuerpo marcado que reconoce la unión del primero con su correspondiente antígeno. Una vez que se consolida esta unión, se puede detectar por la aparición de un producto coloreado que se puede medir por medio de un lector. Las ventajas de este sistema son indudables, ya que puede estandarizarse de tal manera que cualquier analista entrenado puede realizarla, como técnica es mucho más sencilla y tiene un coste sensiblemente menor. En consecuencia, el empleo podría dar resultados mucho más competitivos. No obstante, debe tenerse en cuenta que el objetivo es claramente la eficacia. Todo ello ha generado una polémica importante entre algunos investigadores estadounidenses, especialmente entre el FSIS e investigadores de la Universidad de Colorado, que no han llegado a un acuerdo sobre las conclusiones de los diversos estudios que se están realizando.


Bibliografía
  • Anónimo 2004. U.S. Department of Agriculture, Food Safety and Inspection Service. Detection of central nervous system tissue and dorsal root ganglia in beef and central nervous system tissue in pork comminuted meat products by histologic examination of hematoxylin and eosin stained slides and glial fibrillary acidic protein immunohistochemistry. SOP no: PLG 0001.01 (http://www.fsis.usda.gov/ophs/ plg/plg0001-01.pdf).
  • HILL JE, MCCASKEY PC, SUTTON MT, HAFNER S. 2007. Letter to the Editor: Comparison of Immunochemical (Enzyme-Linked Immunosorbent Assay) and Immunohistochemical Methods for the Detection of Central Nervous System Tissue in Meat Products. A Comment on: J. Food Prot. 69(3):644?650 (2006). J. Food Prot. 70(2):276?279.
  • Hossner KL, Yemm RS, Sonnenshein SE, Mason GL, Cummings BA, Reddy MCS, Sofos JN, Scanga JA, Tatum JD, Smith GC, Belk KE. 2006. Comparison of Immunochemical (Enzyme-Linked Immunosorbent Assay) and Immunohistochemical Methods for the Detection of Central Nervous System Tissue in Meat Products. J. Food Prot. 69(3):644-650.
Saludos cordiales
RODRIGO GONZALEZ FERNANDEZ
CONSULTAJURIDICACHILE.BLOGSPOT.COM
Renato Sánchez 3586 dep 10
Santiago, Chile